Nvidia ha realizado otro movimiento importante en la carrera global hacia soluciones de IA de alta gama. La compañía afirma que sus nuevos chips de centros de datos Rubin están casi listos para su lanzamiento a finales de este año, y los clientes pronto comenzarán a probarlos.
Los seis chips Rubin han regresado de los socios de fabricación de Nvidia, informó Nvidia. Estos chips ya han sido sometidos a varios procedimientos de prueba clave y están en el cronograma para ser utilizados por los clientes. La empresa señala que este progreso temprano es importante porque las empresas de IA y los centros de datos están compitiendo para obtener hardware más rápido y eficiente.
El Director Ejecutivo de Nvidia, Jensen Huang, compartió la actualización en un discurso principal en la Feria de Electrónica de Consumo (CES) en Las Vegas. CES es una de las reuniones tecnológicas más grandes del mundo, en la que los fabricantes presentan nuevos productos e ideas. "La carrera por la IA está en marcha", dijo Huang en medio de la carrera en rápido desarrollo entre las empresas tecnológicas para desbloquear la próxima generación de IA.
Sus comentarios indican que Nvidia está muy segura de que todavía puede ser el fabricante número uno del mundo de aceleradores de IA. Estos aceleradores son chips especializados que un centro de datos utiliza para entrenar y ejecutar modelos de IA, que impulsan herramientas como chatbots, sistemas de reconocimiento de imágenes y robots avanzados.
Rubin es el acelerador de IA más nuevo de Nvidia, siguiendo a su generación anterior llamada Blackwell. La compañía dice que Rubin es 3.5 veces más rápido en el entrenamiento de modelos de IA y cinco veces más rápido en la ejecución de software de IA en comparación con Blackwell. El entrenamiento de IA implica enseñar a los modelos a aprender de grandes cantidades de datos, mientras que ejecutar IA significa utilizar esos modelos para realizar tareas en tiempo real.
Rubin añade una nueva unidad central de procesamiento (CPU) con 88 núcleos. Los núcleos son las partes de un chip que realizan cálculos y procesan datos. Con el doble de rendimiento del chip que reemplaza, esta nueva CPU es más adecuada para cargas de trabajo de IA más complejas. En la conferencia GTC de primavera de Nvidia en California, la compañía típicamente comparte los detalles completos del producto.
Esta vez, se agotó más información de lo habitual. El movimiento se considera un medio para mantener a los consumidores y desarrolladores enfocados en el hardware de Nvidia mientras la adopción de IA continúa creciendo rápidamente. El propio Huang también ha realizado numerosas apariciones públicas promoviendo productos, asociaciones e inversiones de IA. Nvidia no fue el único jugador en el centro de atención en CES. Lisa Su, CEO del fabricante de chips rival Advanced Micro Devices (AMD), también reservó un discurso principal, destacando la creciente competencia en el mercado de chips.
Algunos inversores se han preocupado de que la competencia para Nvidia se esté intensificando. Otras empresas tecnológicas también están desarrollando sus propios chips de IA, lo que dificulta decir si el gasto en IA puede mantenerse al ritmo.
Nvidia, sin embargo, ha sido optimista, creyendo que el mercado de IA a largo plazo podría valer billones de dólares, impulsado por la demanda de industrias como la computación en la nube, empresas y sectores emergentes.
El hardware Rubin se utilizará en el DGX SuperPod de Nvidia, una potente supercomputadora diseñada para trabajos de IA a gran escala. Al mismo tiempo, los clientes podrán comprar los chips Rubin como componentes individuales, permitiéndoles construir sistemas más flexibles y modulares.
El aumento del rendimiento es particularmente crítico, dado que los sistemas de IA continúan evolucionando. La IA moderna depende cada vez más de redes de modelos especializados que no solo procesan cantidades masivas de datos, sino que también resuelven problemas en múltiples pasos. Tales tareas incluyen planificación, razonamiento y toma de decisiones.
Nvidia también enfatizó que los sistemas basados en Rubin serán más baratos de operar que los sistemas Blackwell. Debido a que Rubin puede ofrecer los mismos resultados con menos componentes, los centros de datos pueden ahorrar en energía y costos operativos.
Se espera que las principales empresas de computación en la nube como Microsoft, Google Cloud y Amazon Web Services (AWS) estén entre las primeras en implementar hardware Rubin en la segunda mitad del año. Estas empresas actualmente representan la mayoría del gasto en sistemas de IA impulsados por Nvidia.
Afina tu estrategia con mentoría + ideas diarias - 30 días de acceso gratuito a nuestro programa de trading


