Google ha pasado más de una década construyendo silenciosamente la tecnología que ahora le está ayudando a destacar en la guerra de la IA. Mientras Nvidia se sienta en la cima de la cadena alimentaria, vendiendo sus GPUs a casi todas las grandes empresas tecnológicas del planeta, Google ha estado ocupado diseñando sus propias armas; chips que [...]Google ha pasado más de una década construyendo silenciosamente la tecnología que ahora le está ayudando a destacar en la guerra de la IA. Mientras Nvidia se sienta en la cima de la cadena alimentaria, vendiendo sus GPUs a casi todas las grandes empresas tecnológicas del planeta, Google ha estado ocupado diseñando sus propias armas; chips que [...]

Google lanza nueva tecnología desarrollada durante más de una década para desafiar a Nvidia en la guerra de la IA

2025/11/07 21:46
Lectura de 6 min
Si tienes comentarios o inquietudes sobre este contenido, comunícate con nosotros mediante crypto.news@mexc.com

Google ha pasado más de una década construyendo silenciosamente la tecnología que ahora le está ayudando a destacar en la guerra de la IA.

Mientras Nvidia se sienta en la cima de la cadena alimentaria, vendiendo sus GPUs a casi todas las grandes empresas tecnológicas del planeta, Google ha estado ocupado diseñando sus propias armas; chips que nunca tuvo la intención de vender, sino que utiliza para impulsar todo lo que hay detrás de su stack de IA.

Y ahora, con la demanda de computación en un nuevo máximo histórico, ese silicio interno finalmente está mostrando su valor.

El jueves, Google confirmó que Ironwood, la última generación de su Unidad de Procesamiento Tensor (TPU), estará disponible en las próximas semanas. Es el chip de séptima generación de la compañía, construido para manejar todo, desde el entrenamiento de modelos enormes hasta la ejecución de Agentes de IA en tiempo real y chatbots.

Ironwood, dice Google, es más de cuatro veces más rápido que la última TPU. Un cliente, Anthropic, planea desplegar hasta 1 millón de ellos para impulsar su modelo Claude.

Google construye, otros alcanzan

Aunque Google continúa acumulando GPUs de Nvidia, no se limita a depender de los chips de otras personas. Las TPUs han estado en desarrollo durante más de diez años y estuvieron disponibles por primera vez para clientes de la nube en 2018.

Originalmente utilizadas solo para cargas de trabajo internas, ahora son una parte central de la infraestructura pública de IA en la nube de Google.

El analista Stacy Rasgon de Bernstein dijo: "De los jugadores de ASIC, Google es el único que realmente ha implementado esto en grandes volúmenes".

Por el momento, Google no vende TPUs como hardware físico. En cambio, los clientes alquilan acceso a través de Google Cloud, que se ha convertido en uno de los mayores motores de ingresos de la compañía.

El último trimestre, Alphabet reportó $15.15 mil millones en ingresos en la nube, un aumento del 34% respecto al año anterior. Sundar Pichai, CEO de la compañía, dijo a los inversores: "Estamos viendo una demanda sustancial de nuestros productos de infraestructura de IA, incluidas soluciones basadas en TPU y GPU".

Acuerdos, satélites y chips con destino al espacio

Con la creciente presión en el sector tecnológico para acceder a la computación, Google está asegurando asociaciones monstruosas. El mes pasado, la compañía amplió su asociación con Anthropic en un acuerdo que supuestamente vale decenas de miles de millones.

Ese acuerdo dará a Anthropic acceso a más de un gigavatio de capacidad de computación de IA para 2026.

Google ha invertido $3 mil millones en Anthropic hasta ahora. Aunque Amazon sigue siendo el principal socio en la nube de la empresa, Google ahora proporciona la infraestructura principal para los futuros modelos Claude. El Director de Producto de Anthropic, Mike Krieger, dijo:

"Hay tanta demanda de nuestros modelos que creo que la única forma en que habríamos podido servir tanto como hemos podido este año es esta estrategia de múltiples chips".

Esa estrategia incluye TPUs, Trainium y GPUs de Nvidia, y está construida para rendimiento, costo y respaldo. Krieger agregó que su equipo había realizado un trabajo preparatorio temprano para asegurarse de que Claude pudiera funcionar sin problemas en todos los principales tipos de chips.

"He visto que esa inversión da sus frutos ahora que podemos conectarnos con estos enormes centros de datos y satisfacer a los clientes donde estén", dijo.

Dos meses antes del acuerdo con Anthropic, Google firmó un contrato de nube de seis años y más de $10 mil millones con Meta. La compañía también obtuvo una parte del negocio de OpenAI mientras se diversifica alejándose de Microsoft. OpenAI confirmó a Reuters que está utilizando Google Cloud pero no está implementando GPUs allí.

Esta semana, Google reveló un nuevo proyecto llamado Suncatcher, destinado a lanzar satélites alimentados por energía solar equipados con TPUs. El objetivo es construir un sistema que aproveche la energía solar en el espacio para alimentar tareas de IA que requieren mucha computación.

La compañía dijo que planea lanzar dos prototipos a principios de 2027, calificando el experimento como una forma de minimizar la presión sobre los recursos de la Tierra mientras se prepara para la computación a gran escala en órbita.

El dinero fluye, la demanda aumenta, Nvidia observa

Anat Ashkenazi, CFO de Alphabet, dijo que el impulso del propietario de Google proviene de la enorme demanda empresarial de su stack completo de IA, incluidas tanto TPUs como GPUs.

Alphabet ahora informa que firmó más contratos de nube de miles de millones de dólares en los primeros nueve meses de 2025 que en los dos años anteriores combinados.

Mientras tanto, la unidad de nube de Amazon creció un 20% el último trimestre. El CEO de AWS, Matt Garman, dijo: "Cada chip Trainium 2 que colocamos en nuestros centros de datos hoy se vende y se usa". Agregó que Trainium 3 traería aún más ganancias en rendimiento y eficiencia energética.

Aun así, Google va con todo. Aumentó su pronóstico de gastos de capital para 2025 a $93 mil millones, desde $85 mil millones, con aún más gastos alineados para 2026. Sus acciones han subido un 38% en el tercer trimestre y otro 17% en el cuarto trimestre, su tramo más fuerte en dos décadas.

Los analistas de Mizuho señalaron la ventaja de costo y rendimiento de las TPUs, señalando que aunque originalmente eran para uso interno, Google ahora está obteniendo tracción real con clientes externos. Morgan Stanley también dijo en un informe de junio que la familiaridad con TPU entre los desarrolladores podría ser un gran impulso para el crecimiento de Google Cloud.

Y en un informe de septiembre, los analistas de D.A. Davidson escribieron: "Seguimos creyendo que las TPUs de Google siguen siendo la mejor alternativa a Nvidia, con la brecha entre los dos cerrándose significativamente en los últimos 9-12 meses".

También mencionaron un creciente sentimiento positivo entre los desarrolladores y sugirieron que Google podría incluso comenzar a vender sistemas TPU directamente a los laboratorios de IA.

Si estás leyendo esto, ya estás adelantado. Mantente ahí con nuestro boletín.

Aviso legal: Los artículos republicados en este sitio provienen de plataformas públicas y se ofrecen únicamente con fines informativos. No reflejan necesariamente la opinión de MEXC. Todos los derechos pertenecen a los autores originales. Si consideras que algún contenido infringe derechos de terceros, comunícate a la dirección crypto.news@mexc.com para solicitar su eliminación. MEXC no garantiza la exactitud, la integridad ni la actualidad del contenido y no se responsabiliza por acciones tomadas en función de la información proporcionada. El contenido no constituye asesoría financiera, legal ni profesional, ni debe interpretarse como recomendación o respaldo por parte de MEXC.