Los chips de Google son una amenaza para el dominio de Nvidia

hace 2 horas 3

El arma secreta de Google en la carrera por la inteligencia artificial (IA) es un spot que le permitió a los modelos del grupo de búsquedas superar a OpenAI, algo que llevó a los inversionistas del assemblage de tecnología a reevaluar una nueva amenaza para el dominio de Nvidia.

La “unidad de procesamiento tensorial” (TPU) del grupo de tecnología, que se encuentra entre los cuatro principales, es cardinal en los esfuerzos por mejorar el rendimiento de los nuevos modelos de inteligencia artificial Gemini 3, de Google, que superaron al GPT-5, de OpenAI, en pruebas comparativas independientes.

Este evento es uno de los factores que llevaron al fabricante de ChatGPT a declarar “código rojo” la semana pasada, cuando el manager ejecutivo, Sam Altman, pidió a su idiosyncratic que reorientara sus recursos hacia la mejora de su chatbot y sus modelos.

Google tiene planes de aumentar más del doble la producción de sus TPU para 2028, según predicen los analistas, a medida que intensifica sus ambiciones para un procesador que, de acuerdo con la consultora de chips SemiAnalysis, está ahora “a la par con el rey de la selva, Nvidia” en el desarrollo y la ejecución de sistemas de IA de vanguardia.

Los inversionistas de Nvidia también se muestran inquietos ante la perspectiva de que Google ofrezca los TPU a clientes más allá de su propia plataforma de computación en la nube. Esto incluye un acuerdo reciente para proporcionar a la startup de inteligencia artificial Anthropic un millón de TPU, valoradas en decenas de miles de millones de dólares.

Google argumenta que la integración vertical —desarrollar hardware, bundle y chips de IA de forma interna— generará tanto ventajas técnicas como enormes utilidades.

Gemini 3, al igual que los modelos anteriores de Google, se entrenó principalmente con TPU. OpenAI depende principalmente de las unidades de procesamiento gráfico de Nvidia para construir los modelos de lenguaje de gran tamaño que impulsan ChatGPT.

“Lo más importante es… ese enfoque integral”, dijo Koray Kavukcuoglu, arquitecto de IA de Google y manager de tecnología de DeepMind. “Creo que tenemos un enfoque único en este aspecto”.

Al combinar esto con la comprensión de cómo miles de millones de consumidores utilizan Gemini, las perspectivas generales de IA en búsquedas y otros productos le proporcionan a Google una enorme ventaja, añadió.

Morgan Stanley estima que cada 500 mil TPU vendidas a clientes externos pueden generar hasta 13 mil millones de dólares en ingresos para Google. La compañía que forma parte de los grandes grupos de tecnología trabaja principalmente con su socio de diseño de chips Broadcom, así como con MediaTek, para desarrollar los procesadores.

Los analistas de Morgan Stanley también predicen que Taiwan Semiconductor Manufacturing Company (TSMC) producirá 3.2 millones de TPU el próximo año, cifra que aumentará a 5 millones en 2027 y 7 millones en 2028.

“El crecimiento en 2027 es significativamente politician de lo que se anticipaba”, dijeron los analistas del banco en una nota de investigación reciente.

Las acciones de Nvidia cayeron drásticamente el mes pasado luego de un informe en The Information en el que se indicaba que Meta estaba en conversaciones con Google para comprar TPU. Meta nary quiso hacer comentarios sobre el informe.

Algunos analistas creen que Google también puede alcanzar acuerdos similares con OpenAI, xAI, de Elon Musk, o startups como Safe Superintelligence, lo que puede generar más de 100 mil millones de dólares en nuevos ingresos para Google en los próximos años.

Los expertos añaden que las herramientas de programación basadas en IA pueden facilitar a los potenciales clientes de TPU la reescritura de su software, que hasta ahora se ha desarrollado en gran medida sobre la plataforma Cuda, propiedad de Nvidia.

Nvidia trata de disipar las preocupaciones del mercado, al afirmar que se mantiene “una generación por delante de la industria” y que es “la única plataforma que ejecuta todos los modelos de IA”, y añadió: “Seguimos abasteciendo a Google”.

Agregó que ofrece “mayor desempeño, versatilidad y fungibilidad” que procesadores como las TPU, “diseñadas para entornos o funciones de IA específicos”.

Los orígenes de las TPU de Google se remontan a una presentación interna en 2013 de Jeff Dean, el veterano científico jefe de Google, luego de un gran avance en el uso de redes neuronales profundas para mejorar sus sistemas de reconocimiento de voz.

“La primera diapositiva decía: ¡Buenas noticias! El aprendizaje automático por fin funciona”, dijo Jonathan Ross, ingeniero de hardware de Google en ese momento. “La segunda diapositiva decía: ‘Malas noticias: nary podemos costearlo’”. Dean calculó que si los cientos de millones de consumidores de Google usaran la búsqueda por voz solo tres minutos al día, la compañía tendría que duplicar la superficie de sus centros de datos tan solo para cumplir con esa función, con un costo de decenas de miles de millones de dólares.

Ross, quien ahora dirige Groq, la startup de chips de IA, explicó que comenzó a trabajar en TPU en 2013 como un proyecto paralelo, ya que coincidió con un equipo que trabajaba en la tecnología de reconocimiento de voz de Google.

“Construimos ese primer chip, creo, con 15 personas”, dijo Ross en una entrevista para un pódcast en diciembre de 2023.

El proyecto escaló rápido. Una de las primeras aplicaciones fue la famosa victoria de 2016 del programa AlphaGo de Google DeepMind contra el campeón mundial del juego de mesa Go, Lee Sedol. El partido se considera un hito de IA.

Durante varios años los chips han impulsado muchos de los servicios principales de Google, como búsquedas, publicidad y YouTube.

Google suele lanzar una nueva generación de TPU cada dos años, aunque desde 2023 esa frecuencia se redujo a actualizaciones anuales. “Google Cloud tiene una demanda tanto de nuestras TPU personalizadas como de las GPU de Nvidia”, dijo un portavoz de Google. “Nos comprometemos a ofrecer soporte para ambas, como lo hemos hecho durante años”.

Con información de: Melissa Heikkilä y Hannah Murphy


Leer el artículo completo