El movimiento de Nvidia con Groq redefine el mapa de los chips de IA

IA
Nvidia’s Groq Move Rewrites the AI‑Chip Map
Diversos informes indican que Nvidia está licenciando tecnología y contratando personal directivo de la startup de chips de IA Groq en un acuerdo valorado en unos 20.000 millones de dólares; aunque los detalles siguen siendo difusos, la transacción podría reconfigurar la competencia entre las arquitecturas GPU, TPU y las nuevas LPU.

Acuerdo en la semana de Navidad que podría redibujar el mapa del hardware de IA

El 24 de diciembre de 2025, surgieron informes de que Nvidia había llegado a un acuerdo para adquirir tecnología clave y personal del desafiante de chips de IA, Groq, en una transacción valorada en aproximadamente 20.000 millones de dólares. La cobertura mezcló una afirmación concreta —CNBC dijo que Nvidia compraría activos de Groq por unos 20.000 millones de dólares— con aclaraciones y advertencias inmediatas de las empresas involucradas. Nvidia declaró a TechCrunch que el acuerdo no es una compra de la empresa completa; otros medios describieron el acuerdo como una licencia no exclusiva de la tecnología de Groq, además de la contratación de altos ejecutivos de Groq, incluidos el fundador Jonathan Ross y el presidente Sunny Madra.

Elementos del acuerdo y la confusión en torno a ellos

Groq es una startup privada que en septiembre de 2025 recaudó aproximadamente 750 millones de dólares con una valoración cercana a los 6.900 millones de dólares y ha pregonado públicamente un rápido crecimiento en la adopción por parte de los desarrolladores. La empresa ha comercializado una arquitectura distintiva que denomina LPU —unidad de procesamiento de lenguaje (language processing unit)— diseñada específicamente para modelos de lenguaje de gran tamaño. Groq afirma que las LPU pueden ejecutar modelos de tipo transformador muchas veces más rápido y con una fracción de la energía en comparación con la inferencia de las GPU convencionales; esas afirmaciones son fundamentales para explicar por qué la tecnología ha atraído la atención de hiperescaladores, proveedores de la nube y, ahora aparentemente, de Nvidia.

Lo que promete la arquitectura de Groq

La propuesta de Groq es técnica y dirigida: en lugar de reutilizar hardware de gráficos, las LPU se construyen en torno a un flujo de instrucciones minimalista y determinista y un paralelismo masivo en el chip que busca eliminar muchas de las sobrecargas de programación y memoria que las GPU aceptan como contrapartidas. En un lenguaje sencillo, Groq argumenta que sus chips ejecutan las mismas redes neuronales con un mayor rendimiento (throughput) por vatio al eliminar capas de abstracción de software y hardware y al adaptar el flujo de datos a las cargas de trabajo de tipo transformador.

Esas elecciones de diseño hacen que las LPU sean atractivas para la inferencia —servir respuestas de modelos grandes en producción a escala— donde la latencia, el rendimiento predecible y el coste energético son lo más importante. El fundador de Groq, Jonathan Ross, es un arquitecto destacado en este espacio; participó en el desarrollo temprano de la familia TPU de Google, lo que le otorga experiencia en la construcción de aceleradores ajustados para matemáticas tensoriales y cargas de trabajo de aprendizaje automático.

Por qué Nvidia querría la tecnología de Groq

El dominio de Nvidia en el hardware de IA hoy en día se basa en su línea de GPU y una amplia pila de software (stack). Pero las GPU son procesadores paralelos de propósito general; destacan tanto en el entrenamiento como en la inferencia, pero conllevan compromisos en el uso de energía y varianza en la latencia. Si las afirmaciones de Groq sobre una mayor eficiencia y latencia determinista se mantienen en despliegues a gran escala, Nvidia gana a través de varias vías: integrando ideas de LPU en futuras GPU o aceleradores, adquiriendo patentes y optimizaciones de software, y neutralizando a un competidor que había comenzado a ganar clientes que priorizan el coste de inferencia y la latencia de cola (tail latency).

La incorporación del liderazgo y los ingenieros de Groq también aportaría capital humano y conocimiento del producto, algo que los actores establecidos del sector tecnológico suelen valorar tanto como los componentes específicos de silicio. Esa combinación —tecnología, personas y potencialmente herramientas— puede acelerar los cambios en la hoja de ruta dentro de una empresa más grande capaz de fabricar en masa y suministrar a clientes de la nube globales.

Contexto del sector: una carrera armamentista de hardware que se acelera

La historia de Groq no llegó en el vacío. Los principales actores de la nube y la IA han estado buscando alternativas al monopolio de las GPU de Nvidia durante meses. Google ha estado impulsando sus TPU y asumiendo compromisos de gran capacidad con sus socios; informes de las últimas semanas describieron iniciativas para hacer que las TPU sean más compatibles con PyTorch e incrementar su disponibilidad para clientes externos. El compromiso multimillonario de Anthropic con las TPU de Google es un ejemplo de clientes que buscan capacidad ajena a Nvidia. Mientras tanto, Meta y Alphabet han sido vinculados a proyectos destinados a mejorar el ajuste del software entre los marcos de IA populares y los aceleradores que no son GPU.

Todos estos movimientos apuntan a una dinámica de mercado en la que los grandes consumidores de IA quieren opciones, tanto para reducir la concentración de proveedores como para controlar el coste y el rendimiento a escala de la nube. Si el movimiento reportado de Nvidia incorpora efectivamente las innovaciones de Groq en su ecosistema, estrecha un camino hacia el que los competidores estaban construyendo.

Cadenas de suministro, memoria y límites prácticos

Incluso si la concesión de licencias tecnológicas y las transferencias de talento son rápidas, la producción de aceleradores avanzados a escala se enfrenta a limitaciones reales en la cadena de suministro. Los chips de IA de vanguardia necesitan un empaquetado avanzado, memoria de alto ancho de banda (HBM) y acuerdos especializados de prueba y fabricación (fab). Los rumores del sector han señalado recientemente escasez y cambios en las adquisiciones entre los proveedores de la nube y los proveedores de memoria; esos cuellos de botella pueden frenar la rapidez con la que cualquier nuevo diseño de Nvidia (o de un equipo recién combinado) pueda llegar a los clientes. En resumen, la propiedad intelectual (IP) y las personas importan, pero el escalado del silicio sigue dependiendo de la capacidad, no solo de las patentes.

Competencia, regulación y opciones para los clientes

Un acuerdo que consolida efectivamente una alternativa prometedora en el líder del mercado planteará preguntas para los clientes, competidores y reguladores. Los proveedores de la nube y los propietarios de modelos preocupados por la dependencia del proveedor (vendor lock-in) observarán de cerca: ¿será la licencia no exclusiva y permitirá que otros proveedores adopten ideas de LPU, o Nvidia integrará las mejores partes en su pila propietaria? Desde una perspectiva regulatoria, la transacción podría atraer el escrutinio si reduce significativamente las opciones independientes para la computación de IA, especialmente a medida que las ambiciones nacionales presionan por una infraestructura de IA soberana y proveedores diversificados.

Qué observar a continuación

Es de esperar una oleada de aclaraciones y desmentidos en los próximos días. Nvidia y Groq podrían emitir declaraciones más completas para conciliar los diferentes relatos —compra de activos frente a licencia más contratación de ejecutivos— y los clientes analizarán los términos de los contratos que determinan quién puede vender qué tecnología a quién. Los analistas también revalorizarán las expectativas para Nvidia, Groq y sus competidores dependiendo de si el acuerdo es una adquisición total de activos o un acuerdo tecnológico más limitado.

En la práctica, el impacto inmediato en el mercado puede dividirse en dos bloques: la incertidumbre a corto plazo sobre el suministro y la estrategia de los proveedores, y una aceleración a largo plazo de la consolidación en el mercado de aceleradores de IA. Para los desarrolladores de IA, el objetivo final importante sigue siendo el mismo: más opciones de computación, menores costes de inferencia y un servicio de modelos más rápido. Cómo este movimiento moldee esos resultados depende de qué compró, licenció o contrató exactamente Nvidia.

La historia es una lección objetiva de la rapidez con la que puede cambiar el panorama del hardware de IA: la innovación en la arquitectura de chips, las contrataciones estratégicas y las licencias selectivas pueden reconfigurar la ventaja competitiva casi tan rápido como se pueden reequipar las fábricas. Por ahora, los actores son empresas públicas y una startup de tecnología profunda cuya próxima comunicación pública determinará si la cifra de 20.000 millones de dólares marca una compra espectacular, una licencia sorprendente o una transacción híbrida con consecuencias para todo el sector.

Fuentes

  • Nvidia (declaraciones de la empresa e informes públicos)
  • Groq (anuncios de la empresa y divulgaciones de recaudación de fondos)
  • Alphabet / Google (compromisos de TPU y programas de hardware en la nube)
  • Principales informes financieros sobre la transacción de diciembre de 2025
Mattias Risberg

Mattias Risberg

Cologne-based science & technology reporter tracking semiconductors, space policy and data-driven investigations.

University of Cologne (Universität zu Köln) • Cologne, Germany

Readers

Readers Questions Answered

Q ¿Qué se ha informado sobre el acuerdo de Nvidia con Groq y cómo está estructurado?
A Los informes indican que Nvidia adquiriría tecnología y personal clave de Groq en un acuerdo de unos 20.000 millones de dólares; Nvidia afirma que no se trata de una compra completa de la empresa; otros medios describen el acuerdo como una licencia no exclusiva de la tecnología de Groq más la contratación de altos ejecutivos de Groq, incluidos el fundador Jonathan Ross y el presidente Sunny Madra.
Q ¿Qué es la LPU de Groq y qué afirman al respecto?
A Groq comercializa una unidad de procesamiento de lenguaje, o LPU, diseñada para modelos de lenguaje de gran tamaño. La empresa afirma que las LPU pueden ejecutar modelos de tipo transformer mucho más rápido y con mucha menos energía que la inferencia convencional en GPU. El diseño se basa en un flujo de instrucciones determinista y minimalista y en un paralelismo masivo en el chip para minimizar la sobrecarga de programación y memoria, mejorando el rendimiento por vatio en las cargas de trabajo de inferencia.
Q ¿Cómo podría beneficiarse Nvidia si se incorporan las ideas o el personal de Groq?
A Los observadores del sector afirman que Nvidia podría beneficiarse al integrar ideas de las LPU en futuras GPU o aceleradores, adquiriendo patentes y optimizaciones de software, y neutralizando a un competidor que priorizaba la inferencia de baja latencia. La incorporación de los líderes e ingenieros de Groq aportaría capital humano y conocimiento del producto, ayudando a Nvidia a acelerar los cambios en su hoja de ruta dentro de una gran empresa de fabricación a gran escala con clientes de nube globales.
Q ¿Qué dinámicas de mercado y cuestiones regulatorias plantea el acuerdo?
A Los analistas señalan que la medida afectaría a una acelerada carrera armamentística de hardware, en la que las TPU de Google, los compromisos de Anthropic con las TPU y los aceleradores ajenos a Nvidia de Meta y Alphabet señalan una demanda de opciones más allá de las GPU. El acuerdo podría atraer el escrutinio sobre la dependencia del proveedor (vendor lock-in) y si la licencia es exclusiva; los reguladores podrían evaluar si reduce las opciones independientes para el cómputo de IA.

Have a question about this article?

Questions are reviewed before publishing. We'll answer the best ones!

Comments

No comments yet. Be the first!