Nvidia adquiere Groq: así cambia el tablero de los chips de IA

Última actualización: diciembre 25, 2025
  • Nvidia acuerda la compra de Groq por unos 20.000 millones de dólares, la mayor operación de su historia.
  • La operación se centra en los activos de hardware e IP de Groq y deja fuera su negocio de computación en la nube.
  • La tecnología de inferencia de Groq refuerza el dominio de Nvidia en centros de datos y aplicaciones de IA en tiempo real.
  • El acuerdo afronta un fuerte escrutinio regulatorio en Estados Unidos y la Unión Europea por posibles efectos sobre la competencia.

Nvidia adquiere Groq

La anunciada compra de Groq por parte de Nvidia por alrededor de 20.000 millones de dólares en efectivo se ha convertido en uno de los movimientos más comentados del sector tecnológico. La operación, todavía pendiente de los últimos trámites y autorizaciones, supone integrar bajo el paraguas de Nvidia a uno de los desarrolladores de chips de inteligencia artificial (IA) más prometedores del mercado.

Este acuerdo no solo tiene implicaciones industriales, sino que también reordena el equilibrio de poder en el hardware para centros de datos e inferencia de IA. Inversores, reguladores y empresas europeas miran con atención a un gigante que ya concentraba una cuota muy elevada de este negocio y que ahora refuerza aún más su posición con una tecnología considerada, hasta hace poco, como una de las alternativas más serias a las GPU tradicionales.

Contexto de la operación y valoración récord de Groq

Según distintas filtraciones y documentos remitidos a inversores, Nvidia habría pactado pagar unos 20.000 millones de dólares por Groq, principalmente en efectivo. Es una cifra que multiplica por casi tres la valoración de la startup en su última ronda de financiación, cerrada en septiembre, cuando fue tasada en unos 6.900 millones de dólares tras captar alrededor de 750 millones.

En esa ronda participaron fondos de primer nivel como BlackRock, Neuberger Berman, DTCP y un gran gestor de la Costa Oeste estadounidense, además de inversores estratégicos como Samsung Electronics y Cisco Systems. Algunos vehículos ligados a 1789 Capital, respaldado por el presidente de Estados Unidos Donald Trump, también figuraban en el accionariado, lo que añade un matiz político y geoestratégico a la operación.

De confirmarse plenamente el precio adelantado por medios como CNBC y agencias internacionales, los primeros accionistas de Groq verían prácticamente triplicada la valoración de su participación en cuestión de meses. Para Nvidia, en cambio, se trata de una apuesta asumible: la compañía cerró octubre con más de 60.000 millones de dólares en caja, muy por encima de los 13.000 millones que tenía a comienzos de 2023, fruto del auge de la demanda de sus chips para IA.

La magnitud del desembolso coloca a esta adquisición muy por encima del anterior récord de Nvidia, la compra del diseñador de chips israelí Mellanox en 2019 por casi 7.000 millones de dólares. Dentro de la propia industria de semiconductores, el acuerdo se percibe como un símbolo del momento de euforia que vive todo lo relacionado con la infraestructura para inteligencia artificial.

Quién es Groq y qué aporta a Nvidia

Groq nació en 2016 de la mano de un grupo de exingenieros de Google, entre ellos su fundador y hasta ahora consejero delegado Jonathan Ross, que participó en el desarrollo de la TPU (Tensor Processing Unit) de Google. La empresa se posicionó con rapidez como alternativa a las GPU tradicionales gracias a sus aceleradores especializados en tareas de inferencia, es decir, en la fase en la que los modelos ya entrenados generan respuestas y resultados para los usuarios.

La firma ha apostado por una arquitectura singular basada en el uso intensivo de memoria SRAM integrada en el chip, evitando recurrir a memorias externas de alto ancho de banda. Este enfoque le permite reducir la latencia y ofrecer una experiencia muy ágil en aplicaciones como chatbots, modelos de lenguaje de gran tamaño (LLM) y servicios de IA interactiva, a costa de ciertas limitaciones en el tamaño máximo de los modelos que puede manejar.

  Agrandar Imagen Calidad

En los últimos años, Groq se había hecho un hueco en el nicho de chips de inferencia de alto rendimiento y bajo consumo, compitiendo no solo con Nvidia, sino también con otros actores emergentes como Cerebras o soluciones basadas en ASIC y FPGA. Algunas grandes tecnológicas, entre ellas Meta, habían explorado o adoptado sus plataformas para determinadas cargas de trabajo.

Para Nvidia, absorber esta tecnología supone complementar su dominio en el entrenamiento de IA —donde sus GPU marcan el ritmo del mercado— con una propuesta mucho más robusta en la parte de la inferencia, un segmento que crece con fuerza a medida que las aplicaciones de IA pasan de las pruebas de laboratorio al uso masivo en empresas, administraciones y consumidores.

Alcance exacto del acuerdo: activos, talento y negocio en la nube

Fuentes cercanas a la negociación indican que Nvidia se quedará con la totalidad de los activos tecnológicos de Groq, incluyendo diseños de chips, propiedad intelectual, herramientas de desarrollo y un bloque relevante de su equipo de ingeniería. La operación afectaría también a parte del equipo directivo: Jonathan Ross y otros ejecutivos clave pasarían a formar parte de Nvidia para ayudar a integrar y expandir la tecnología licenciada.

Quedaría fuera del perímetro de compra el negocio de computación en la nube de Groq —conocido popularmente como GroqCloud—, que continuará operando de forma independiente bajo una nueva dirección, con Simon Edwards como consejero delegado. Este carve-out evita que Nvidia sume un nuevo competidor directo en servicios cloud públicos, un terreno en el que ya mantiene alianzas de peso con AWS, Microsoft Azure y Google Cloud.

Antes de que trascendiera el acuerdo de adquisición, Groq había anunciado la firma de un contrato de licencia no exclusiva con Nvidia para el uso de su tecnología de inferencia, insistiendo en aquel momento en que seguiría actuando como empresa independiente. Posteriormente, otra comunicación de la compañía habló de un acuerdo que otorgaba a Nvidia derechos exclusivos para ciertas piezas clave de su stack de inferencia, mientras Groq retenía capacidad para operar su negocio cloud.

Esta secuencia de anuncios ha generado cierta confusión en el mercado, pero la lectura generalizada entre analistas es que la relación ha evolucionado rápidamente desde una colaboración tecnológica a una integración prácticamente total en lo relativo al hardware y la propiedad intelectual, mientras que la rama de servicios en la nube queda escindida para facilitar el visto bueno regulatorio.

La estrategia de Nvidia: consolidar el liderazgo en IA

La compra de Groq encaja en la hoja de ruta de Nvidia para reforzar su ecosistema completo de hardware y software de IA en plena explosión de demanda de capacidad de cómputo. Los aceleradores de Groq, muy optimizados para inferencia, complementan la nueva generación de GPUs de Nvidia, como las familias Blackwell y Rubin, pensadas tanto para entrenamiento como para despliegue a gran escala.

En el último año, la compañía dirigida por Jensen Huang ha anunciado una batería de movimientos estratégicos que incluyen participaciones en empresas como Crusoe, Cohere, CoreWeave y la compra de SchedMD, desarrolladora del popular gestor de colas de código abierto Slurm, muy utilizado en supercomputación y centros de datos europeos. También ha trascendido una posible inversión de decenas de miles de millones en OpenAI y una inyección de capital en Intel vinculada al nodo de fabricación 18A.

Este contexto de fuerte expansión se refleja en las cifras: Nvidia ha llegado a reportar ingresos trimestrales cercanos a los 57.000 millones de dólares, con el negocio de centros de datos superando los 50.000 millones y márgenes brutos por encima del 70 %. Las previsiones internas apuntan a seguir creciendo, con una cartera de pedidos para chips de IA que, según algunos analistas, podría generar hasta 500.000 millones de dólares en ingresos entre 2025 y 2026.

Integrar la tecnología de Groq permite a la compañía ofrecer una plataforma más completa que cubre entrenamiento e inferencia con un abanico de opciones de rendimiento y consumo energético más amplio. Para grandes clientes europeos —desde bancos hasta operadores de telecomunicaciones o grupos industriales— esto se traduce en una mayor variedad de configuraciones posibles dentro del ecosistema Nvidia, pero también en una dependencia aún mayor de un único proveedor.

  ¿Cuál es mi dirección MAC?

En sus intervenciones públicas más recientes, Huang ha insistido en que la prioridad de Nvidia es adelantarse al giro del mercado desde el mero entrenamiento de modelos hacia el razonamiento y la inferencia en tiempo real, un cambio que la tecnología de Groq encaja especialmente bien al estar optimizada para respuestas ultrarrápidas con un consumo moderado.

Implicaciones competitivas y riesgo regulatorio en Estados Unidos y la UE

La operación llega en un momento de escrutinio antimonopolio máximo sobre el dominio de Nvidia en el mercado de chips de IA. Reguladores de Estados Unidos, la Unión Europea y el Reino Unido ya vigilan de cerca la concentración de cuota en aceleradores para centros de datos, donde las soluciones de Nvidia se han convertido en el estándar de facto.

La absorción de un actor emergente como Groq, que se presentaba como uno de los pocos competidores capaces de plantar cara a las GPU de Nvidia en ciertas cargas de trabajo, podría reavivar los debates sobre competencia efectiva y acceso a hardware avanzado. En Bruselas, el movimiento se analiza en paralelo a las discusiones sobre el Reglamento de IA y las iniciativas para impulsar chips europeos, como las fábricas de TSMC en Alemania o las inversiones reforzadas de Intel y otros proveedores en el continente.

Algunos analistas consideran que estructurar parte del acuerdo como licencia no exclusiva de tecnología, manteniendo viva la división de nube de Groq como entidad separada, puede ayudar a Nvidia a defender la operación ante las autoridades de competencia. El argumento sería que siguen existiendo vías alternativas para utilizar o licenciar ciertas innovaciones de Groq y que la compañía no se queda con todos los canales de comercialización.

Sin embargo, tanto en Washington como en la Unión Europea persiste la preocupación de que el control efectivo de la propiedad intelectual crítica y del talento clave acabe limitando la diversidad real de proveedores. Los precedentes, como el intento frustrado de Nvidia de adquirir Arm en 2022, son un recordatorio de que no todas las grandes transacciones del sector logran superar el filtro regulatorio.

Para los rivales directos —desde AMD e Intel hasta startups de silicio especializado y grandes nubes públicas—, la compra supone una nueva vuelta de tuerca a la barrera de entrada tecnológica y financiera. El coste de desarrollar alternativas competitivas en rendimiento, eficiencia y ecosistema de software aumenta con cada movimiento de consolidación, sobre todo en un entorno en el que los costes de diseño y fabricación de chips de vanguardia se disparan generación tras generación.

Impacto en el ecosistema europeo y en las startups de IA

Desde la óptica europea, la adquisición de Groq por Nvidia vuelve a poner sobre la mesa la dependencia estructural de la región en materia de hardware de IA. Mientras la Unión Europea avanza en su marco regulatorio con la Ley de Inteligencia Artificial y refuerza los programas de apoyo a centros de datos y supercomputación, el grueso de los chips críticos sigue estando en manos de unos pocos grupos estadounidenses y asiáticos.

Para startups de IA en España y el resto de Europa, el movimiento tiene un doble filo. Por un lado, la integración de la tecnología de Groq en el ecosistema Nvidia podría abaratar y simplificar el acceso a soluciones de inferencia muy optimizadas, integradas en plataformas que ya conocen (CUDA, bibliotecas de alto nivel, frameworks compatibles, etc.). Esto facilitaría desplegar aplicaciones avanzadas sin tener que soportar la complejidad de combinar hardware de múltiples proveedores.

Por otro, la mayor concentración en torno a un único actor aumenta el riesgo de lock-in tecnológico y de precios, algo que preocupa especialmente a empresas europeas que trabajan con márgenes ajustados o que dependen de financiación pública. Las políticas de compra de grandes administraciones, tanto en Madrid como en Bruselas, también se ven afectadas, ya que deben equilibrar la necesidad de acceder a la mejor tecnología con los objetivos de diversificación de proveedores y soberanía digital.

  Soluciones a problemas de teclado

En el terreno de la investigación, universidades y centros de supercomputación europeos —muchos de ellos ya fuertemente ligados a Nvidia— podrían beneficiarse de una infraestructura de inferencia más capaz para modelos fundacionales y sistemas de IA generativa en idiomas europeos. Pero esto refuerza el debate sobre si la región debe impulsar con mayor decisión proyectos propios de chips para no quedar anclada en un rol de mero usuario de tecnología importada.

Para los emprendedores, el mensaje que deja el caso Groq es claro: las startups que logran innovar en hardware de IA o infraestructura de cómputo pueden alcanzar valoraciones muy elevadas en poco tiempo, bien sea a través de salidas a bolsa o mediante adquisiciones por parte de gigantes consolidados. Al mismo tiempo, la consolidación resultante limita el número de alternativas disponibles a medio plazo.

Oportunidades y desafíos en el mercado de inferencia

Aunque Nvidia domina con claridad el segmento de entrenamiento de grandes modelos, el espacio de la inferencia era hasta ahora más fragmentado y competido, con una fuerte presencia de CPUs, ASICs personalizados y soluciones alternativas de GPU. La tecnología de Groq, muy centrada en la eficiencia y la latencia ultrabaja, se había convertido en un referente para responder con rapidez a consultas de usuarios finales.

Al incorporar estos desarrollos a su catálogo, Nvidia puede ofrecer soluciones más ajustadas a distintos perfiles de carga, desde grandes centros de datos en la nube hasta despliegues en el borde de la red (edge computing) o sistemas empresariales on-premise. Para casos de uso críticos —asistentes virtuales, análisis en tiempo real, automatización industrial—, disponer de hardware capaz de responder en milisegundos con un consumo reducido es un factor clave.

Este refuerzo de Nvidia obliga a sus competidores a acelerar sus propias hojas de ruta. Fabricantes como AMD trabajan en GPUs optimizadas para inferencia, mientras que otros grupos exploran arquitecturas híbridas y chips específicos para ciertos tipos de modelos. En paralelo, proveedores cloud europeos y globales intentan diferenciarse con capas de software y servicios gestionados por encima del hardware base.

Para las empresas que construyen plataformas de IA generativa en Europa, la situación plantea un dilema: apostar todavía más por el ecosistema consolidado de Nvidia —ahora reforzado con la tecnología de Groq— o experimentar con soluciones alternativas que ofrezcan más independencia, aunque a menudo con menos madurez de herramientas.

En todo caso, la consolidación del mercado de inferencia se produce en paralelo a la expansión de la demanda. Cada nuevo modelo fundacional, cada asistente de IA integrado en productos de consumo y cada servicio de análisis avanzado que se suma en sectores como banca, sanidad o industria incrementa la necesidad de chips dedicados a responder en tiempo real, un espacio donde Groq había destacado y que ahora pasa a integrarse en la órbita de Nvidia.

El movimiento de Nvidia para hacerse con Groq por unos 20.000 millones de dólares cristaliza varias tendencias de fondo: la carrera global por asegurar el mejor hardware de IA, la consolidación acelerada de un sector que exige inversiones descomunales y la creciente preocupación de reguladores y empresas europeas por su dependencia tecnológica. Para Nvidia, la operación refuerza su narrativa de liderazgo absoluto en la infraestructura de IA; para el resto del ecosistema, desde startups españolas hasta grandes proveedores de la nube, es una señal de que el juego se vuelve más exigente, con menos actores pero con herramientas cada vez más potentes sobre las que construir la próxima generación de servicios de inteligencia artificial.

Samsung construye megafábrica de IA con NVIDIA
Artículo relacionado:
Samsung levanta una megafábrica de IA con NVIDIA y 50.000 GPU