Para comprender lo que le espera a Nvidia en 2026, tenemos que retroceder y observar los movimientos más importantes que hizo la compañía en 2025 y predecir cómo evolucionarán en 2026.
Nvidia ( NVDA ) finalizó el año con un acuerdo que sorprendió a muchos inversores y analistas, e incluso confundió a algunos. A la confusión se sumó el hecho de que cuando CNBC dio la noticia, informó que Nvidia adquiriría Groq por alrededor de $ 20 mil millones, pero cuando salió el anuncio oficial de Groq, resultó que el acuerdo era un acuerdo de licencia no exclusivo y una captura de talento en lugar de una adquisición de empresa.
Estas son las preguntas clave que el analista de Bank of America, Vivek Arya, planteó sobre el acuerdo, en una nota de investigación compartida con TheStreet:
-
¿Qué significa el “acuerdo de licencia no exclusiva” al que se refiere Groq?
-
¿Puede Nvidia desarrollar esta tecnología por sí sola?
-
CanGroc Cloud, que sigue siendo una empresa independiente, ha reducido las basadas en Nvidia LPU
¿Un servicio a bajo precio?
A pesar de estas preguntas y de calificar el acuerdo de sorprendente, Arya también dijo que es estratégico y complementario. Reiteró una calificación de compra y un precio objetivo de 275 dólares para las acciones de Nvidia.
Para entender el acuerdo con Groq, debemos entender qué es la tecnología de Groq y en qué se han convertido las estrategias dominantes en la industria tecnológica.
El negocio principal de Groq es GroqCloud, una plataforma de inteligencia artificial. La inferencia de IA es el proceso de generar una respuesta a partir de un modelo de IA que ya ha sido entrenado.
Groq ofrece a los desarrolladores una forma de ejecutar modelos de IA en hardware empresarial y obtener respuestas muy rápidas a un precio competitivo. La razón por la que las empresas relativamente pequeñas pueden competir con los grandes y ofrecer precios competitivos para la inferencia de IA es su hardware.
La plataforma de inferencia de la compañía utiliza chips de circuito integrado de aplicación específica (ASIC), a los que llama unidad de procesamiento del lenguaje (LPU), desarrollados y optimizados específicamente para la inferencia LLM.
Las GPU se pueden utilizar para muchos cálculos diferentes, incluidos juegos, renderizado 3D, minería de criptomonedas, entrenamiento de IA e inferencia de IA, pero los chips Groq LPU solo tienen un propósito: la inferencia de IA.
Esto significa que tienen un enfoque muy nítido y esto los hace mucho más efectivos en esta tarea en particular.
Cuando se lanzó Gemini 3, Google dijo que estaba 100% capacitado en sus Unidades de Procesamiento Tensoriales (TPU) y, por supuesto, también infiere en las TPU. Quizás hayas adivinado correctamente que los TPU también son chips ASIC.
Siguientes noticias sobre la publicación de Gemini Nvidia en X (anteriormente Twitter):
“Estamos entusiasmados con el éxito de Google: han logrado grandes avances en IA y seguimos suministrando a Google. NVIDIA está una generación por delante de la industria: es la única plataforma que ejecuta cualquier modelo de IA y lo hace computar en todas partes. NVIDIA ofrece rendimiento, versatilidad y funcionalidad mucho mejores que los ASIC, que están diseñados para una función o marco de IA específico”.
Relacionado: Bank of America actualiza el pronóstico de acciones de Palantir después de una sesión privada
El hecho de que Nvidia sintiera la necesidad de apuntar a Gemini en su publicación muestra que la compañía está preocupada por el poder competitivo de los chips ASIC bien diseñados, y ahora tenemos pruebas.
El anuncio de Groq sobre el acuerdo con Nvidia dice: “Como parte de este acuerdo, Jonathan Ross, fundador de Groq, Sunny Madra, presidente de Groq, y otros miembros del equipo de Groq se unirán a Nvidia para ayudar a desarrollar y escalar la tecnología con licencia”.
¿Puedes adivinar cuál era el trabajo de Jonathan Ross en Google? Por supuesto, fue uno de los diseñadores de la primera generación de TPU de Google. La decisión de Nvidia de licenciar la pila tecnológica Groq LPU y “contratar” su equipo de talentos es un reconocimiento tácito de que los chips ASIC representan el futuro de la IA.
El acuerdo de licencia no exclusiva era la única manera de evitar el escrutinio gubernamental. La estrategia aquí es una combinación de las estrategias Apple y Meta. Apple fabrica chips ARM personalizados y tiene un acuerdo de licencia no exclusivo con ARM.
Pero lo que hace que los chips de Apple se destaquen es la capacidad que sólo Apple puede aportar; Hasta ahora, los competidores no pueden encontrar chips ARM.
Nvidia tomó ventaja en este acuerdo al imitar a Meta Motion, que ha estado invirtiendo en IA a escala. Todo el trato con Scale AI resultó tener mucho más que ver con conseguir que Alexander Wang liderara la unidad de meta-superinteligencia que con invertir en Scale AI.
Es la nueva estrategia dominante en el espacio tecnológico donde el talento se valora más que cualquier empresa.
Suponiendo que el acuerdo de Nvidia con Groq no incluya algún precio exclusivo, las licencias no exclusivas deberían significar que otras empresas pueden licenciar diseños de LPU y construir LPU similares. Nvidia está contenta porque no tiene la capacidad y apuesta a que no se verán afectados solo por la licencia.
La segunda pregunta de Aria, si Nvidia puede desarrollar LPU por sí sola, parece demasiado. Incluso si la empresa pudiera desarrollar dichos chips (suponiendo que no hubiera problemas de patentes), no podría hacerlo en el plazo deseado.
Este mi artículo señala que Nvidia comenzó a preocuparse por los TPU un poco tarde.
Para responder a la tercera pregunta de Arya, primero debemos determinar el plan de juego de Nvidia para las LPU. En un correo electrónico a los empleados obtenido por CNBC, el director ejecutivo de Nvidia, Jensen Huang, escribió lo siguiente.
“Planeamos integrar los procesadores de baja latencia de Groq en la arquitectura AI Factory de NVIDIA, ampliando la plataforma para servir a una gama aún más amplia de inferencias de IA y cargas de trabajo en tiempo real”.
Huang lleva tiempo desarrollando la idea de las fábricas de IA y parece que está cada vez más centrado en ello. Este nuevo plan LPU finalmente me ha hecho clic en todo, y el cambio repentino es muy interesante y obvio.
Después de todo el revuelo que siguió a la AGI o la superinteligencia, el mercado se está moviendo hacia la analítica. Se podría pensar que hasta que no encontremos una tecnología asombrosa que cambie vidas, la capacitación de habilidades sería más importante.
Más NVIDIA:
El problema es que los LLM han sido mejorados, y aunque el cambio hacia la inferencia y las “fábricas de IA” es el eje secreto de Huang, los LPU son sólo una parte del rompecabezas. Nvidia anunció recientemente la familia Nvidia Nemotron 3 de módulos, datos y bibliotecas abiertos. Estos modelos son una parte clave del pivote final, que es la fábrica de IA y la IA gobernante.
La propiedad de los datos, la privacidad y el ajuste de los modelos son algunas de las razones por las que cualquier empresa u organización que pueda permitirse una IA autónoma la querría. Es por eso que los módulos de código abierto, y al menos de peso abierto, son tan futuristas como los chips ASIC.
Podemos ver un cambio lento y continuo hacia esto, ya que cientos de artículos académicos presentados en NeurIPS, una conferencia líder en inteligencia artificial, utilizaron Qwen, según informó Wired.
“Muchos científicos utilizan Qwen porque es el mejor modelo de peso abierto”. Andy Kowinsky, cofundador del Instituto Laud, creado para defender modelos abiertos en Estados Unidos, dijo a Wired.
El plan de Huang parece ser una solución de IA totalmente independiente que ofrece el análisis más rápido para el menor consumo de energía que ofrecen las LPU, combinada con GPU para entrenamiento y Nemotron como plataforma de software inicial.
Aria también escribió en su nota: “Visualizamos futuras plataformas NVDA donde la GPU y la LPU coexisten en un solo bastidor, perfectamente conectadas con la estructura de red NVLInk de NVDA”.
Yo diría firmemente que esta idea es errónea.
Relacionado: Bank of America restablece el precio objetivo y la calificación de las acciones de Micron
Las LPU tienen un módulo de memoria completamente diferente, basado en la llamada memoria SRAM, que es muy cara y muy rápida. Según Groq, sus LPU están conectadas directamente a través de un protocolo plesiosíncrono, con cientos de chips actuando como un solo núcleo.
Groq llama RealScale a su tecnología interactiva chip a chip. Las LPU tienen otra diferencia clave en comparación con las GPU: son deterministas. Estas diferencias arquitectónicas significan que los chips LPU y GPU no pueden funcionar juntos (hacer inferencias) para ejecutar el mismo software, y colocarlos en los mismos bastidores sólo causará problemas y complicará las cosas.
Cada LPU tiene muy poca memoria; Se requieren varias LPU para ejecutar módulos LLM de gran tamaño. Este será el factor decisivo sobre cuántos bastidores de LPU se necesitarán para ejecutar el módulo.
De hecho, es posible que Nvidia haga sus LPU muy diferentes a las de Groq, para permitir la mezcla con GPU en los mismos bastidores, pero en este caso, llevará más tiempo desarrollarlas. Creo que para el plan de Huang para las fábricas de IA, la velocidad de desarrollo es una prioridad.
En cualquier caso, el lanzamiento de las LPU de Nvidia en 2026 es muy poco probable, teniendo en cuenta que el diseño de chips lleva al menos un año. El acuerdo con Groq y el axioma de inferencia nos dicen que debemos observar muy de cerca lo que está sucediendo con OpenAI.
El 19 de diciembre, Reuters informó que SoftBank Group estaba compitiendo con OpenAI para cerrar un compromiso de financiación de 22.500 millones de dólares. Teniendo en cuenta que SoftBank prometió invertir este dinero antes de fin de año, están muy cerca.
Esperar hasta el último momento para hacer un seguimiento hace que la empresa parezca insegura de si es una buena inversión.
El acuerdo de Nvidia con OpenAI aún no se ha cerrado, según un informe de Reuters del 2 de diciembre. OpenAI no espera tener un flujo de caja positivo hasta 2030, según Forbes.
Es fácil ver por qué Nvidia no se apresura a cerrar un acuerdo con OpenAI. El mejor caso para OpenAI es que Nvidia espere la primera IPO, mientras que el peor de los casos, por supuesto, es que no haya acuerdo.
El fracaso de OpenAI para asegurar más inversiones tendrá un efecto dominó que perjudicará a Oracle, Nvidia y Microsoft. La estrategia de fábrica de IA de Nvidia es una buena manera para que la empresa evite la dependencia de OpenAI como cliente.
Según las filtraciones, Serpent Lake de Intel es el primer chip que cuenta con una GPU Nvidia integrada, que no se lanzará hasta 2027. Incluso esto es optimista, y 2028 es más probable, según informa PC GAMER.
La última nota de investigación del Bank of America que incluye estimaciones para Nvidia es de noviembre. Arya y su equipo estiman que los ingresos de Nvidia para el año fiscal 2026 serán de 212.830 millones de dólares y las ganancias por acción no GAAP serán de 4,66 dólares. Nvidia no cumplió con las estimaciones de consenso para sus ingresos por juegos en un 4% en el tercer trimestre. Hay rumores de que Nvidia está buscando reducir la producción de GPU para juegos hasta en un 40% en 2026 debido a problemas de suministro de VRAM, según informó PC GAMER.
Podemos esperar que, debido a que la industria de la memoria funciona enteramente con IA, el aumento vertiginoso de los precios de la RAM tendrá el efecto secundario de que se vendan y construyan menos PC para juegos, por lo que los ingresos por juegos podrían perder fácilmente el consenso nuevamente.
En el segmento de la automoción, la misma situación es evidente, ya que Nvidia no cumplió con la estimación de consenso para el tercer trimestre en un 6%. Las previsiones de la compañía para el cuarto trimestre son significativamente inferiores a las estimaciones de consenso de 700 millones de dólares, es decir, 592 millones de dólares.
La orientación de la compañía para el segmento de provisiones para el cuarto trimestre es optimista, alcanzando los 760 millones de dólares y por encima del consenso de 643 millones de dólares. OEM, incluida la perspectiva del segmento criptográfico para el cuarto trimestre, está más cerca del consenso en 174 millones de dólares frente a 172 millones de dólares.
El segmento de ingresos no relacionados con centros de datos parecía menor que la perspectiva de 51.200 millones de dólares de Nvidia y la estimación de consenso de 57.000 millones de dólares para el cuarto trimestre. A medida que la empresa se centra en sus productos de mayor margen, los ingresos de los segmentos distintos de los centros de datos seguirán disminuyendo.
El lanzamiento de la línea Vera Rubin será el momento decisivo de 2026, porque si los chips ofrecen el rendimiento y la eficiencia prometidos, borrará cualquier duda sobre la superioridad de Nvidia.
El año que viene será el año de Nvidia, especialmente si los rumores de que Google no consiguió la transferencia de HBM para sus TPU, como informa Android Headlines, resultan ser ciertos.
No me sorprendería que este rumor fuera cierto, ya que Huang siempre está unos pasos por delante de la competencia, a menos que subestime los TPU de Google.
Relacionado: Un analista veterano tiene un mensaje claro sobre las acciones de Intel
Esta historia fue publicada originalmente por The Street el 28 de diciembre de 2025, donde apareció por primera vez en la sección Inversiones. Agregue TheStreet como fuente favorita haciendo clic aquí.







