La noticia. NVIDIA y OpenAI firmaron una carta de intenciones (LOI) para construir y operar al menos 10 gigavatios (GW) de centros de datos de IA equipados con sistemas de NVIDIA que servirán como base para los próximos modelos y experiencias de ChatGPT.
Como parte del acuerdo, NVIDIA tiene la intención de invertir hasta 100.000 millones de dólares en OpenAI, con un esquema progresivo: el capital se irá materializando a medida que cada gigavatio entre en operación. Es un pacto de envergadura industrial que combina suministro de hardware, financiación y hoja de ruta de despliegue.
Qué implica a corto plazo. Las empresas precisaron un primer hito: el despliegue del primer 1 GW en la segunda mitad de 2026, sobre la nueva plataforma NVIDIA Vera Rubin.
En términos prácticos, hablamos de millones de GPU organizadas en clústeres para entrenamiento e inferencias de modelos de última generación, con el objetivo de mejorar la latencia, la capacidad y el coste por consulta en productos como ChatGPT.
Por qué es relevante para los usuarios de ChatGPT. Un plan de 10 GW no es un ajuste incremental: es una reserva de cómputo que permite contextos más largos, funciones multimodales más pesadas (voz, imagen, vídeo) y agentes capaces de navegar, ejecutar código y producir entregables sin cuellos de botella.
Para organizaciones que evalúan ChatGPT Enterprise, la traducción es más previsibilidad en picos de uso y SLA más estables conforme se energicen los nuevos tramos de capacidad. (La promesa de valor se refuerza con la cadencia de despliegue: 1 GW en 2026 y escalado posterior).
Cómo encaja con la estrategia de infraestructura de OpenAI. El LOI con NVIDIA se suma al programa Stargate, bajo el cual OpenAI, Oracle y SoftBank anunciaron cinco nuevos emplazamientos de centros de datos en EE. UU.
que sitúan la capacidad planificada cerca de 7 GW y el compromiso de inversión en más de 400.000 millones de dólares en los próximos tres años.
Es decir, el acuerdo NVIDIA–OpenAI no sustituye a Stargate; lo complementa, asegurando la cadena de suministro de GPU mientras se construyen y energizan nuevos sitios.
Señales de mercado y regulación. Fuentes del mercado apuntan a que la participación financiera de NVIDIA—además del suministro de hardware—podría atraer escrutinio antimonopolio en EE. UU. y otros mercados, dada su posición dominante en aceleradores de IA.
En todo caso, hoy estamos ante un memorando/carta de intenciones y las partes anticipan la negociación de términos definitivos antes del cierre de cada tramo.
Qué observar a partir de ahora.
- Ejecución del primer 1 GW (H2 2026) en Vera Rubin y sus efectos medibles en latencia y capacidad de ChatGPT.
- Ritmo de energización de los GW siguientes y su coordinación con los nuevos sitios de Stargate (Texas, Nuevo México, Ohio y otro punto del Medio Oeste), ya anunciados.
- Trayectoria de costes: si la escala y la co‑optimización HW/SW reducen de forma sostenida el coste por inferencia, será viable ofrecer contextos más extensos y funciones multimodales sin presionar precios finales. (Este es el gran indicador para empresas y desarrolladores que construyen sobre ChatGPT.)
En síntesis. El pacto NVIDIA × OpenAI convierte la disponibilidad de cómputo en una ventaja estratégica explícita para la siguiente etapa de ChatGPT.
Con 10 GW en el horizonte y un primer gigavatio en 2026, OpenAI asegura combustible para modelos más capaces y experiencias más ricas; NVIDIA, por su parte, ancla demanda a largo plazo y participa financieramente en el crecimiento del ecosistema que sus chips posibilitan.
Si la ejecución se mantiene en ritmo, los usuarios deberían notar respuestas más rápidas, menos saturación en grandes lanzamientos y nuevas capacidades que hoy están limitadas por la escasez de cómputo. NVIDIA Newsroom+1