Nvidia ha divulgado 26.000 millones de dólares en acuerdos multianuales de servicios en la nube que, según espera, respaldarán su trabajo de investigación y desarrollo, incluidos posibles esfuerzos relacionados con modelos de inteligencia artificial de pesos abiertos. El compromiso de gasto, revelado en un informe trimestral ante la Comisión de Bolsa y Valores de EE. UU., se extiende por aproximadamente cinco años fiscales. La escala del compromiso sugiere que Nvidia se prepara para consumir internamente cantidades significativas de capacidad de cómputo en la nube además de su negocio principal de venta de hardware para IA.
Lo que realmente muestra la presentación ante la SEC
La cifra de gasto proviene del Formulario 10-Q de Nvidia para el trimestre fiscal que terminó el 26 de octubre de 2025. El informe indica claramente que sus compromisos multianuales con la nube a esa fecha sumaban 26.000 millones de dólares. El documento desglosa los pagos en un calendario año por año que cubre el cuarto trimestre del ejercicio fiscal 2026 y los ejercicios fiscales 2027 a 2030, con obligaciones adicionales que se extienden hasta el ejercicio fiscal 2031 y posteriores. Nvidia dijo a los reguladores que se espera que los fondos respalden los esfuerzos de I+D de la compañía.
Ese último detalle importa más de lo que podría parecer a primera vista. Compromisos de servicios en la nube de este tamaño son comunes entre operadores de hiperescala como Amazon, Microsoft y Google, que gestionan enormes flotas de centros de datos. Para Nvidia, una empresa que obtiene la mayor parte de sus ingresos vendiendo unidades de procesamiento gráfico (GPU) y aceleradores de IA a esos mismos operadores, asegurar 26.000 millones de dólares en capacidad en la nube es una apuesta de un tipo distinto. Sugiere que la compañía planea consumir cantidades enormes de potencia de cómputo internamente en lugar de limitarse a suministrarla a otros.
Por qué un fabricante de chips está comprando tiempo en la nube
Entrenar modelos grandes de IA requiere cantidades asombrosas de recursos computacionales. Un único modelo de vanguardia puede requerir decenas de miles de GPU funcionando durante semanas o meses. Nvidia ya diseña los chips más utilizados para este trabajo, pero construir sus propios modelos de IA, especialmente los de pesos abiertos que desarrolladores externos pueden usar y modificar libremente, exige que la compañía también sea una consumidora a gran escala de esa misma infraestructura.
La distinción entre modelos de pesos abiertos y modelos totalmente propietarios es significativa aquí. Los modelos de pesos abiertos hacen públicos sus parámetros entrenados, lo que permite a investigadores, startups y empresas afinarlos y desplegarlos sin pagar tarifas de licencia. La familia de modelos Llama de Meta es el ejemplo más destacado de este enfoque. Si Nvidia sigue un camino similar, estaría invirtiendo miles de millones para crear herramientas de IA que competidores y clientes por igual podrían adoptar, una estrategia que parece contraintuitiva hasta que se consideran los efectos en cadena.
Si Nvidia publica modelos de pesos abiertos, los desarrolladores que trabajen sobre ellos podrían acabar optimizando flujos de trabajo en torno a la pila de software y hardware de Nvidia. Los modelos entrenados y afinados en entornos centrados en Nvidia pueden funcionar mejor en chips Nvidia, creando un ciclo autorreforzante. Visto de esta manera, el compromiso de 26.000 millones de dólares en la nube podría tener tanto que ver con fortalecer el ecosistema de Nvidia como con la investigación pura.
Un calendario de pagos que abarca medio decenio
El calendario del 10-Q expone una línea temporal de pagos estructurada. Las obligaciones comienzan en el cuarto trimestre del ejercicio fiscal 2026 y continúan hasta el ejercicio fiscal 2030, con compromisos residuales que se extienden al ejercicio fiscal 2031 y periodos posteriores. Este tipo de estructura plurianual refleja típicamente contratos negociados con uno o varios proveedores de nube importantes, aunque la presentación no nombra a socios específicos.
La ausencia de socios en la nube identificados es en sí misma destacable. Nvidia vende chips a todas las plataformas de nube importantes, y entrar en un gran acuerdo de compra con cualquiera de ellas podría generar tensiones competitivas. Que Nvidia esté repartiendo estos compromisos entre varios proveedores o concentrándolos con un solo socio cambiaría de forma significativa la interpretación de la industria sobre el acuerdo. Según las fuentes disponibles, esos detalles permanecen sin revelar.
La naturaleza concentrada hacia el final del calendario de pagos también insinúa las expectativas de Nvidia sobre cómo evolucionarán sus propias necesidades. A medida que los modelos crezcan en tamaño y complejidad, la compañía probablemente anticipa que su demanda interna de cómputo aumentará notablemente a finales de la década de 2020. Comprometer el gasto ahora asegura capacidad en un mercado donde el acceso a aceleradores de alto nivel puede estar limitado.
Presión competitiva detrás de la inversión
La decisión de Nvidia llega en un periodo de intensa competencia en el desarrollo de IA abierta. Meta ha lanzado múltiples generaciones de sus modelos Llama. Mistral, una startup francesa, ha construido un negocio alrededor de lanzamientos de pesos abiertos. Laboratorios chinos, incluidos DeepSeek, han publicado modelos competitivos con licencias permisivas. Google y Microsoft, aunque se centran principalmente en sistemas propietarios, también han liberado modelos abiertos más pequeños para atraer a las comunidades de desarrolladores.
Para Nvidia, quedarse fuera de esta carrera implicaba un riesgo real. Si los modelos de pesos abiertos entrenados principalmente en hardware de competidores se convirtieran en el estándar de la industria, los desarrolladores podrían empezar a optimizar para AMD u otros chips personalizados de proveedores de nube como los TPUs de Google y los Trainium de Amazon. Al financiar su propio desarrollo de modelos abiertos a gran escala, Nvidia puede asegurarse de que su arquitectura siga siendo la plataforma de referencia para las herramientas de IA más utilizadas.
Esta lógica competitiva también ayuda a explicar por qué una empresa podría asumir un compromiso de este tamaño. Entrenar un modelo de última generación puede ser extremadamente intensivo en cómputo y caro, con algunas estimaciones de la industria que alcanzan cientos de millones de dólares. Si una parte significativa de los 26.000 millones se utiliza finalmente para trabajo de modelos, podría sostener el entrenamiento de múltiples modelos grandes y la infraestructura asociada. La cifra no tiene por qué referirse a un único modelo o ciclo de producto, sino a capacidad sostenida durante varios años.
Qué no dice la presentación
Varias preguntas importantes quedan sin responder por la divulgación ante la SEC. La presentación no especifica cuánto de los 26.000 millones está destinado al entrenamiento de modelos de pesos abiertos frente a otras actividades de I+D. Nvidia realiza investigación en vehículos autónomos, robótica, descubrimiento de fármacos y diseño de chips, todas las cuales consumen recursos en la nube de forma significativa. El compromiso podría financiar trabajos en todas estas áreas, con los modelos de IA abiertos representando solo una parte del total.
El informe tampoco aporta detalles sobre qué significará en la práctica que algo sea «abierto». Los modelos de pesos abiertos varían ampliamente en sus términos de licencia. Algunos, como Llama de Meta, incluyen restricciones sobre el uso comercial por encima de ciertos umbrales de usuarios. Otros se publican bajo licencias totalmente permisivas. El grado de apertura que elija Nvidia determinará si esta inversión realmente amplía el acceso a IA potente o sirve principalmente como una herramienta de marketing para su negocio de hardware.
No hay declaraciones oficiales de Nvidia ni citas de ejecutivos que aclaren la intención estratégica detrás de estos compromisos en la documentación primaria disponible. El lenguaje de la presentación es una divulgación regulatoria estándar, que describe obligaciones financieras más que estrategia corporativa. Hasta que Nvidia proporcione una guía pública más detallada, los observadores externos deberán inferir motivos a partir del tamaño, la temporalidad y la estructura de los acuerdos en la nube y del panorama competitivo más amplio en la IA.
Implicaciones para desarrolladores y el ecosistema de IA
Si Nvidia cumple con lanzamientos a gran escala de pesos abiertos, los efectos para los desarrolladores podrían ser sustanciales. El acceso a modelos de alta calidad sin licencias restrictivas reduciría las barreras para startups y laboratorios de investigación que no pueden permitirse sistemas propietarios o que no quieren quedar atados a un único proveedor de nube. A su vez, eso podría acelerar la experimentación en áreas como asistentes específicos de dominio, herramientas de descubrimiento científico y automatización industrial.
Al mismo tiempo, el doble papel de Nvidia como proveedor de infraestructura y desarrollador de modelos podría plantear nuevas preguntas sobre el poder de mercado. Los proveedores de nube que dependen del hardware de Nvidia podrían verse compitiendo con modelos respaldados por Nvidia por la atención de los clientes. Los fabricantes de chips más pequeños podrían tener dificultades para atraer la preferencia de los desarrolladores si los modelos abiertos de Nvidia se convierten en la opción predeterminada para nuevos proyectos. Es probable que reguladores y grupos del sector vigilen de cerca para detectar señales de que el control simultáneo sobre chips y modelos está reforzando la ya dominante posición de Nvidia en el cómputo para IA.
Para las empresas, el impacto principal a corto plazo puede ser la opcionalidad. Las compañías que se hayan estandarizado en hardware de Nvidia podrán experimentar con modelos entrenados por Nvidia sin grandes trabajos de integración. Aquellas que utilicen entornos mixtos podrían sentir más presión para alinear al menos algunas cargas de trabajo con el ecosistema de Nvidia y aprovechar optimizaciones de rendimiento incorporadas en las liberaciones de pesos abiertos.
Una apuesta de alto riesgo por la integración vertical
En última instancia, el compromiso de 26.000 millones de dólares en la nube se parece a una apuesta por la integración vertical en la IA. Nvidia está avanzando más allá de su papel histórico como proveedor de componentes hacia una posición desde la que puede influir, y potencialmente definir, la pila de software que se ejecuta sobre sus chips. Si la estrategia funciona, Nvidia podría capturar más valor de cada generación de hardware asegurando que los modelos más capaces y más utilizados estén optimizados para su arquitectura desde el principio.
El riesgo es que la compañía se extienda demasiado o equivoque la medida en que el mercado quiere que sus modelos sean abiertos. Los desarrolladores han mostrado disposición a gravitar hacia ecosistemas que les dan flexibilidad, incluso si eso implica aceptar un rendimiento ligeramente inferior. Si las ofertas de pesos abiertos de Nvidia se perciben como demasiado vinculadas a su hoja de ruta de hardware o como insuficientemente transparentes, proyectos abiertos rivales podrían seguir captando el entusiasmo de la comunidad.
Por ahora, la presentación ante la SEC ofrece solo un esbozo financiero de las ambiciones de Nvidia. La prueba real llegará en los próximos años, a medida que la compañía comience a entregar los modelos y las herramientas que esta capacidad en la nube está destinada a soportar. Qué tan abiertos sean esos modelos, qué rendimiento ofrezcan en distintos hardwares y cuán activamente Nvidia fomente una comunidad de desarrolladores independiente en torno a ellos determinará si esta inmensa inversión en la nube remodela el panorama de la IA o simplemente refuerza tendencias que ya estaban en marcha.