Nvidia hat Cloud-Service-Verträge im Umfang von 26 Milliarden US-Dollar offengelegt, von denen das Unternehmen erwartet, dass sie seine Forschungs- und Entwicklungsarbeit unterstützen werden, einschließlich möglicher Projekte im Zusammenhang mit Open-Weight-KI-Modellen. Die Ausgabeverpflichtung, die in einer Quartalsmeldung bei der US-amerikanischen Börsenaufsichtsbehörde (SEC) offengelegt wurde, erstreckt sich über ungefähr fünf Geschäftsjahre. Das Ausmaß der Verpflichtung deutet darauf hin, dass Nvidia plant, neben seinem Kerngeschäft im Verkauf von KI-Hardware auch intern erhebliche Cloud-Rechenkapazitäten zu nutzen.
Was die SEC-Einreichung tatsächlich zeigt
Die Ausgabenzahl stammt aus Nvidias Form 10-Q für das am 26. Oktober 2025 endende Geschäftsquartal. In der Einreichung heißt es klar, dass sich seine mehrjährigen Cloud-Verpflichtungen zu diesem Zeitpunkt auf 26 Milliarden US-Dollar beliefen. Das Dokument unterteilt die Zahl in einen Jahresplan, der beim vierten Quartal des Geschäftsjahrs 2026 beginnt und dann die Geschäftsjahre 2027 bis 2030 abdeckt, mit zusätzlichen Verpflichtungen, die bis ins Geschäftsjahr 2031 und darüber hinaus reichen. Nvidia teilte den Regulatoren mit, dass die Mittel voraussichtlich die F&E-Aktivitäten des Unternehmens unterstützen sollen.
Dieses letzte Detail ist bedeutsamer, als es auf den ersten Blick erscheint. Cloud-Service-Verpflichtungen in dieser Größenordnung sind bei Hyperscale-Betreibern wie Amazon, Microsoft und Google üblich, die riesige Rechenzentrumsflotten betreiben. Für Nvidia, ein Unternehmen, das den Großteil seiner Einnahmen durch den Verkauf von Grafikprozessoren und KI-Beschleunigern an genau diese Betreiber erzielt, ist das Festlegen von 26 Milliarden US-Dollar an Cloud-Kapazität jedoch eine andere Art von Wette. Es legt nahe, dass das Unternehmen beabsichtigt, enorme Mengen an Rechenleistung intern zu verbrauchen, anstatt sie nur an andere zu liefern.
Warum ein Chiphersteller Cloud-Zeit kauft
Das Training großer KI-Modelle erfordert gewaltige Rechenressourcen. Ein einzelnes Spitzenmodell kann Zehntausende GPUs beanspruchen, die wochen- oder monatelang laufen. Nvidia entwirft bereits die am weitesten verbreiteten Chips für diese Arbeit, aber der Aufbau eigener KI-Modelle, insbesondere Open-Weight-Modelle, die externe Entwickler frei nutzen und modifizieren können, erfordert, dass das Unternehmen auch ein großskaliger Verbraucher derselben Infrastruktur wird.
Die Unterscheidung zwischen Open-Weight-Modellen und vollständig proprietären Modellen ist dabei wichtig. Open-Weight-Modelle veröffentlichen ihre trainierten Parameter öffentlich, sodass Forscher, Startups und Unternehmen sie ohne Lizenzgebühren feinabstimmen und einsetzen können. Metas Llama-Modellreihe ist das prominenteste Beispiel für diesen Ansatz. Wenn Nvidia einen ähnlichen Weg einschlägt, würde es Milliarden investieren, um KI-Werkzeuge zu schaffen, die sowohl von Wettbewerbern als auch von Kunden übernommen werden könnten – eine Strategie, die kontraintuitiv erscheint, bis man die nachgelagerten Effekte bedenkt.
Gibt Nvidia Open-Weight-Modelle frei, könnten Entwickler, die darauf aufbauen, ihre Workflows um Nvidias Software- und Hardware-Stack herum optimieren. In Nvidia-zentrierten Umgebungen trainierte und abgestimmte Modelle könnten auf Nvidia-Chips am besten laufen und so einen sich selbst verstärkenden Kreislauf erzeugen. In dieser Lesart könnte die 26-Milliarden-Cloud-Verpflichtung ebenso sehr dem Zweck dienen, Nvidias Ökosystem zu stärken, wie reiner Forschung zu dienen.
Ein Zahlungsplan über ein halbes Jahrzehnt
Der 10-Q-Zeitplan legt einen strukturierten Zahlungszeitraum dar. Die Verpflichtungen beginnen im vierten Quartal des Geschäftsjahrs 2026 und setzen sich bis einschließlich des Geschäftsjahrs 2030 fort, mit Restverpflichtungen, die in das Geschäftsjahr 2031 und darüber hinaus reichen. Diese Art von mehrjähriger Struktur spiegelt typischerweise ausgehandelte Verträge mit einem oder mehreren großen Cloud-Anbietern wider, obwohl die Einreichung keine konkreten Partner nennt.
Das Fehlen namentlich genannter Cloud-Partner ist an sich bemerkenswert. Nvidia verkauft Chips an alle großen Cloud-Plattformen, und der Abschluss eines großen Kaufvertrags mit einem einzelnen Anbieter könnte Wettbewerbsdynamiken verschärfen. Ob Nvidia diese Verpflichtungen über mehrere Anbieter verteilt oder sie bei einem Partner konzentriert, würde die Interpretation des Deals durch die Branche deutlich verändern. Nach den verfügbaren Quellen bleiben diese Details jedoch ungenannt.
Die nach hinten verlagerten Zahlungen im Zeitplan deuten zudem auf Nvidias Erwartungen an die Entwicklung des eigenen Bedarfs hin. Da Modelle größer und komplexer werden, geht das Unternehmen wahrscheinlich davon aus, dass die interne Nachfrage nach Rechenleistung in der späten 2020er-Jahre stark ansteigen wird. Ein jetzt eingegangener Verpflichtungsbetrag sichert Kapazität in einem Markt, in dem der Zugang zu hochwertigen Beschleunigern begrenzt sein kann.
Wettbewerbsdruck hinter der Investition
Die Entscheidung von Nvidia fällt in eine Phase intensiven Wettbewerbs in der Entwicklung offener KI. Meta hat mehrere Generationen seiner Llama-Modelle veröffentlicht. Mistral, ein französisches Startup, hat ein Geschäftsmodell rund um Open-Weight-Veröffentlichungen aufgebaut. Chinesische Labore, darunter DeepSeek, haben wettbewerbsfähige Modelle mit nachgiebigen Lizenzen publiziert. Google und Microsoft, die sich primär auf proprietäre Systeme konzentrieren, haben ebenfalls kleinere offene Modelle veröffentlicht, um Entwicklergemeinschaften anzuziehen.
Für Nvidia wäre es riskant gewesen, aus diesem Rennen herauszubleiben. Wenn Open-Weight-Modelle, die hauptsächlich auf Konkurrenzhardware trainiert wurden, zum Industriestandard würden, könnten Entwickler beginnen, ihre Systeme für AMD oder spezialisierte Chips von Cloud-Anbietern wie Googles TPUs und Amazons Trainium zu optimieren. Indem Nvidia die Entwicklung eigener offener Modelle in großem Umfang finanziert, kann das Unternehmen sicherstellen, dass seine Architektur die Referenzplattform für die am weitesten verbreiteten KI-Werkzeuge bleibt.
Diese Wettbewerbslogik erklärt auch, warum ein Unternehmen eine Verpflichtung dieser Größenordnung eingehen würde. Das Training eines State-of-the-Art-Modells kann extrem rechen- und kostenintensiv sein, wobei einige Branchen-Schätzungen in die Hunderte Millionen Dollar gehen. Sollte ein bedeutender Anteil der 26 Milliarden letztlich für Modellarbeit eingesetzt werden, könnte das das Training mehrerer großer Modelle und der dazugehörigen Infrastruktur unterstützen. Die Summe bezieht sich nicht unbedingt auf ein einzelnes Modell oder einen Produktzyklus, sondern auf nachhaltige Kapazität über mehrere Jahre.
Was die Einreichung nicht sagt
Mehrere wichtige Fragen bleiben durch die SEC-Offenlegung unbeantwortet. Die Einreichung spezifiziert nicht, wie viel der 26 Milliarden für das Training von Open-Weight-Modellen gegenüber anderen F&E-Aktivitäten vorgesehen ist. Nvidia betreibt Forschung in Bereichen wie autonomes Fahren, Robotik, Wirkstoffforschung und Chipdesign, die alle erhebliche Cloud-Ressourcen verbrauchen. Die Verpflichtung könnte Arbeiten in all diesen Bereichen finanzieren, wobei Open-AI-Modelle nur einen Teil des Gesamtvolumens ausmachen.
Die Einreichung enthält auch keine Details darüber, was „offen“ in der Praxis bedeuten wird. Open-Weight-Modelle unterscheiden sich stark in ihren Lizenzbedingungen. Einige, wie Metas Llama, enthalten Einschränkungen bei der kommerziellen Nutzung oberhalb bestimmter Schwellenwerte. Andere werden unter vollständig permissiven Lizenzen veröffentlicht. Das Maß an Offenheit, für das sich Nvidia entscheidet, wird bestimmen, ob diese Investition den Zugang zu leistungsfähiger KI tatsächlich erweitert oder vorwiegend als Marketinginstrument für das Hardwaregeschäft dient.
In den verfügbaren Primärdokumenten finden sich keine offiziellen Nvidia-Erklärungen oder Zitate von Führungskräften, die die strategische Absicht hinter diesen Verpflichtungen erläutern. Die Formulierungen in der Einreichung entsprechen dem üblichen regulatorischen Offenlegungsstil und beschreiben finanzielle Verpflichtungen statt Unternehmensstrategie. Bis Nvidia ausführlichere öffentliche Angaben macht, bleiben Außenstehende darauf angewiesen, Motive aus der Größe, dem Timing und der Struktur der Cloud-Vereinbarungen sowie aus dem breiteren Wettbewerbsumfeld im KI-Bereich zu schließen.
Auswirkungen für Entwickler und das KI-Ökosystem
Sollte Nvidia großangelegte Open-Weight-Veröffentlichungen durchziehen, könnten die Auswirkungen für Entwickler erheblich sein. Der Zugang zu qualitativ hochwertigen Modellen ohne restriktive Lizenzierung würde die Hürden für Startups und Forschungslabore senken, die sich proprietäre Systeme nicht leisten können oder sich nicht an einen einzelnen Cloud-Anbieter binden wollen. Das könnte wiederum die Experimentierfreudigkeit in Bereichen wie domänenspezifischen Assistenten, wissenschaftlichen Entdeckungswerkzeugen und industrieller Automatisierung beschleunigen.
Gleichzeitig könnte Nvidias Doppelfunktion als Infrastrukturlieferant und Modellentwickler neue Fragen zur Marktmacht aufwerfen. Cloud-Anbieter, die auf Nvidia-Hardware angewiesen sind, könnten in Konkurrenz zu Nvidia-unterstützten Modellen um die Aufmerksamkeit der Kunden stehen. Kleinere Chiphersteller könnten Mühe haben, Entwickleraufmerksamkeit zu gewinnen, wenn Nvidias offene Modelle zur Standardwahl für neue Projekte werden. Regulierungsbehörden und Branchenorganisationen werden voraussichtlich genau beobachten, ob die Kontrolle über Chips und Modelle Nvidias bereits dominante Stellung im KI-Computing weiter festigt.
Für Unternehmen könnte die unmittelbarste Auswirkung zunächst mehr Optionalität bedeuten. Firmen, die bereits auf Nvidia-Hardware standardisiert haben, können mit Nvidia-getrainierten Modellen experimentieren, ohne großen Integrationsaufwand. Anwender mit gemischten Umgebungen könnten stärkeren Druck verspüren, zumindest einige Workloads an Nvidias Ökosystem anzupassen, um von Performance-Optimierungen zu profitieren, die in den Open-Weight-Veröffentlichungen enthalten sein könnten.
Eine risikoreiche Wette auf vertikale Integration
Letzten Endes wirkt die 26-Milliarden-Cloud-Verpflichtung wie eine Wette auf vertikale Integration im Bereich KI. Nvidia bewegt sich über seine historische Rolle als Komponentenlieferant hinaus in eine Position, in der es den Software-Stack, der über seinen Chips liegt, beeinflussen und potenziell definieren kann. Wenn die Strategie aufgeht, könnte Nvidia mehr Wert aus jeder Hardwaregeneration ziehen, indem sichergestellt wird, dass die leistungsfähigsten und meistgenutzten Modelle von Anfang an auf seine Architektur abgestimmt sind.
Das Risiko besteht darin, dass sich das Unternehmen verzettelt oder falsch einschätzt, wie offen der Markt seine Modelle haben möchte. Entwickler neigen dazu, sich Ökosystemen zuzuwenden, die ihnen Flexibilität bieten, auch wenn das mit leicht geringerem Performance-Vorteil einhergeht. Werden Nvidias Open-Weight-Angebote als zu eng an die eigene Hardwareroadmap gebunden oder als nicht transparent genug wahrgenommen, könnten rivalisierende Open-Projekte dennoch die Begeisterung der Community gewinnen.
Vorerst liefert die SEC-Einreichung nur einen finanziellen Umriss von Nvidias Ambitionen. Der eigentliche Prüfstein wird sich in den nächsten Jahren zeigen, wenn das Unternehmen beginnt, die Modelle und Werkzeuge auszuliefern, die diese Cloud-Kapazität unterstützen sollen. Wie offen diese Modelle sind, wie gut sie auf unterschiedlicher Hardware laufen und wie aktiv Nvidia eine unabhängige Entwicklergemeinschaft um sie herum pflegt, wird darüber entscheiden, ob diese massive Cloud-Investition die KI-Landschaft umgestaltet oder lediglich bereits vorhandene Trends verstärkt.