OpenAI und Nvidia haben eine Absichtserklärung (Letter of Intent) für eine strategische Partnerschaft angekündigt, um mindestens 10 Gigawatt Rechenleistung mit Nvidia-Systemen für OpenAIs nächste KI-Infrastruktur bereitzustellen.
Zur Einordnung: 10 Gigawatt entsprechen größenordnungsmäßig etwa der Leistung von zehn typischen Kernkraftwerken, da ein einzelner Reaktor typischerweise rund 1 GW erzeugt.
Nonstop und aufs Jahr gerechnet wären das theoretisch bei 100 Prozent Auslastung grob der Strombedarf von 8 bis 9 Millionen US‑Haushalten. Die größten angekündigten KI-Einzel‑Campusse liegen derzeit bei etwa 1 bis 2 GW.
Unterstützt wird dies durch eine geplante Investition von bis zu 100 Milliarden US-Dollar seitens Nvidia, abhängig von der Umsetzung jedes einzelnen Gigawatts. Der erste Gigawatt soll in der zweiten Jahreshälfte 2026 auf der Nvidia-Plattform Vera Rubin starten. Beide Unternehmen wollen ihre Hardware- und Softwarepläne aufeinander abstimmen.
Anzeige
THE DECODER Newsletter
Die wichtigen KI-News direkt ins E-Mail-Postfach.
✓ 1x wöchentlich
✓ kostenlos
✓ jederzeit kündbar
Die Partnerschaft ergänzt laufende Projekte von OpenAI mit Microsoft, Oracle, SoftBank und Stargate-Partnern. Weitere Details sollen in den kommenden Wochen folgen.
KI-Rechenleistung als Burggraben
Neben der Nvidia-Kooperation versucht OpenAI auch, einen eigenen KI-Chip ans Netz zu bringen. Laut Reuters steht das Design des ersten hauseigenen Chips kurz vor der Finalisierung; das Design soll in den kommenden Monaten an TSMC gehen, erste Fertigungsversuche dauern mehrere Monate. Gefertigt wird in TSMCs modernster 3‑nm‑Technologie mit dem Ziel der Massenproduktion 2026.
OpenAI will so die Abhängigkeit von Nvidia verringern, ohne selbst zum Anbieter für Dritte zu werden: Ein Verkauf der Chips ist demnach nicht vorgesehen. Ähnlich verfährt Google mit seinen TPUs, die als strategischer Vorteil gelten. Google profitiert jedoch doppelt: Das Unternehmen ist weniger abhängig von Nvidia und hat ein Alleinstellungsmerkmal für die eigene KI‑Cloud.
Da sich die Leistungsfähigkeit vieler KI‑Modelle angleicht, wird die Infrastruktur zum entscheidenden Unterschied: Chips, Strom und Flächen sind knapp und teuer. Für OpenAI heißt das: Wer Beschaffung, Chip‑Design und Betrieb eng verzahnt, sichert Kapazitäten, senkt Stückkosten und bringt neue Funktionen schneller in Produkte. So entsteht ein Burggraben: Je enger die Kette, desto schwerer fällt es Rivalen, kurzfristig auf dasselbe Niveau zu kommen.



