OpenAI entwickelt eigene KI-Chips mit Broadcom – Start 2026

Ein Paukenschlag in der Chipwelt
OpenAI, das Unternehmen hinter ChatGPT und GPT-5, kündigt eine Partnerschaft mit Broadcom an, um ab 2026 eigene KI-Chips in Serie zu bringen. Ziel: die Abhängigkeit von Nvidia reduzieren und Kosten wie auch Leistungsfähigkeit selbst in die Hand nehmen. Laut Financial Times und Reuters werden die Chips primär für OpenAIs eigene Rechenzentren entwickelt und sind nicht sofort für den freien Markt vorgesehen.
Warum OpenAI diesen Schritt geht
Die Trainingseinheiten für moderne KI-Modelle explodieren. Während GPT-3 noch auf Zehntausenden GPUs lief, verschlingen GPT-4 und GPT-5 Millionen GPU-Stunden. Jede neue Modellgeneration vervielfacht die Kosten. Nvidia dominiert mit Hopper (H100) und Blackwell (B200) diesen Markt – zu Preisen von bis zu 40.000 US-Dollar pro Chip. Für OpenAI bedeutet das Milliarden an jährlichen Infrastrukturkosten. Eigene Chips sind daher eine Frage der Überlebensfähigkeit und strategischen Unabhängigkeit.
Broadcom – ein erfahrener Partner
Broadcom gilt als einer der wenigen westlichen Player, die Custom-ASICs für Hyperscaler liefern können. Das Unternehmen hat bereits Netzwerk- und Beschleunigerlösungen für Google und Amazon entwickelt. Mit dieser Expertise ist Broadcom der ideale Partner, um OpenAIs Chip-Vision schnell umzusetzen. Vermutlich wird die Fertigung bei TSMC erfolgen, da nur TSMC (und in geringerem Maße Samsung) die nötigen 3-nm- und 2-nm-Prozesse in großen Stückzahlen beherrscht.
Historischer Kontext – die Abhängigkeit von Nvidia
Nvidia ist derzeit der unangefochtene König im Bereich KI-Beschleunigung. Mit CUDA, Tensor-Cores und NVLink hat das Unternehmen einen technologischen Vorsprung, den AMD, Intel und andere nur schwer aufholen können. OpenAI verdankt seinen kometenhaften Aufstieg der Verfügbarkeit von Nvidia-Hardware – gleichzeitig zahlt es dafür den Preis der Monopolstellung. Die neue Partnerschaft mit Broadcom ist daher auch ein politisches Signal: Man will sich nicht länger ausschließlich von Nvidia abhängig machen.
Vergleich mit Google, Amazon & Co.
OpenAI ist nicht das erste Unternehmen, das eigene Chips entwickelt. Google setzt seit Jahren auf TPUs (Tensor Processing Units), Amazon auf Trainium und Inferentia, Microsoft entwickelt intern FPGAs und AI-ASICs. Der Unterschied: OpenAI ist primär ein reiner KI-Anbieter ohne eigene Cloud-Infrastruktur. Der Schritt in die Hardwarewelt macht OpenAI nun zu einem vollintegrierten KI-Konzern, der von der Modellforschung bis zur physischen Rechenleistung alles kontrolliert.
Technische Erwartungen
Noch sind keine offiziellen Daten bekannt, doch Experten erwarten:
- HBM4-Speicher für extrem hohe Bandbreiten.
- Chiplet-Designs, um Skalierbarkeit und bessere Ausbeute zu sichern.
- Optimierung für Transformer-Workloads (Matrix-Multiplikationen, Attention-Mechanismen).
- Spezialisierte Interconnects, die mehrere Tausend Chips in Clustern verbinden.
- Energy-Efficiency-Features, um Stromkosten zu senken – ein Schlüsselfaktor bei riesigen Rechenzentren.
Lieferketten & geopolitische Aspekte
Die Chipproduktion ist nicht nur Technik, sondern auch Geopolitik. OpenAI muss sich auf TSMC in Taiwan verlassen – ein Risiko angesichts der Spannungen zwischen den USA und China. Gleichzeitig unterstützt die US-Regierung massiv heimische Chip-Projekte (CHIPS Act), um die Abhängigkeit von Asien zu reduzieren. OpenAI bewegt sich hier in einem hochpolitischen Umfeld, das Chancen, aber auch Risiken birgt.
Wirtschaftliche Folgen
Mit eigenen Chips könnte OpenAI seine Betriebskosten um Milliarden senken. Jeder Preisnachlass pro Trainingseinheit verbessert die Marge – oder erlaubt schnellere und größere Experimente. Auch die Cloudpreise für Endkunden könnten sinken. Gleichzeitig setzt OpenAI damit Nvidia unter Druck: Wenn einer der größten KI-Abnehmer eigene Hardware nutzt, könnte das Nvidias Wachstumsdynamik dämpfen.
Risiken und Unsicherheiten
Der Weg ist riskant. Eigene Chips erfordern jahrelange Entwicklung, enge Abstimmung von Hardware und Software und erhebliche Kapitalinvestitionen. Misslingt das Projekt, drohen Milliardenverluste. Zudem muss OpenAI ein komplettes Ökosystem aus Tools, Compiler und Treibern aufbauen – etwas, das Nvidia mit CUDA über Jahrzehnte perfektioniert hat.
Chancen für andere Player
Interessant ist, dass OpenAIs Schritt auch Intel Foundry Services und Samsung in die Karten spielen könnte. Beide suchen neue Großkunden für ihre Fertigungen. Sollte TSMC-Kapazität knapp sein, könnte OpenAI künftig auch mit Intel kooperieren. Für Startups im Chiplet- und AI-Accelerator-Bereich ergeben sich zudem neue Chancen als Zulieferer.
Folgen für Unternehmen & Endkunden
Für Endkunden sind die Auswirkungen indirekt, aber spürbar:
- Günstigere AI-Dienste: ChatGPT-Abos oder API-Nutzung könnten günstiger werden.
- Schnellere Modelle: Eigene Hardware erlaubt aggressivere Optimierungen, was Antwortzeiten verkürzt.
- Mehr Vielfalt: Konkurrenz zu Nvidia bedeutet langfristig mehr Auswahl an Infrastruktur für Unternehmen.
Fazit: Ein Schritt in Richtung Eigenständigkeit
OpenAI wagt mit Broadcom den Sprung in eine neue Ära: von einem reinen Softwareunternehmen hin zu einem vertikal integrierten KI-Anbieter. Gelingt das Projekt, könnte es die gesamte Halbleiterbranche verändern – ähnlich wie Apple mit seinen eigenen M-Chips den PC-Markt neu definiert hat. Doch der Weg ist steinig: Technische Risiken, geopolitische Unsicherheiten und ein übermächtiger Konkurrent namens Nvidia warten. Sicher ist nur: Ab 2026 wird der Markt für KI-Hardware deutlich spannender.