OpenAI will Kosten senken – eigene Chips sollen NVIDIA-Preise um bis zu 30 Prozent unterbieten
Unabhängigkeit trotz Milliarden-Deal mit NVIDIA
Zwar pflegt OpenAI weiterhin eine enge Partnerschaft mit NVIDIA – im September wurde eine Kooperation über bis zu 100 Milliarden US-Dollar bekannt, inklusive der Lieferung von zehn Gigawatt an Hochleistungs-Systemen der kommenden „Vera-Rubin“-Generation. Dennoch will CEO Sam Altman nicht ausschließlich vom Branchenführer abhängig sein.
AMD als zweites Standbein
Erst Anfang Oktober schloss OpenAI einen milliardenschweren Liefervertrag mit AMD. Ab der zweiten Jahreshälfte 2026 soll AMD über mehrere Jahre hinweg Hunderttausende seiner KI-Prozessoren (GPUs) liefern. Die Chips sollen insgesamt sechs Gigawatt Leistung bereitstellen – und OpenAI darf im Gegenzug bis zu zehn Prozent an AMD erwerben. „Die Welt braucht viel mehr Rechenkapazität“, betonte Altman – und bestätigte damit, dass OpenAI auf mehrere Hardware-Lieferanten setzt, um künftige KI-Modelle abzusichern.
Eigene KI-Beschleuniger – Risiko und Chance zugleich
Mit Broadcom will OpenAI nun maßgeschneiderte Chips entwickeln, die ausschließlich für den Eigenbedarf gedacht sind. Broadcom liefert Netzwerktechnik, OpenAI entwirft die Schaltkreise selbst. Diese Chips sollen künftig in Rechenzentren mit einer Kapazität von zehn Gigawatt laufen – ein gewaltiger Schritt in Richtung Eigenständigkeit.
Von den rund 50 Milliarden US-Dollar, die der Bau eines 1-Gigawatt-KI-Zentrums kostet, entfallen allein 35 Milliarden auf Chips – hier will OpenAI die größten Einsparungen erzielen. Doch die Eigenentwicklung ist teuer und riskant: sie erfordert hochspezialisierte Expertise und birgt die Gefahr, bei der rasanten Entwicklung von KI-Hardware schnell überholt zu werden.
Trotzdem: Sollte OpenAI die Kostenvorteile realisieren, wäre das ein strategischer Befreiungsschlag – und könnte den gesamten KI-Hardwaremarkt neu ordnen.


