OpenAI öffnet sich – erstmals kostenlose KI-Modelle mit offenem Zugang vorgestellt
OpenAI hat mit der Veröffentlichung zweier sogenannter open-weight-Modelle einen markanten Kurswechsel vollzogen. Die neuen Systeme, unter dem Namen „gpt-oss“ geführt, sind frei zugänglich und lassen sich von Entwicklern anpassen – ein deutlicher Bruch mit der bisherigen, strikt abgeschotteten Produktstrategie des 300 Milliarden Dollar schweren Unternehmens aus San Francisco.
Die Modelle sollen sich laut OpenAI auf dem Leistungsniveau kleinerer geschlossener Systeme wie o4-mini bewegen. Die kompaktere Version benötigt dabei deutlich weniger Arbeitsspeicher und eignet sich damit auch für Anwendungen auf mobilen Endgeräten. Anders als open-source-Modelle enthalten open-weight-Modelle jedoch keine vollständige Dokumentation des Trainingsprozesses oder der verwendeten Datensätze.
Mit dem Schritt reagiert OpenAI auf wachsenden Wettbewerbsdruck aus China. Insbesondere das Start-up DeepSeek hatte im Januar mit seinem open-source-Modell R1 für Aufsehen gesorgt. Die Leistungsfähigkeit der chinesischen Systeme – darunter auch Alibaba’s Qwen und Moonshot’s Kimi – hat die Vormachtstellung amerikanischer Anbieter im Bereich offen zugänglicher KI-Modelle erheblich untergraben.
OpenAI-Chef Sam Altman hatte wenige Tage nach der Veröffentlichung von R1 öffentlich eingeräumt, dass sein Unternehmen auf dem „falschen Ende der Geschichte“ gestanden habe. Die neuen Modelle seien nun ein Ausdruck davon, diese Strategie neu zu denken. Altman sprach am Dienstag von einem „offenen KI-Stack auf Basis demokratischer Werte, der allen zugänglich ist“.
In der Mitteilung betonte OpenAI, dass gpt-oss speziell für sogenannte agentic workflows konzipiert sei – das heißt, die Modelle bearbeiten komplexe Anfragen schrittweise und weitgehend autonom. Entwickler können zudem steuern, wie viel Rechenaufwand in die Antwortgenerierung investiert wird. Über ein Monetarisierungsmodell äußerte sich das Unternehmen bisher nicht.
Die Veröffentlichung war zuvor zweimal verschoben worden, zuletzt wegen zusätzlicher Sicherheitstests. OpenAI entwickelte unter anderem bewusst manipulative Versionen der Modelle, um Schwachstellen bei der Abwehr von Missbrauch – etwa beim Design biologischer Waffen – zu identifizieren. Diese Varianten erreichten laut internen Tests jedoch keine bedenklichen Fähigkeitsstufen. Drei externe Expertengremien bewerteten das Sicherheitskonzept und empfahlen Optimierungen.
Der Vorstoß von OpenAI erfolgt auch vor dem Hintergrund enttäuschender Leistungen des jüngsten open-weight-Modells von Meta. Dessen CEO Mark Zuckerberg hatte sich zuletzt skeptischer gegenüber der vollständigen Offenlegung leistungsfähiger KI geäußert. In einem internen Memo warnte er vor den „neuartigen Sicherheitsrisiken“, die superintelligente Systeme mit sich brächten.

