Nvidia rüstet sich für den nächsten KI-Wettlauf – Fokus auf Inferenztechnologie
Nvidia hat sich trotz wachsender Konkurrenz an der Spitze des KI-Marktes behauptet. Während sich die Branche von der Entwicklung neuer Modelle hin zur Nutzung bestehender Systeme – der sogenannten Inferenz – verlagert, passt sich der Chipriese strategisch an.
Die neueste Chip-Generation Blackwell wurde gezielt für diesen Wandel entwickelt. Die Chips sind größer, verfügen über mehr Speicher und nutzen eine weniger präzise, aber effizientere Berechnungsmethode. Zudem lassen sie sich in großen Clustern mit Hochgeschwindigkeitsnetzwerken verbinden. „Nvidia erzielt mit Blackwell deutlich größere Fortschritte bei der Inferenz als beim Training“, sagte Dylan Patel von SemiAnalysis.
Diese Strategie zeigte bereits Wirkung: Im jüngsten Quartalsbericht übertraf Nvidia die Erwartungen der Analysten bei Umsatz und Gewinn und lieferte eine optimistische Prognose für das laufende Quartal. Dennoch verlor die Aktie 8,5 Prozent, da Investoren eine sinkende Marge und schwächere Verkaufszahlen in China befürchten.
CEO Jensen Huang sieht die steigende Nachfrage nach Inferenz als entscheidenden Wachstumsfaktor. Neue „Reasoning“-Modelle, die Antworten Schritt für Schritt durchdenken, benötigen laut Huang bis zu hundertmal mehr Rechenleistung als frühere KI-Systeme. „Die Mehrheit unserer Rechenleistung fließt heute in Inferenz, und Blackwell bringt das auf ein neues Niveau“, sagte er in einer Analystenkonferenz.
Doch die Konkurrenz schläft nicht. Start-ups wie Etched, Cerebras oder Groq entwickeln spezialisierte Inferenzchips, während Branchengrößen wie AMD und Tech-Giganten eigene KI-Prozessoren für diesen Markt bauen. Robert Wachen, Mitgründer von Etched, hält Nvidias GPUs für begrenzt, da sie ursprünglich nicht speziell für KI entwickelt wurden: „Irgendwann reicht es nicht mehr, ein Schweizer Taschenmesser zu schärfen – man braucht Spezialwerkzeuge.“
Huang bleibt dennoch optimistisch. Er rechnet mit einem exponentiellen Anstieg des Rechenbedarfs: „Reasoning-Modelle könnten tausend- oder millionenfach mehr Leistung benötigen als heutige KI-Systeme. Dies ist erst der Anfang.“

