Meta verstärkt KI-Sprachtechnologie – Zuckerberg setzt auf KI-Agenten als Wachstumstreiber
Meta treibt die Entwicklung seiner Künstlichen Intelligenz mit neuen Sprachfunktionen für sein Llama 4-Modell voran. Das Update, das in den kommenden Wochen erwartet wird, soll die Interaktion natürlicher gestalten, indem es Unterbrechungen in Gesprächen erlaubt und die Nutzererfahrung verbessert.
CEO Mark Zuckerberg sieht 2025 als entscheidendes Jahr für die Monetarisierung von KI-Produkten. Meta testet daher kostenpflichtige Funktionen für seinen Meta AI-Assistenten, darunter automatisierte Buchungen und Videoerstellung. Zudem erwägt das Unternehmen, Werbung oder gesponserte Inhalte in den Suchergebnissen seines KI-Assistenten zu integrieren.
„Man kann mit dem Internet sprechen und es alles fragen – das wird das Nutzerverhalten grundlegend verändern“, sagte Chris Cox, Chief Product Officer von Meta, auf der Morgan Stanley Technology Conference. Er kündigte an, dass Llama 4 als „Omni-Modell“ entwickelt wird, bei dem Sprache nicht erst in Text umgewandelt werden muss, bevor die KI antwortet.
Parallel laufen interne Diskussionen über mögliche Lockerungen der Sicherheitsvorkehrungen für Llama 4. Die Debatte folgt auf zunehmenden Druck aus der US-Politik, KI-Modelle weniger restriktiv zu gestalten. OpenAI hat bereits eine erweiterte Sprachfunktion für ChatGPT eingeführt, während xAI, das KI-Unternehmen von Elon Musk, sein Grok 3-Modell mit bewusst geringeren Inhaltskontrollen getestet hat.
Die Sprachsteuerung ist auch ein zentrales Feature von Metas Ray-Ban-Smartglasses, die sich als Verkaufserfolg erweisen. Das Unternehmen beschleunigt zudem die Entwicklung leichter Augmented-Reality-Headsets, die langfristig das Smartphone als primäres Endgerät ersetzen könnten.

