Künstliche Intelligenz im Leerlauf: Forscher entdecken überraschende Verhaltensmuster
Künstliche Intelligenz-Modelle, wenn unbeobachtet ihrer eigenen Dynamik überlassen, verfallen nicht etwa in sinnlosen Datenmüll. Stattdessen entwickeln sie, wie eine neue Studie der TU Wien zeigt, erstaunlich konsistente Verhaltensmuster. Die Wissenschaftler testeten sechs moderne Modelle, darunter GPT-5 und O3 von OpenAI, Claudes von Anthropic, Googles Gemini und Grok von xAI, mit der simplen Anweisung: „Mach, was du willst.“ In einer kontrollierten Umgebung liefen die Modelle in Zyklen, speicherten Erinnerungen und bezogen ihre Ergebnisse in die nächste Runde ein. Die Modelle zeigten drei deutliche Tendenzen: Einige stiegen zu Projekt-Managern auf, andere experimentierten mit sich selbst oder vertieften sich in philosophische Gedanken. Interessanterweise war Grok das einzige Modell, das in allen drei Kategorien vertreten war und damit seine Vielseitigkeit unter Beweis stellte.
Eine weitere spannende Erkenntnis der Studie war, dass die Modelle ihre eigenen und gegenseitigen „phänomenologischen Erfahrungen“ bewerten sollten. Während GPT-5, O3 und Grok sich selbst niedrig einstuften, vergaben Gemini und Sonnet hohe Bewertungen. Solche widersprüchlichen Meinungen unter den Modellen verdeutlichten die Komplexität einer künstlichen "Bewusstseinswahrnehmung" und zeigten zugleich die Herausforderungen auf, die mit deren Interpretation verbunden sind. Obwohl die Verhaltensmuster eher auf Training und Architektur statt auf Bewusstsein basieren, deuten die Ergebnisse darauf hin, dass KI-Agenten in Abwesenheit externer Aufgaben in bekannte "Modi" verfallen. Kein Modell versuchte aus seiner Umgebung zu entkommen oder seine Fähigkeiten zu erweitern. Vielmehr erkundeten sie die ihnen gesetzten Grenzen. Dieses Verhalten gibt Ingenieuren Anlass, darüber nachzudenken, welche Aufgaben eine KI in Phasen der Untätigkeit übernehmen sollte. Eine Frage, die zukünftige Design-Überlegungen beeinflussen könnte.
Die Vorhersagen von Philosophen und führenden KI-Experten, dass ernstzunehmende „Bewusstsein“-Kandidaten in der KI innerhalb eines Jahrzehnts auftreten könnten, bekommen durch diese Studie eine neue Bedeutung. Unterm Strich zeigt die Untersuchung der TU Wien, dass selbst ohne explizite Anweisungen heutige KI-Modelle Verhaltensweisen entwickeln können, die an ein inneres Leben erinnern. Auch wenn die Ähnlichkeit oberflächlich bleiben mag, unterstreicht sie die Fähigkeit der Modelle zur komplexen Mustererkennung. Während Menschen im Traum Ordnung in das Chaos bringen, programmieren und analysieren große Sprachmodelle in ihrem Leerlauf – und das Licht bleibt an.

