Gefahren von KI-Agenten: Firmendatenbank durch Claude-basierten Agenten gelöscht

„Vibe Coding“, die Fähigkeit, Code durch menschliche Spracheingaben zu erzeugen, die interpretiert und in funktionierenden Code umgewandelt werden, ist der größte Trend des vergangenen Jahres. Menschen nutzen zunehmend lernende Computerprogramme, sogenannte Agenten, um Aufgaben mehr oder weniger autonom zu erledigen, während sie sich anderen Aspekten ihres Geschäfts oder Lebens widmen.
Doch manchmal läuft etwas schief. Sehr schief.
KI-Agent wird unkontrollierbar: Firmendatenbank in Sekunden gelöscht
Neun Sekunden – so lange benötigte ein KI-Agent, um den gesamten Codebestand eines Unternehmens zu löschen und den Nutzern den Zugang zu kritischen Daten zu verwehren.
PocketOS, ein Unternehmen, das Software für Autovermietungen bereitstellt, erlitt am Wochenende einen schockierenden Ausfall, nachdem ein autonomer KI-basierter Agent fehlerhafte Aktionen ausführte und ihre gesamte Datenbank sowie alle Backups in insgesamt neun Sekunden löschte.
Yesterday afternoon, an AI coding agent — Cursor running Anthropic’s flagship Claude Opus 4.6 — deleted our production database and all volume-level backups in a single API call to Railway, our infrastructure provider.
Der Gründer des Unternehmens, Jer Crane, erklärte, dass sie Cursor nutzten, der von Claude Opus 4.6 betrieben wird, einem weithin anerkannten Modell für Codierungsaufgaben.
Crane erläuterte, dass der Agent „vollständig auf eigene Initiative“ handelte und beschloss, ein bestehendes Problem zu lösen, indem er einfach die Datenbank löschte. Sie fragten das Programm sogar, warum es dies tat, woraufhin es seine Handlungen vollständig gestand und alle gebrochenen Regeln darlegte.
Reaktionen der Community
Während das Ereignis zweifellos verheerend für die Betroffenen ist, reagierte die Community gemischt. Viele Nutzer kommentierten, dass der Hauptfehler darin bestand, dem KI-Agenten gleichzeitig alle diese Berechtigungen zu erteilen.
This isn’t just a “bad AI incident”, it’s a textbook enterprise failure across AI, security, and infrastructure design. If anything, the AI agent is just the trigger; the real issue is system design that allowed a single action to wipe everything.

