AI als stiller Risikoparazit im Militär: Chancen und Gefahren
Künstliche Intelligenz ist längst auf dem Schlachtfeld angekommen und ihre Nutzung nimmt rasant zu. In diesem Jahr gaben Meta, Anthropic und OpenAI bekannt, dass ihre KI-Modelle für die nationale Sicherheit der USA zur Verfügung stehen.
Der Einsatz von KI im Kriegswesen ist kontrovers und steht in der Kritik. Doch eine heimtückischere Sammlung von Anwendungsfällen hat bereits ihren Weg in das US-Militär gefunden. Oberflächlich betrachtet mögen die Aufgaben der KI unbedeutend erscheinen. Sie unterstützt bei Kommunikation, Programmierung, IT-Tickets und Datenverarbeitung.
Das Problem liegt jedoch darin, dass selbst banale Anwendungen Risiken bergen können. Die Leichtigkeit, mit der sie eingesetzt werden, könnte die Sicherheit der zivilen und militärischen Infrastruktur gefährden. Ein Beispiel ist das US Africa Command, das offen den Einsatz eines OpenAI-Tools für „einheitliche Analysen zur Datenverarbeitung“ einräumt. Solche administrativen Aufgaben können in entscheidende Entscheidungen einfließen.
Wiederholte Demonstrationen zeigen jedoch, dass KI-Tools Fehlausgaben erzeugen und neue Schwachstellen einführen. Diese Fehler könnten zu zivilen Schäden und taktischen Fehlern führen, da USAfricom eine kriegführende Einheit ist. Die USAfricom ist nicht allein. Die US-Luft- und Raumfahrteinheiten haben einen generativen KI-Chatbot namens NIPRGPT eingeführt, der Fragen beantwortet und bei Aufgaben wie Korrespondenz und Code hilft. Gleichzeitig hat die Marine ein konversationales KI-Technikunterstützungsmodell, Amelia genannt, entwickelt.
Militärorganisationen rechtfertigen den Einsatz von KI-Modellen, indem sie ihre Effizienz, Genauigkeit und Skalierbarkeit hervorheben. In der Praxis offenbart ihre Beschaffung jedoch ein besorgniserregendes Unverständnis der Risiken. Dazu gehören die Gefahren durch mögliche Vergiftung von Datensätzen durch Gegner, die Subversion von Ergebnissen sowie die Bedrohung durch KI-Halluzinationen.
Trotzdem haben US-Militärorganisationen bisher keine konkreten Pläne zur Absicherung kritischer Infrastrukturen vorgestellt. Die fehlende Eignung für den Zweck birgt viele Sicherheitsrisiken, die den möglichen Vorteilen nicht gerecht werden. Diese Tools liefern Ergebnisse auf statistisch-probabilistischen Korrelationen, nicht auf faktischen Beweisen. Obwohl sich KI-Tools stetig verbessern, sind die Fehlerraten bei für Präzision und Sicherheit kritischen Anwendungen noch immer zu hoch.
Dieses Vertrauen in die Tools könnte dazu führen, dass Anwender ihre Fehler übersehen. Warum also dürfen militärische Organisationen KI so einfach beschaffen und Modelle implementieren? Eine Antwort darauf scheint in der Einstufung als IT-Infrastruktur zu liegen. Diese Herangehensweise erlaubt es, angemessene Beschaffungskanäle zu umgehen, die sie auf Missionstauglichkeit prüfen.
Auf der Suche nach zukünftigen Effizienzgewinnen gehen militärische Behörden also echte Risiken ein. Dies ist ein Abwägungsprozess, der durch die schwerwiegenden Gefahren nicht gerechtfertigt werden kann.

