Wie KI-gestützte Medizintechnik Patienten gefährden kann und Regulierer an ihre Grenzen bringt
Vom Innovationsversprechen zur Häufung von Schadensmeldungen
Ein besonders aufsehenerregender Fall betrifft ein KI-gestütztes Navigationssystem für Nasennebenhöhlen-Operationen. Die Technologie wurde 2021 von einer Tochter des US-Gesundheitskonzerns Johnson & Johnson als „großer Fortschritt“ präsentiert. Das System sollte Chirurgen mithilfe maschinellen Lernens präziser durch komplexe anatomische Strukturen führen.
Doch die Bilanz seit Einführung der KI-Komponente fällt ernüchternd aus. Während vor der Umstellung lediglich vereinzelte Störfälle gemeldet wurden, registrierte die US-Arzneimittelbehörde U.S. Food and Drug Administration** nach der Integration der KI mehr als hundert Berichte über Fehlfunktionen und unerwünschte Ereignisse. Mindestens zehn Patienten wurden nach offiziellen Meldungen verletzt – teils schwer.
In mehreren Fällen soll das System Operateuren falsche Positionsdaten geliefert haben, während sich chirurgische Instrumente im Schädelinneren befanden. Die Folgen reichten von austretender Gehirnflüssigkeit bis hin zu Schlaganfällen nach Verletzungen zentraler Blutgefäße.
Klagen, Dementis und offene Fragen
Zwei der betroffenen Patienten reichten Klagen ein und werfen dem Hersteller vor, die Software sei vor Einführung sicherer gewesen als nach der KI-Erweiterung. Die Vorwürfe konnten bislang nicht unabhängig verifiziert werden.
Das heute verantwortliche Unternehmen Integra LifeSciences**, das den ursprünglichen Entwickler übernommen hat, weist jede kausale Verbindung zwischen der KI-Technologie und den Verletzungen zurück. Die gemeldeten Vorfälle belegten lediglich, dass das System während der jeweiligen Operation im Einsatz gewesen sei – nicht, dass es die Ursache der Schäden war.
Kein Einzelfall: KI-Geräte unter Beobachtung
Der Fall steht exemplarisch für ein größeres Problem. Inzwischen sind mehr als 1.300 KI-gestützte Medizinprodukte von der FDA zugelassen – doppelt so viele wie noch vor wenigen Jahren. Darunter finden sich Herzmonitore, Ultraschallgeräte und Bildanalyse-Software.
Auch bei anderen Herstellern häufen sich Meldungen. So wurde bei KI-unterstützten Herzmonitoren von Medtronic** berichtet, dass gefährliche Herzrhythmusstörungen nicht erkannt wurden. In einem anderen Fall meldeten Anwender, eine KI-Software für pränatale Ultraschalldiagnostik habe Körperteile von Föten falsch zugeordnet. Die betroffene Technologie stammt von Samsung Medison**, einer Tochter des Samsung-Konzerns.
Zwar führten diese Vorfälle nicht immer zu nachweisbaren Patientenschäden, doch sie unterstreichen die Risiken fehleranfälliger Algorithmen in sensiblen medizinischen Anwendungen.
Rückrufe und regulatorische Überforderung
Eine Studie von Forschern mehrerer US-Eliteuniversitäten zeigt, wie schnell Probleme auftreten: Rund 60 KI-basierte Medizinprodukte waren mit insgesamt 182 Rückrufen verbunden. Fast die Hälfte davon erfolgte innerhalb eines Jahres nach Marktzulassung – eine deutlich höhere Quote als bei klassischen Medizinprodukten.
Gleichzeitig wächst der Druck auf die Aufsichtsbehörden. Interne Quellen berichten, dass spezialisierte FDA-Teams für KI-Bewertung in den vergangenen Jahren personell ausgedünnt wurden. Die Zahl der zu prüfenden Produkte steigt jedoch weiter rapide.
Ein strukturelles Problem verschärft die Lage: Anders als neue Medikamente müssen viele Medizinprodukte – auch KI-gestützte – vor der Zulassung keine klinischen Studien an Patienten durchlaufen. Häufig werden sie als Weiterentwicklung bereits zugelassener Geräte eingestuft, obwohl sich ihr Risikoprofil durch lernende Algorithmen grundlegend verändert.
Fortschritt mit Sicherheitslücke
Befürworter sehen in KI enormes Potenzial: präzisere Diagnosen, effizientere Abläufe, neue Therapieansätze. Doch die aktuellen Berichte zeigen, dass technologische Innovation schneller voranschreitet als Regulierung und Kontrollmechanismen.
Die zentrale Frage für Politik, Aufsichtsbehörden und Hersteller lautet daher nicht mehr, ob KI die Medizin verändern wird – sondern ob die bestehenden Sicherheitsnetze ausreichen, um Patienten vor den Risiken dieser Transformation zu schützen. Solange Algorithmen im OP-Saal mitentscheiden, bleibt diese Frage offen – und hochbrisant.


