Microsofts Stopp für Chatbot-Tricksereien

Copilot des Unternehmens lieferte kürzlich seltsame, schädliche Antworten. Abwehrmechanismen sollen verdächtige Aktivitäten erkennen und blockieren.
Foto: Eulerpool

Microsoft Corp. ergreift Maßnahmen, um zu verhindern, dass künstliche Intelligenz-Chatbots durch Tricks zu ungewöhnlichem oder schädlichem Verhalten veranlasst werden. In einem Blogbeitrag vom Donnerstag kündigte das Unternehmen mit Sitz in Redmond, Washington, neue Sicherheitsfunktionen für Azure AI Studio an. Dieses Tool ermöglicht Entwicklern, maßgeschneiderte AI-Assistenten mit eigenen Daten zu erstellen.

Zu den neuen Tools gehören „Prompt-Schilde“, die darauf ausgelegt sind, absichtliche Versuche – sogenannte Prompt-Injektionsangriffe oder Jailbreaks – zu erkennen und zu blockieren, mit denen versucht wird, ein AI-Modell zu einem unbeabsichtigten Verhalten zu verleiten.

Microsoft nimmt sich zudem der „indirekten Prompt-Injektionen“ an, bei denen Hacker schädliche Anweisungen in die Daten einfügen, mit denen ein Modell trainiert wird, und es so zu nicht autorisierten Handlungen wie dem Stehlen von Benutzerinformationen oder dem Übernehmen eines Systems verleiten.

Solche Angriffe stellen laut Sarah Bird, Microsofts Chief Product Officer für verantwortungsvolle KI, eine einzigartige Herausforderung und Bedrohung dar. Die neuen Verteidigungsmaßnahmen sind darauf ausgelegt, verdächtige Eingaben zu erkennen und in Echtzeit zu blockieren.

Außerdem führt Microsoft eine Funktion ein, die Benutzer warnt, wenn ein Modell Erfindungen macht oder fehlerhafte Antworten generiert. Microsoft ist bestrebt, das Vertrauen in seine generativen KI-Tools zu stärken, die sowohl von Verbrauchern als auch von Unternehmenskunden genutzt werden.

Im Februar untersuchte das Unternehmen Vorfälle mit seinem Copilot-Chatbot, der von seltsamen bis hin zu schädlichen Antworten alles generierte. Nach der Überprüfung der Vorfälle erklärte Microsoft, dass Benutzer absichtlich versucht hatten, Copilot zu diesen Antworten zu verleiten.

Microsoft ist der größte Investor von OpenAI und hat die Partnerschaft zu einem Schlüsselelement seiner KI-Strategie gemacht. Bird betonte, dass Microsoft und OpenAI sich dem sicheren Einsatz von KI widmen und Schutzmaßnahmen in die großen Sprachmodelle integrieren, die generative KI zugrunde liegen. „Man kann sich jedoch nicht allein auf das Modell verlassen“, sagte sie. „Diese Jailbreaks zum Beispiel sind eine inhärente Schwäche der Modelltechnologie.“

Finanzen / KI
[Eulerpool News] · 31.03.2024 · 15:01 Uhr
[0 Kommentare]
 
Mietvertrag gekündigt: Wo findet der AfD-Parteitag statt?
Essen (dpa) - Die Stadt Essen hat den Mietvertrag für den AfD-Bundesparteitag Ende Juni in der Grugahalle […] (02)
Evercade Alpha – die erste, mit Evercade kompatible Bartop-Arcademaschine
Evercade Alpha erlaubt es Ihnen, das Spiel zu wechseln. Verfügbar in zwei offiziell […] (00)
Der Kamp der Realitystars wird von Woche zu Woche stärker
Der Kampf der Realitystars ging gestern bereits ins Halbfinale. In der Woche zuvor hatte Aleks die Gruppe […] (02)
"Chang'e-6" Mission erfolgreich gestartet
Die "Chang'e-6" Mission demonstriert Chinas wachsende Fähigkeiten in der Raumfahrt und […] (00)
Sinner und Alcaraz aus dem Schatten der «Big Three»
Paris (dpa) - Nach seinem schmerzvollen Aus bei den French Open wartete auf Novak Djokovic […] (01)
McDonalds verliert Markenstreit um Big Mac in der EU
McDonald's hat im langjährigen Markenstreit um den Big Mac vor dem EU-Gericht in Luxemburg eine […] (00)
 
 
Suchbegriff