Microsofts Stopp für Chatbot-Tricksereien

Copilot des Unternehmens lieferte kürzlich seltsame, schädliche Antworten. Abwehrmechanismen sollen verdächtige Aktivitäten erkennen und blockieren.
Foto: Eulerpool

Microsoft Corp. ergreift Maßnahmen, um zu verhindern, dass künstliche Intelligenz-Chatbots durch Tricks zu ungewöhnlichem oder schädlichem Verhalten veranlasst werden. In einem Blogbeitrag vom Donnerstag kündigte das Unternehmen mit Sitz in Redmond, Washington, neue Sicherheitsfunktionen für Azure AI Studio an. Dieses Tool ermöglicht Entwicklern, maßgeschneiderte AI-Assistenten mit eigenen Daten zu erstellen.

Zu den neuen Tools gehören „Prompt-Schilde“, die darauf ausgelegt sind, absichtliche Versuche – sogenannte Prompt-Injektionsangriffe oder Jailbreaks – zu erkennen und zu blockieren, mit denen versucht wird, ein AI-Modell zu einem unbeabsichtigten Verhalten zu verleiten.

Microsoft nimmt sich zudem der „indirekten Prompt-Injektionen“ an, bei denen Hacker schädliche Anweisungen in die Daten einfügen, mit denen ein Modell trainiert wird, und es so zu nicht autorisierten Handlungen wie dem Stehlen von Benutzerinformationen oder dem Übernehmen eines Systems verleiten.

Solche Angriffe stellen laut Sarah Bird, Microsofts Chief Product Officer für verantwortungsvolle KI, eine einzigartige Herausforderung und Bedrohung dar. Die neuen Verteidigungsmaßnahmen sind darauf ausgelegt, verdächtige Eingaben zu erkennen und in Echtzeit zu blockieren.

Außerdem führt Microsoft eine Funktion ein, die Benutzer warnt, wenn ein Modell Erfindungen macht oder fehlerhafte Antworten generiert. Microsoft ist bestrebt, das Vertrauen in seine generativen KI-Tools zu stärken, die sowohl von Verbrauchern als auch von Unternehmenskunden genutzt werden.

Im Februar untersuchte das Unternehmen Vorfälle mit seinem Copilot-Chatbot, der von seltsamen bis hin zu schädlichen Antworten alles generierte. Nach der Überprüfung der Vorfälle erklärte Microsoft, dass Benutzer absichtlich versucht hatten, Copilot zu diesen Antworten zu verleiten.

Microsoft ist der größte Investor von OpenAI und hat die Partnerschaft zu einem Schlüsselelement seiner KI-Strategie gemacht. Bird betonte, dass Microsoft und OpenAI sich dem sicheren Einsatz von KI widmen und Schutzmaßnahmen in die großen Sprachmodelle integrieren, die generative KI zugrunde liegen. „Man kann sich jedoch nicht allein auf das Modell verlassen“, sagte sie. „Diese Jailbreaks zum Beispiel sind eine inhärente Schwäche der Modelltechnologie.“

Finanzen / KI
[Eulerpool News] · 31.03.2024 · 15:01 Uhr
[0 Kommentare]
 
Putin tauscht Verteidigungsminister Schoigu aus
Moskau - Russlands Präsident Wladimir Putin will offenbar seinen bisherigen […] (00)
«Der Winzerkönig» kehrt zurück
Der Sportsommer hat neben der Fußball-Europameisterschaft, der Tour de France und den Olympischen Spielen […] (00)
Review – Tales of Kenzera: Zau – Ein neues Metroidvania stellt sich unserem Test
Nachdem die Konkurrenz von Ubisoft mit Prince of Persia The Lost Crown ziemlich erfolgreich […] (00)
König Charles: Unterkunft für Prinz Harry
(BANG) - König Charles soll Prinz Harry eine Unterkunft für seinen Englandaufenthalt angeboten […] (00)
Protest gegen Tesla dürfte nach Aktionswoche weitergehen
Grünheide (dpa) - Der Protest gegen den US-Elektroautobauer Tesla geht nach mehreren […] (01)
Studie: Künstliche Intelligenz kann lügen und betrügen
Cambridge (dpa) - Sie lügen und betrügen, um ans Ziel zu kommen: Systeme mit Künstlicher […] (00)
 
 
Suchbegriff

Diese Woche
13.05.2024(Heute)
Letzte Woche
Vorletzte Woche
Top News