ChatGPT liegt manchmal völlig daneben: Künstliche Intelligenz verhindert Unsinn nicht immer

Schüler, Studenten, Angestellte und zahlreiche andere lassen mittlerweile schreiben statt es selbst zu tun. Sie geben Stichworte ein, etwa historische Daten und damit in Zusammenhang stehende Namen und schon füllt sich der Bildschirm mit gefälligen Sätzen. Fertig ist die Hausarbeit. Mails lassen sich genauso erstellen, auch Angebote an andere Unternehmen. Möglich macht das ChatGPT, eine Texterstellungssoftware, die mit künstlicher Intelligenz ausgestattet ist und das gesamte Internet nach den Eckdaten absucht. Die wahrscheinlichsten Kombinationen sucht sie aus und formt daraus wohlklingende Sätze. Es sieht aus, als habe ein Mensch sie verfasst. Kaum einer kann das überprüfen.

Die Frage war: Arbeitet ChatGPT rational?

Manchmal fällte es jedoch direkt ins Auge, dann nämlich, wenn ChatGPT sich völligen Unsinn zusammengereimt hat. Das haben der auf künstliche Intelligenz (KI) spezialisierte Assistenzprofessor Mayank Kejriwal und der Ingenieurstudent Zhisheng Tang von der University of Southern California in Los Angeles herausgefunden. Sie überprüften ChatGPT auf ihre Fähigkeit, rational zu arbeiten.

Die Wahl fällt auf das Wahrscheinlichste

Die Software wühlt im Internet gigantische Mengen an Informationen durch und „schaut“, ob sie zu den eingegebenen Stichworten passen. Sie liefert dann das, was statistisch gesehen am wahrscheinlichsten richtig ist. „Trotz ihrer beeindruckenden Fähigkeiten denken große Sprachmodelle nicht wirklich“, schreibt Kejriwal in einem Artikel über die Arbeit des Teams. „Sie neigen dazu, elementare Fehler zu machen und sogar Dinge zu erfinden. Da sie jedoch fließende Texte erzeugen, neigen die Menschen dazu zu glauben. dass sie denken können. „

Alles war frei erfunden

Besonders krass ist ein Fall, den die „Washington Post“ aufdeckte.Ein Anwalt in Kalifornien hatte ChatGPT gebeten, eine Liste von Rechtswissenschaftlern zu erstellen, die andere sexuell belästigt hatten. Auf der Liste erschien auch der Name des Juraprofessors Jonathan Turley. Er habe sexuell anzügliche Kommentare abgegeben und versucht, einen Schüler während einer bestimmten Klassenfahrt nach Alaska zu berühren. Alles war frei erfunden, ergab eine Nachprüfung. Die Quelle mit der Falschinformation, die sich in den Weiten des Internets befinden muss, blieb allerdings unentdeckt.

Kombi von Fakten und Unwahrheiten

„ChatGPT-Texte können eine sehr spezifische Kombination von Fakten und Unwahrheiten sein“, sagt Kate Crawford, Professorin an der University of Southern California, die selbst einmal Opfer der Texterstellungssoftware war.

Trend Nachrichten / ChatGPT
13.04.2023 · 14:30 Uhr
[0 Kommentare]
 
Deutschland als Absteiger? Lindner für «Wirtschaftswende»
Berlin (dpa) - Die FDP-Spitze hat vom Bundesparteitag der Liberalen große Unterstützung für […] (26)
Nach Disput: Eberl erwartet keinen Einfluss auf Team
München (dpa) - Der FC Bayern München will sich vom Disput zwischen Thomas Tuchel und Uli […] (02)
Review: Dreame X40 Ultra Complete im Praxistest
In einer Welt, wo man sowohl Sauberkeit als auch Komfort hoch schätzt, setzt der Dreame X40 […] (00)
TÜV Süd bestätigt: Chinesen steigern Wirkungsgrad des Dieselmotors immens
Das Verbrennerverbot wird zum Zankapfel in der EU. Eigentlich fest beschlossen, kommt nun […] (06)
Das Erste strahlt viel Fußball aus
Am Montag, den 3. Juni 2024, trifft die deutsche Nationalmannschaft unter der Leitung von Julian […] (00)
Deutschlands Wettbewerbsfähigkeit: Arbeitskosten in der Kritik
Deutschland an zweithöchster Stelle der OECD für Arbeitskosten: Ein Hindernis für das […] (00)
 
 
Suchbegriff