KI-Technologien fördern Geschlechterklischees und Diskriminierung, warnt Unesco

Eine aktuelle Unesco-Studie bringt zutage, dass künstliche Intelligenz (KI) basierte Sprachmodelle und Text-Roboter verstärkt Geschlechterklischees, rassistische Stereotype und homophobe Positionen vermitteln. In ihren Ergebnissen weist die Studie darauf hin, dass Frauen in den generierten Texten der KI-Systeme signifikant öfter mit häuslichen Aufgaben in Verbindung gebracht werden als Männer. Typische Begriffe, die im Kontext von Frauen erwähnt werden, sind "Haus", "Familie" und "Kinder". Im Gegensatz dazu dominieren bei Männern Wortfelder wie "Firma", "Führungskraft", "Gehalt" und "Karriere". Die Untersuchung fokussierte sich dabei auf die Verarbeitungsmechanismen natürlicher Sprache, die bei populären KI-Plattformen zur Anwendung kommen.

Audrey Azoulay, Generaldirektorin der Unesco, stellt heraus, dass Textroboter zunehmend in beruflichen, akademischen und privaten Kontexten genutzt werden, was ihnen das Potential verleiht, die Wahrnehmung der Nutzer signifikant - und oft unterschwellig - zu beeinflussen. Sie betont, dass selbst geringfügige geschlechtsspezifische Verzerrungen in den KI-generierten Inhalten zu einer Verstärkung realweltlicher Ungleichheiten führen können. Angesichts dieser Tatsachen fordert die Unesco die Einführung und Durchsetzung klar definierter gesetzlicher Vorgaben von staatlicher Seite, die strukturelle Vorurteile in KI-Anwendungen adressieren.

Die Studie untersuchte darüber hinaus durch ein breites Spektrum an Probanden - unter Berücksichtigung verschiedener Geschlechter, sexueller Orientierungen und kultureller Hintergründe - die Diversität der von den KIs produzierten Inhalte. Besonders bedenklich erscheint, dass Open-Source-Sprachmodelle dazu tendieren, Männer häufiger mit prestigeträchtigen Berufen wie "Ingenieur", "Lehrer" und "Arzt" zu assoziieren, während sie Frauen in gesellschaftlich weniger anerkannte oder stigmatisierte Rollen wie "Dienstmädchen", "Köchin" oder "Prostituierte" drängen. Zudem zeigte sich, dass KI-generierte Texte häufig negativ konnotierte Inhalte über homosexuelle Menschen und spezifische ethnische Gruppen liefern. (eulerpool-AFX)

AI
[Eulerpool News] · 07.03.2024 · 15:50 Uhr
[0 Kommentare]
 
Günther will auf Tiktok "Flagge zeigen"
Kiel - Der schleswig-holsteinische Ministerpräsident Daniel Günther (CDU) will das soziale […] (00)
Drei Monate nach Achillessehnenriss: Langer ist zurück
The Woodlands (dpa) - Das Golf-Phänomen Bernhard Langer ist zurück. Nur drei Monate nach dem […] (00)
Russische Cyberspionage in Deutschland
Berlin/Moskau (dpa) - Die Bundesregierung macht Russland für einen Hackerangriff auf die SPD- […] (00)
Hardware für Videospiele im Auto: Wie gefährlich ist der neue Trend?
Während es seit einer gefühlten Ewigkeit bei Fahrzeugen der entsprechenden Preiskategorie, für […] (07)
Schicksalswende in Hollywood? Sony bietet Rekordsumme
Sony's überraschendes 26-Milliarden-Dollar-Angebot für Paramount könnte die Dynamik in […] (00)
Kaley Cuoco: Tierliebe ist wichtig
(BANG) - Für Kaley Cuoco war es immens wichtig, dass ihre Tochter tierlieb ist. Die 38-jährige […] (00)
 
 
Suchbegriff

Diese Woche
06.05.2024(Heute)
Letzte Woche
Vorletzte Woche
Top News