Google öffnet KI-Bilderzeugung wieder für Abbildungen von Menschen
Nach einem halben Jahr Sperre ermöglicht Google erneut die Erstellung von Darstellungen von Menschen über seine KI-Software. In einem kürzlich veröffentlichten Blogeintrag kündigte der Technologieriese an, dass diese Funktion zunächst exklusiv für Abonnenten des KI-Chatbots Gemini zugänglich sein wird.
Die Software Imagen 3 von Google ist in der Lage, Bilder auf Basis von Sprachvorgaben zu erzeugen, ähnlich wie konkurrierende Programme. Im Februar wurde die Option, Menschen darzustellen, jedoch deaktiviert. Nutzer hatten zuvor festgestellt, dass die KI auch historische Bilder mit aktuellen Diversitätsrichtlinien erstellte, was zu fragwürdigen Ergebnissen führte. Unter anderem wurden Bilder von schwarzen Soldaten in Nazi-Uniformen generiert, was für erhebliche Kritik sorgte.
Google erklärte damals, es sei versäumt worden, Ausnahmen für spezielle historische Kontexte zu programmieren. Gleichzeitig verteidigte das Unternehmen die generelle Berücksichtigung von Diversität in KI-Bildern als wichtiges Gut, da Menschen weltweit die Software nutzen. In diesem speziellen Fall sei jedoch ein Fehler passiert.
In den letzten Jahren traten bei KI-Anwendungen immer wieder Probleme mit Stereotypen und Diskriminierung auf. Beispielsweise war Gesichtserkennungssoftware zunächst schlecht in der Erkennung schwarzer Personen und frühere KI-Bildgenerierungen zeigten vorwiegend weiße Menschen. Dies führte zu verstärkten Bemühungen der Entwickler, mehr Diversität zu integrieren, was aber nicht immer ohne Widerstand vonstatten ging. Besonders in den USA gibt es eine lautstarke Kritikergemeinde, zu der auch Elon Musk zählt, die behauptet, es gäbe eine Diskriminierung von Weißen in der KI-Branche.
Weiterhin wird die Google-KI sich weigern, fotorealistische Darstellungen bekannter Persönlichkeiten zu erzeugen. Konkurrenzprodukte wie Grok von Musks KI-Firma xAI erlauben dies hingegen. Besonders vor der anstehenden US-Präsidentenwahl im November besteht Sorge, dass durch KI erzeugte Falschbilder zur Beeinflussung der öffentlichen Meinung genutzt werden könnten.

