Neue EU-Transparenzregeln für KI-Modelle treten in Kraft
Der Einsatz von KI-Modellen erlebt heute eine bedeutende Zäsur: Mit dem Inkrafttreten neuer EU-Regelungen müssen Anbieter von allgemeine Verwendungszwecke erfüllenden KI-Systemen, wie ChatGPT und Gemini, erhöhte Transparenz an den Tag legen. Diese Systeme, die eine breite Palette an Funktionen wie Textgenerierung, Sprachanalyse oder Programmierung abdecken, unterliegen spezifischen Offenlegungsverpflichtungen hinsichtlich ihrer Funktionsweise und den genutzten Trainingsdaten.
Vor allem für leistungsfähige Modelle, die potenziell Risiken für die Gesellschaft bergen könnten, sieht die EU eine Protokollpflicht von Sicherheitsvorkehrungen vor. Diese Maßnahme steht im Einklang mit dem im Mai 2024 verabschiedeten EU-KI-Gesetz, das besonders auf die Stärkung des Urheberrechts fokussiert ist. Entwickler sind nun gehalten, die Quellen ihrer Trainingsdaten offen zu legen und darzulegen, welche Maßnahmen zum Schutz geistigen Eigentums ergriffen wurden. Eine Kontaktstelle für Rechteinhaber bei den Unternehmen selbst soll zudem für mehr Klarheit sorgen.
Trotz dieser Vorhaben gibt es Kritik: Verbände von Autoren, Künstlern und Verlegern monieren, dass der Schutz geistigen Eigentums weiterhin unzureichend sei. Die Initiative Urheberrecht kritisiert insbesondere das Fehlen einer detaillierten Offenlegungspflicht bezüglich der genutzten Datenquellen.
In der Durchsetzung wartet noch eine Herausforderung: Das Europäische Amt für Künstliche Intelligenz beginnt seine Kontrolle über neue Modelle erst ab August 2026, während KI-Modelle, die vor dem 2. August 2025 erschienen sind, erst ab 2027 einer Überprüfung unterzogen werden. Unternehmen, die gegen die Vorschriften verstoßen, drohen empfindliche Geldstrafen, die bis zu 15 Millionen Euro oder drei Prozent des weltweiten Jahresumsatzes betragen können. Besonders bei Google herrscht Besorgnis angesichts der potenziellen finanziellen Auswirkungen dieser Regelungen.

