Schärfere EU-Regeln für KI-Modelle: Transparenz und Schutz des geistigen Eigentums im Fokus
Ab morgen tritt eine Reihe neuer EU-Vorschriften in Kraft, die Anbieter von KI-Modellen mit allgemeinem Verwendungszweck, darunter ChatGPT und Gemini, dazu verpflichten, umfangreiche Transparenzmaßnahmen umzusetzen. Die Betreiber müssen detaillierte Informationen darüber bereitstellen, wie ihre Technologien funktionieren und welche Datenquellen beim Training der Modelle verwendet wurden.
Besonders leistungsfähige Modelle, die potenziell riskant für die Gesellschaft sein könnten, sind zusätzlich angehalten, Sicherheitsvorkehrungen zu dokumentieren. Diese Maßnahmen basieren auf dem im Mai 2024 verabschiedeten EU-KI-Gesetz ("AI Act"). Ein elementarer Bestandteil der neuen Regeln zielt darauf ab, das Urheberrecht zu stärken.
Entwickler sind gefordert, die Quellen offenzulegen, die sie zur Datensammlung genutzt haben, und zu erklären, wie sie Urheberrechte zu wahren gedenken. Die EU-Pläne sehen vor, dass Rechteinhabern eine Kontaktstelle zur Verfügung stehen muss. Dennoch zeigen sich nationale und internationale Verbände, bestehend aus Autoren, Künstlern und Verlegern, unzufrieden.
Sie bemängeln, dass der Schutz geistigen Eigentums unzureichend sei, da es keine Verpflichtung gebe, spezifische Datensätze oder Domains zu benennen. Strafen von bis zu 15 Millionen Euro oder drei Prozent des globalen Jahresumsatzes drohen Anbietern, die gegen die Bestimmungen verstoßen.
Die Zuständigkeit liegt beim neu geschaffenen Europäischen Amt für Künstliche Intelligenz, das seine Kontrollen ab August 2026 beginnt. Ältere Modelle, die vor dem 2. August 2025 auf den Markt kamen, folgen ein Jahr später.
Um den Übergang zu erleichtern, hat die EU-Kommission rechtliche Leitlinien und einen freiwilligen Verhaltenskodex eingeführt. Google, das Unternehmen hinter Gemini, hat angekündigt, den Kodex zu unterzeichnen, äußerte jedoch Bedenken, dass die neuen Regelungen die Innovationskraft dämpfen könten.

