US-Politik zieht Tech-Giganten zur Verantwortlichkeit bei Wahl-Desinformation heran
Mit Blick auf die bevorstehenden Wahlen in den Vereinigten Staaten haben sich führende Technologieunternehmen den Fragen von US-Politikern gestellt. Diese konzentrieren sich dabei auf die Abwehr ausländischer Desinformationsversuche. Sowohl die Senatoren als auch die Unternehmensvertreter identifizierten die 48 Stunden rund um den Wahltag als besonders kritisch.
„Es steht uns ein potenziell gefährliches Moment bevor. Heute sind wir 48 Tage von der Wahl entfernt... der gefährlichste Moment wird, denke ich, 48 Stunden vor der Wahl kommen“, sagte Brad Smith, Präsident von Microsoft, vor dem US-Senat Intelligence Committee.
Ausschussvorsitzender Senator Mark Warner stimmte Smith zu, wies jedoch darauf hin, dass die 48 Stunden nach Schließung der Wahllokale am 5. November „ebenso, wenn nicht noch bedeutender“ seien könnten, insbesondere wenn das Wahlergebnis knapp ausfällt.
Ebenso nahmen Führungskräfte von Google und Meta – dem Mutterkonzern von Facebook, Instagram und WhatsApp – an der Anhörung teil. Elon Musks X hingegen lehnte die Teilnahme ab, da ihr durch den ehemaligen Leiter der globalen Angelegenheiten Nick Pickles geladener Vertreter kürzlich zurückgetreten war. TikTok, so ein Unternehmenssprecher, sei nicht eingeladen worden.
Smith verwies auf ein Beispiel aus der slowakischen Wahl 2023, bei dem eine gefälschte Tonaufnahme eines Parteiführers, die über Wahlmanipulation sprach, kurz vor der Wahl online verbreitet wurde. Diese Aufnahme stellte sich später als Fälschung heraus. Warner und andere Senatoren wiesen auch auf Taktiken hin, die im Rahmen einer kürzlichen US-Aktion gegen angebliche russische Einflussversuche aufgedeckt wurden. Diese beinhalteten gefälschte Webseiten, die realen US-Nachrichtenorganisationen wie Fox News und der Washington Post ähnelten.
„Wie kommt das durch? Wie wissen wir, wie umfassend das ist?“ fragte Warner die Unternehmensvertreter. Er forderte, dass die Firmen bis zur nächsten Woche Daten zur Verfügung stellen, aus denen hervorgeht, wie viele Amerikaner den Inhalt gesehen und wie viele Werbeanzeigen ihn beworben haben.
Technologieunternehmen nutzen größtenteils Kennzeichnungen und Wasserzeichen, um Risiken durch neue generative Künstliche Intelligenz-Technologien zu begegnen. Diese Technologien machen es einfach, gefälschte, aber realistisch wirkende Bilder, Audio und Videos zu produzieren, wodurch Bedenken über ihre Auswirkungen auf Wahlen entstehen.
Gefragt, wie die Unternehmen reagieren würden, wenn ein solcher Deepfake eines politischen Kandidaten unmittelbar vor den Wahlen auftauchen würde, sagten Smith und Metas Präsident für globale Angelegenheiten Nick Clegg, dass ihre Unternehmen entsprechende Inhalte kennzeichnen würden. Clegg ergänzte, dass Meta die Verbreitung solcher Inhalte ebenfalls potenziell einschränken würde.