Wie gefährlich sind Deepfakes für die Demokratie – und insbesondere Frauen*?

9. April 2024

Was sind Deepfakes – und was kann man dagegen tun? Ein Meinungsstück.

Deepfakes, also gefälschte Identitäten, die durch künstliche Intelligenz generiert werden, sind nicht nur politisch brisant, sondern bedrohen insbesondere Frauen* und marginalisierte Gruppen. Wie gefährlich sind Deepfakes für unsere Demokratie? In ihrem Meinungsbeitrag schreibt femtastics Autorin Sarah Kessler über die Hintergründe von Deepfakes, mögliche Lösungsansätze und politische Forderungen.

Papst Franziskus in weißer Daunenjacke – dieses Bild ging vor etwas über einem Jahr viral. Aber nein, der Papst ist nicht plötzlich unter die Models gegangen. Und Donald Trump wurde auch nicht in Handschellen abgeführt, wie dieses Bild suggeriert. So hat auch Bundeskanzler Olaf Scholz nie verkündet, dass die Bundesregierung ein Verbotsverfahren gegen die AfD beantragen werde, wie es ein vermeintlicher Scholz in einem Deepfake-Video des „Zentrums für Politische Schönheit“ tat. Das Video wurde inzwischen gerichtlich verboten.

Über 90 Prozent der Deepfakes haben pornografische Inhalte.

Was genau sind Deepfakes?

Bei all diesen Beispielen handelt es sich um Deepfakes, also Identitätsfälschungen, die durch künstliche Intelligenz (KI) erzeugt wurden. Auch wenn diese Fälle sehr prominent diskutiert wurden: Zumindest statistisch sind solche Fälschungen eher selten. Über 90 Prozent der Deepfakes haben pornografische Inhalte. Ende Januar tauchten beispielsweise gefälschte Bilder von Taylor Swift in pornografischen Posen auf, die unter anderem auf der Plattform „X“ viral gingen.

95.820 Deepfake-Videos gab es laut einer Studie des Cybersicherheitsunternehmens „Home Security Heroes“ im Jahr 2023. Das ist ein Anstieg von 550 Prozent gegenüber 2019. 98 Prozent der Videos waren pornografischer Natur und in 99 Prozent der Fälle waren Frauen* die Opfer der Deepfakes.

Kann man sich vor Deepfakes schützen?

Aber Schutz gibt es bisher wenig. Die (wenigen) derzeitigen EU-Regelungen, wie der jüngst beschlossene „EU AI Act“ und der „Digital Services Act“ (DSA), weisen hier Lücken auf. Dabei sind die Folgen gravierend: Insgesamt wurden bereits rund 57 Prozent der Frauen* weltweit Opfer von Bild- oder Videomissbrauch auf Online-Plattformen. Kein Wunder: Um ein Deepfake zu erstellen braucht es weder Geld noch Zeit, sondern nur ein einziges Portraitfoto und einen Internetzugang.

Insgesamt wurden bereits rund 57 Prozent der Frauen* weltweit Opfer von Bild- oder Videomissbrauch auf Online-Plattformen.

Zurück zum Rechtlichen: Der „Digital Services Act“ (DSA) der Europäischen Union zum Beispiel legt die Regeln nur für „sehr große Online-Plattformen“ fest – kurz: VLOPs, nach dem Englischen „Very Large Online Platforms“ -, die monatlich mehr als 45 Millionen aktive Nutzer*innen in der EU haben.  Erste Analysen deuteten darauf hin, dass einige Plattformen, insbesondere große Pornoplattformen, bei der Klassifizierung als VLOP übersehen wurden, da sie ihre Nutzerzahlen möglicherweise zu niedrig angegeben haben. NGOs und private Organisationen haben deshalb die EU dazu aufgerufen, diese Lücke dringend zu schließen. Nachdem die Europäische Kommission die Zahlen schließlich nach oben korrigiert hatte, klagten die Pornoplattformen „Pornhub“ und „Xvideos“ wegen der daraus resultierenden verschärften Regeln gegen die Berechnungen. Der Gerichtsprozess dauert an. Sein Ausgang wird entscheidend für den Schutz von Millionen Frauen* weltweit vor Gewalt sein.

Richtlinie zur Bekämpfung von Gewalt gegen Frauen*

Anfang Februar 2024 haben sich das Europäische Parlament und der Rat der EU außerdem auf eine Richtlinie zur Bekämpfung von Gewalt gegen Frauen* und häuslicher Gewalt geeinigt. Sie setzt einen EU-weiten Mindeststandard für den Schutz vor geschlechtsbezogener Gewalt und sieht unter anderem vor, die nicht einvernehmliche Verbreitung intimer Bilder, Cyberstalking, Cybermobbing und die Aufstachelung zu Gewalt oder Hass im Internet in der EU unter Strafe zu stellen.

Sowohl die (hoffentlich gerichtlich wasserdichte) Eingruppierung der Pornoplattformen als VLOPs sowie die EU-Richtlinie gegen Gewalt an Frauen* sind erste wichtige Schritte, um – vor allem Frauen* – vor digitaler Gewalt, im speziellen Deepfakes zu schützen. Doch die Maßnahmen reichen nicht aus, um ganzheitlichen Schutz zu gewährleisten. Denn bei „Google“ lassen sich auch für Laien in minutenschnelle Anleitungen und Portale zum Erstellen von Deepfakes finden. Das ist dramatisch für jede einzelne Betroffene, doch die Gefahren kulminieren sich, wenn Gefährdungspotenziale zusammenkommen. Zum Beispiel qua sexueller Orientierung – oder aber auch qua Beruf: Insbesondere für Politiker*innen können Deepfakes existenziell bedrohlich werden.

Insbesondere für Politikerinnen können Deepfakes existenziell bedrohlich werden.

Der Fall Sanna Marin

Dass für Frauen* in der Politik oft andere Maßstäbe angelegt werden als für Männer, wurde eindrücklich deutlich im Fall der ehemaligen finnischen Premierministerin Sanna Marin. Nachdem private Videos von Marin beim Tanzen mit Freund*innen sowie Fotos von ihr in ihrem offiziellen Amtssitz mit zwei Influencer*innen öffentlich wurden, geriet sie unter starken öffentlichen Druck. Obwohl offizielle Untersuchungen, wie beispielsweise ein Drogentest, negativ ausfielen und keine Verfehlungen ihrerseits festgestellt wurden, wurde Marin letztlich zum Rücktritt gedrängt. Feiern und gleichzeitig ein Land zu regieren, scheint in den Köpfen vieler Menschen nur dann akzeptabel zu sein, wenn es sich um Männer* handelt, die ihre Männlichkeit etwa in Bierfestzelten demonstrieren. Für Frauen* in Führungspositionen gelten offenbar strengere moralische Maßstäbe. Fakt ist also: Ein einziges Deepfake-Porno kann den ganzen Wahlkampf einer Politiker*in zerstören. 

Wir brauchen eine schärfere Gesetzgebung durch die EU.

Sind digitale Wasserzeichen eine Lösung?

Um der Verbreitung solcher Deepfakes entgegenzuwirken, werden in der Fachwelt auch über die bestehenden rechtlichen Handhabungen hinaus Maßnahmen diskutiert. Eine beschäftigt sich zum Beispiel mit digitalen Wasserzeichen. Dies kann helfen, KI-generierte Inhalte schneller und einfacher zu identifizieren. Computersysteme hinter sozialen Medien und anderen Online-Plattformen können nämlich unsichtbare digitale Wasserzeichen lesen und so zwischen echten und KI-generierten Inhalten unterscheiden. So könnte also eine automatische Kennzeichnung(spflicht) entstehen. Tatsächlich gibt es bereits erste Technologien, zum Beispiel „SynthID“ von „Google“, die allerdings noch experimentell arbeiten und nicht für alle Hersteller funktionieren. Und natürlich sind Wasserzeichen auch nicht gefeit vor Manipulation.

Es braucht also auch hier einen ganzheitlichen Ansatz: Wir brauchen eine schärfere Gesetzgebung durch die EU. Der EU AI Act, der DSA sowie die Gewaltschutzrichtlinie können nur als Anfang gesehen werden. Darüber hinaus müssen sich die Dienstleister der Branche selbst stärker mit den Risiken ihrer Technologien auseinandersetzen. Ein Ansatz könnten flächendeckende Wasserzeichen sein – auch wenn diese allein sicherlich nicht ausreichen werden. Wenn Deepfakes beispielsweise im Zusammenhang mit Wahlen gezielt von rechten Randgruppen als Desinformationsinstrument eingesetzt werden, ist zu bezweifeln, dass eine Wasserzeichenpflicht hier einen nennenswerten Einfluss hätte. Deshalb ist es auch wichtig, dass die EU – etwa im Rahmen eines derzeit in Planung befindlichen KI-Büros – Kompetenzen und Ressourcen für die Durchsetzung von Recht und Strafverfolgung aufbaut. Denn selbst wenn wir Gesetze zur Regulierung von KI haben, müssen diese auch flächendeckend geprüft werden.

Vor allem aber braucht es Medienkompetenz und einen gesellschaftlichen Diskurs. Denn solange Frauen* sexualisiert werden, so lange Machtdynamiken Frauen* noch immer nicht uneingeschränkt an der Spitze akzeptieren, so lange werden Deepfakes ein leichtes Spiel damit haben, sie in ihren Identitäten zu gefährden.

Text: Sarah Kessler

Bild: Adobe Stock

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert