Alexandra Wudel, Gründerin von „FemAI“, treibt mit ihrem Thinktank die Entwicklung und Regulierung von Künstlicher Intelligenz (KI) voran, um eine inklusive und gerechte Zukunft zu schaffen. Mit einem Fokus auf marginalisierte Gruppen arbeitet „FemAI“ daran, patriarchale Strukturen in der digitalen Welt abzubauen und KI zu einem Werkzeug sozialer und ökologischer Gerechtigkeit zu machen. Im Interview erläutert Alexandra, warum eine feministische KI so essenziell ist und wie wir sie gemeinsam realisieren können.
Alexandra Wudel: Vor eineinhalb Jahren haben wir „FemAI” gegründet, einen Thinktank, der sich kontinuierlich verändert und wächst. Unsere Mission ist es, eine inklusive und nachhaltige Zukunft zu gestalten. Wir entwickeln und regulieren KI, damit sie allen Menschen zugutekommt, besonders marginalisierten Gruppen. Wir unterstützen Personen und Organisationen bei der Entwicklung von Richtlinien und Gesetzen und arbeiten direkt mit Technologiekonzernen zusammen, um faire und effiziente KI-Tools zu gewährleisten.
Wir setzen uns dafür ein, dass patriarchale Strukturen nicht in die digitale Welt übertragen werden. Daher fördern wir Gesetze, die Menschen schützen und eine ethische KI-Entwicklung unterstützen.
Derzeit würde ich sagen, dass KI nicht feministisch ist. Feministische KI sollte soziale und ökologische Gerechtigkeit fördern, was im „EU-AI-Act“ jedoch nicht vollständig berücksichtigt wurde.
Derzeit würde ich sagen, dass KI nicht feministisch ist. Unsere Arbeit basiert auf drei Säulen: Menschen, Daten und Kontext. Es geht nicht nur darum, wie Systeme programmiert werden, sondern auch, wer sie programmiert und für welchen Zweck. Feministische KI sollte soziale und ökologische Gerechtigkeit fördern, was im „EU-AI-Act“ jedoch nicht vollständig berücksichtigt wurde. Wir arbeiten daher gerade an einem Framework mit 162 Aspekten, um KI feministischer zu gestalten.
Die drei Säulen implizieren, dass Daten allein nicht das Wichtigste sind. Es geht auch darum, mehr Frauen, mehr POC und generell mehr benachteiligte Gruppen in die Entwicklung und in KI-Entscheidungsprozesse einzubeziehen.
Am Ende wird es nicht so sein, dass wir sagen: „Das ist die perfekte feministische KI“. Es wird immer Skalen geben und Bereiche, in denen wir nicht zu 100 % abdecken können, was wir uns vorgenommen haben. Eine völlig bias-freie KI wird es also nie geben, aber es ist möglich, den Einfluss von Bias zu minimieren und gleichzeitig soziale und ökologische Gerechtigkeit zu fördern.
Angst löst keine Probleme. Ich glaube nicht, dass wir uns jetzt schon Sorgen machen müssen, weil eine neue digitale Revolution auf uns zukommt. Wir sollten zunächst zulassen, dass KI unsere Zukunft mitgestaltet, anstatt uns davor zu fürchten.
Wenn KI nicht feministischer wird, riskieren wir, bestehende Ungleichheiten zu verstärken. Viele KI-Systeme werden von einer homogenen Gruppe entwickelt, deren Interessen sie widerspiegeln. Daher ist eine breitere Beteiligung in der KI-Entwicklung notwendig, um sicherzustellen, dass alle Menschen von technologischen Fortschritten profitieren.
Angst löst keine Probleme. Ich glaube nicht, dass wir uns jetzt schon Sorgen machen müssen, weil eine neue digitale Revolution auf uns zukommt.
Entwickelt wird KI aktuell von denen, die das nötige Kleingeld haben. Es ist echt der Wahnsinn, wie viel Geld in KI investiert wird und wie sich das alles konzentriert. Wenn man sich anschaut, wie die großen Entwicklungskonzerne derzeit an der Börse bewertet werden, dann ist das schon irre.
KI wird im Moment vor allem von den Interessen dieser privilegierten Gruppen und Branchen geprägt. Diese Akteure sind meistens männlich, mittelalt und weiß. Sie haben sowohl das technische Wissen als auch die nötigen Ressourcen, um KI voranzutreiben. Dadurch entstehen Gräben zwischen denen, die Zugang zu KI haben und deren Potenziale nutzen können, und denen, die abgehängt werden könnten.
Entwickelt wird KI aktuell von denen, die das nötige Kleingeld haben. Es ist echt der Wahnsinn, wie viel Geld in KI investiert wird und wie sich das alles konzentriert.
Die Erstellung von Deep Fakes ist heutzutage unfassbar einfach geworden. Früher waren die Tools schwer zugänglich und oft teuer, was eine natürliche Hürde dargestellt hat. Jetzt sind diese Technologien viel breiter verfügbar. Ich habe es selbst getestet und war schockiert, wie realistisch das Ergebnis war. Auf meinem „Instagram“-Profil habe ich ein Beispiel gepostet, und ich dachte nur: „Oh mein Gott, das sieht so echt aus!“ Es ist erschreckend, wie weit die Technologie gekommen ist, und leider werden viele dieser Deep Fakes für negative Zwecke genutzt, wie „Deep Fake Nudes“ oder „Deep Fake Porn“, was besonders Frauen* betrifft.
Eigentlich findet man sie überall, vor allem in den sozialen Medien. Deep Fakes sind mittlerweile so gut gemacht, dass sie oft nicht mehr auffallen. Früher konnte man sie an den unnatürlichen Bewegungen oder Umrissen erkennen, aber diese Zeiten sind vorbei. Ich könnte jetzt theoretisch auch ein Deep Fake sein und am Strand auf Bali sitzen, anstatt hier zu arbeiten. Das zeigt, wie realistisch diese Technologie geworden ist. Es ist wirklich beängstigend, wie schwer es mittlerweile ist, Wahrheit von Fälschung zu unterscheiden.
Foto: Dirk Reps, Collage: Canva