Pegah Maham: Müssen wir Angst vor KI haben?

Von: 
12. April 2023

Künstliche Intelligenz (kurz: KI) ist gerade in aller Munde. Textprogramme wie „ChatGPT“ und Bildgeneratoren wie „DALL-E“ oder „Midjourney“ werden in Medien, Öffentlichkeit und Politik heiß diskutiert. Mit ihnen lassen sich Texte und Bilder ganz einfach von KI kreieren. Die Reaktionen reichen von Begeisterung darüber, wie KI unsere Arbeit erleichtert, über Sorgen, dass sie unsere Jobs übernehmen und uns arbeitslos machen wird, bis zu Ängsten vor einer “Super-KI”, die unsere menschliche Intelligenz übertrifft und zum Ende der Menschheit führen wird. Vielen geht die aktuelle rasante Entwicklung zu schnell. Muss KI gebremst werden? Oder schnell in politische und juristische Rahmen gelenkt werden? Wie wird unser Leben mit KI aussehen?

Darüber sprechen wir in der neuen Episode von “femtastics Deep Dive” mit KI-Expertin und Data Scientist Pegah Maham. Sie beschäftigt sich seit Jahren beruflich mit KI und forscht zu diesem Thema. Als Projektleiterin für den Bereich “Künstliche Intelligenz & Data Science” bei der “Stiftung Neue Verantwortung” befasst sie sich insbesondere mit den gesellschaftlichen Folgen von KI.

femtastics: Wo liegt deiner Meinung nach aktuell der größte Nutzen von KI für die Arbeitswelt?

Pegah Maham: Die aktuellen Systeme leiden noch darunter, dass sie halluzinieren und auch nicht robust und vertrauenswürdig sind. Das heißt, wenn man Fragen stellt, werden sich manchmal einfach falsche Quellen ausgedacht und falsche Antworten gegeben. Aktuell sehe ich die Stärken dieses Systems überall, wo Vorschläge gemacht werden oder Ideen geliefert werden sollen, denn da ist es nicht so schlimm, wenn mal Fehler passieren. Wenn ich mit Menschen arbeite, ist das genauso, da können auch falsche Sachen kommen. Da sollte nochmal ein Mensch drüber schauen, recherchieren, kritisch nachdenken und prüfen. Anders gesagt: KI kann als Assistenz, ganz unterschiedlich, genutzt werden. Ich kann mir auch vorstellen, dass sie bald in der Medizin, im Rechtswesen, in der Bildung oder beim Programmieren eingesetzt wird.

Sollte KI gebremst werden? In einem offenen Brief vom 29. März fordern Wissenschaftler*innen, dass das Training von besonders leistungsfähigen KI-Modellen für sechs Monate pausiert werden sollte. Wie bewertest du das?

Der Brief beinhaltet zwei Aspekte. Erstens sagt er: Achtung, hier gibt es ein Risiko, das sich in einer Dimension abspielt, die wir vorher nicht auf dem Schirm hatten und die wir jetzt sehr ernst nehmen sollten. Zweitens stellt der Brief eine Forderung. Ich glaube, man sollte den ersten Aspekt sehr ernst nehmen. Die Zahl der Wissenschaftler*innen aus aller Welt, die den Brief unterschrieben haben, ist stetig weiter angewachsen. Im Grunde baut ihre Sorge auf zwei Argumenten auf. Das Erste: Diese KI-Systeme können so mächtig werden. Die Frage ist ja oft: Was kann KI noch nicht? Und das Zweite: Wenn diese Systeme so mächtig sind, was passiert dann, wenn wir sie nicht unter Kontrolle bekommen? Und da sind sich aktuell alle Expert*innen einig, dass diese intransparenten Black-Box-Modelle nicht unter Kontrolle zu kriegen sind.


Was dieser Brief auch sagt: Man sollte jetzt nicht mit dieser Geschwindigkeit weiter voranrasen, gegeben dieser Argumente. Das kann ich unterstützen. Die Frage bleibt: Ist es realistisch und ist es eine nachhaltige Forderung, das Training für sechs Monate zu pausieren? Also ich denke, nachhaltiger wäre es, Gesetze, demokratische Kontrolle, Aufsichtsbehörden und Regulierungen zu schaffen, die dafür sorgen, dass man auch nach den sechs Monaten weiter sicher mit KI fährt.

Nachhaltiger als eine Trainingspause für KI wäre es, Gesetze, demokratische Kontrolle, Aufsichtsbehörden und Regulierungen zu schaffen, die dafür sorgen, dass man auch nach den sechs Monaten weiter sicher mit KI fährt.

Die Sorgen rund um KI reichen davon, dass Fake News weiterverbreitet werden – zum Beispiel durch von KI erzeugte Fotos oder Deep Fakes – bis zur Angst, dass wir eine hyperintelligente KI erschaffen, die intelligenter ist als wir Menschen und die zum Ende der Menschheit führt. Wie bewertest du diese Sorgen?

Es ist eine große Bandbreite an Risiken. Das eine ist die Tatsache, dass KI unkontrollierbar ist. Das andere ist die Missbrauchsgefahr. Da gibt es eine Vielzahl von Problemen, von Hacking und Kriminellen, die KI nutzen, bis zum Risiko, wenn das Ganze in die Hände von autokratischen Regimen kommt. Dann können diese KI-Systeme verwendet werden, um die eigene Bevölkerung auf ganz neuem Niveau zu überwachen und zu unterdrücken. Allein bei diesen beiden Punkten braucht es so viel Diskussion und gute Überlegung, wie man damit umgeht.

Dazu kommt die Machtzentralisierung. Wenn es einige wenige Akteure sind, die diese KI-Modelle bauen, die ihre Werte integrieren, bekommen sie wirtschaftlich so viel Macht. Auch wieder ein Riesenthema für sich. Und dann das, was noch weniger konkret ist, nämlich die Frage: Was passiert, wenn da ein System ist, das schlauer ist als wir, wie könnte das zu Problemen führen? Schon jetzt gibt es erste Anzeichen oder Beispiele dafür, dass Menschen von KI hinters Licht geführt werden könnten. Es sind so viele verschiedene Probleme. Ich habe noch nicht mal alle angesprochen.

Lässt sich diese Entwicklung überhaupt noch aufhalten?

Ja. Wir sollten da nicht fatalistisch werden. Die Menschheit hat es ja öfters geschafft, bei Forschung, die so riskant ist, sie entweder zu kontrollieren, zu demokratisieren oder ganz zu verbieten. Es gibt zum Beispiel in der Genforschung Sachen, bei denen man sich darauf geeinigt hat, dass man sie nicht macht. Also wieso sollten wir hier die Hoffnung aufgeben und diese wenigen Unternehmen in den USA und England davonrasen lassen?

Wofür würdest du plädieren?

Dafür, ein Vorsorgeprinzip walten zu lassen – im Gegensatz zu der aktuellen Dynamik, in der diese verschiedenen Unternehmen jeweils die ersten sein wollen. Es geht ja nicht nur um das Verlangsamen von KI-Entwicklung. Es geht auch darum, dass Risikomanagement umgesetzt wird, dass es Gesetze gibt – und daran wird ja bereits gearbeitet. Die EU ist ja gerade dabei, genau das zu diskutieren. Und ja, vielleicht muss man da Gesetze auch schneller verabschieden, als es normalerweise der Fall ist, weil die Entwicklung eben zu schnell ist.

Es ist schon bedeutsam, wenn Menschen damit konfrontiert werden, dass KI-Systeme ihre Arbeit eigentlich genauso gut machen können wie die Menschen oder vielleicht sogar besser.

Wie sieht es ganz konkret mit der Sorge aus, dass KI unsere Jobs übernehmen und viele Menschen arbeitslos machen wird?

Ich denke, es ist schon bedeutsam, wenn Menschen damit konfrontiert werden, dass ihr Skill, ihre Fähigkeiten, für die sie studiert oder Ausbildungen gemacht haben, bei denen sie denken, dass diese sie in gewisser Weise auch ausmachen – mein Job, meine Identität – wenn sie auf einmal miterleben, dass diese KI-Systeme die Arbeit eigentlich genauso gut machen können wie die Menschen oder vielleicht sogar besser.

Und das habe ich auch schon erlebt. Zum Beispiel bei Menschen, die schreiben oder Texte editieren, die jetzt sagen: „Okay, mein Job ist in zwei Jahren eigentlich weg!“. Als Gesellschaft müssen wir uns gut überlegen, wie gehen wir damit um? Die KIs machen aktuell noch Fehler. Menschen machen auch Fehler. Sollten Menschen die Arbeit der KI weiterhin beaufsichtigen und kontrollieren? Aber was passiert an dem Punkt, wenn die KI nur noch selten Fehler macht – und vielleicht sogar viel weniger Fehler als Menschen machen, in einigen Bereichen? Was passiert dann? Da muss man sich als Gesellschaft vielleicht auch überlegen, wenn das jetzt sehr schnell gehen kann, dass ganze Berufsgruppen auf einmal obsolet werden und es nicht die Möglichkeit gibt, dass die Menschen sich anderweitig umorientieren, dass man auch anfängt, über soziale Absicherungssysteme nachzudenken oder über eine andere Art von Bildung, bei der man schnell umschulen kann oder lernt, mit der KI zu arbeiten.

Ich glaube, die nächsten Jahre werden viel so aussehen, dass man eher mit der KI seine eigene Produktivität steigern können wird, als dass man von ihr ersetzt wird. Aber langfristig ja, kann das schon passieren.

Das ganze Interview mit Pegah Maham hört ihr in unserer Podcast-Episode!

Jetzt auf „Spotify“ hören!

Jetzt auf „Apple Podcasts“ hören!


Wir freuen uns, wenn ihr „femtastics Deep Dive“ weiterempfehlt, unseren Podcast abonniert und eine Bewertung auf der Podcast-Plattform eurer Wahl hinterlasst. Und wenn ihr Themenideen, Fragen oder Anregungen habt, könnt ihr uns gern eine Mail schicken an podcast@femtastics.com.



Teaserfoto: Adobe Stock; Portraitfoto: Pegah Maham privat

Schreibe einen Kommentar

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert