Das Experiment war gründlich misslungen: Man hatte versehentlich einen Sexismus-Roboter erschaffen. So war das ganz sicher nicht geplant.
Als Amazon im Jahr 2018 eine künstliche Intelligenz entwickelte, um Bewerbungsschreiben automatisch zu bewerten, erlebte man eine böse Überraschung: Es stellte sich heraus, dass die Software Frauen ganz gezielt schlechter bewertete als Männer. Das Programm reagierte negativ auf das Wort „woman“. Wer etwa im Bewerbungsschreiben erwähnte, bei einem „women’s chess club“ mitgemacht zu haben, wurde automatisch mit Punkteabzug bestraft.
Die Erklärung für diesen peinlichen Fehler ist einfach: Ein Computer ist immer nur so intelligent wie die Daten, mit denen man ihn füttert. Die künstliche Intelligenz war mit von Menschen verfassten Bewertungen früherer Bewerbungsschreiben trainiert worden. Der Computer war programmiert worden, darin selbstständig Muster zu erkennen, Regeln abzuleiten und diese auf neue Bewerbungsschreiben anzuwenden. Allerdings lernte die Software dabei auch alle ungerechten Verhaltensmuster mit, die sich in den Daten finden ließen. Mit logischer Unerbittlichkeit spürte die Software somit auch sexistische Vorurteile auf, die in den von Menschen geschriebenen Bewertungen zu finden waren, und wandte sie selbst dann ebenfalls an.
Florian Aigner
ist Physiker, Autor und Wissenschaftspublizist. An der TU Wien bildet er als Wissenschaftsredakteur die Schnittstelle zwischen Forschung und Wissenschaftsjournalist*innen. 2021 wurde Florian Aigner der Kardinal-Innitzer-Preis verliehen.
Dieses Beispiel zeigt uns sehr deutlich, dass die Diskussion über künstliche Intelligenz oft in eine völlig falsche Richtung geht. Wir begeistern uns am wohligen Gruseln, das Science-Fiction-Geschichten über künstliche Intelligenz erzeugen: Roboter, die die Weltherrschaft an sich reißen. Künstliche Gehirne, die uns in allen geistigen Leistungen übertreffen. Todesmaschinen, die uns vollständig kontrollieren. Dabei ist die größte Gefahr derzeit nicht, dass künstliche Intelligenz sich unserer Kontrolle entzieht – sondern dass sie genau das tut, was wir ihr befehlen.
Alle dummen, hinterhältigen und bösartigen Wesenszüge des Menschen können auch einer künstlichen Intelligenz beigebracht werden. Es ist möglich, eine künstliche Intelligenz zu erzeugen, die Minderheiten unterdrückt und Nachrichten manipuliert. Oder eine künstliche Intelligenz, die Menschen erklärt, dass Impfungen gefährlich und magische Heilkristalle ganz großartig sind. Oder eine künstliche Intelligenz, die Gegner an der Farbe ihrer Uniform erkennt und sie eiskalt tötet.
In solchen Fällen sind aber nicht die neuen technologischen Möglichkeiten das Problem, die sich durch Machine Learning und AI ergeben, sondern wir selbst. Wie jedes Werkzeug, das je von Menschen entwickelt wurde, kann man auch künstliche Intelligenz auf gute und konstruktive oder auf schlechte und destruktive Weise nutzen. Noch nie haben wir dieses Problem dadurch gelöst, ein neues Werkzeug einfach abzulehnen. Das ist weder wünschenswert noch dauerhaft umsetzbar.
Wenn wir heute von „künstlicher Intelligenz“ reden, dann geht es nicht darum, Menschen nachzubauen oder gar technische Übermenschen zu erschaffen. Wir stellen keine autonomen Maschinen her, die selbstständig ihr Leben führen können. Es geht immer um Software, die für die allermeisten denkbaren Anwendungen völlig unnütz ist und bloß eine einzige, hoch entwickelte Spezialbegabung hat: Eine Gesichtserkennungssoftware hat keine Ahnung, wie man eine Bohrmaschine bedient, ein selbstfahrendes Auto weiß nicht, wie Straßen gebaut werden. Künstliche Intelligenz – zumindest in der Form, wie wir sie heute kennen – funktioniert ausschließlich in der Zusammenarbeit mit uns Menschen. Sie lebt nur in einer Symbiose mit uns. Daher sollten wir sie nicht fürchten, sondern Verantwortung für sie übernehmen.
Wenn sich Computer dumm benehmen, wurden sie auf dumme Weise programmiert. Wenn Maschinen für bösartige Zwecke eingesetzt werden, dann nur, weil Menschen das so wollten. Wir müssen wegkommen vom Gedanken an übermächtige Science-Fiction-hafte Superroboter und erkennen: Es liegt an uns. Die AI-Roboter der Zukunft werden genauso klug oder dumm, genauso nett oder gemein sein, wie wir das festlegen.
Wenn sich jede unserer Eigenschaften auf Maschinen übertragen lässt, dann haben wir genau dadurch die Chance, uns darüber klar zu werden, was uns Menschen wirklich ausmacht, welche Eigenschaften wir gut finden und an Maschinen vererben wollen und welche Unarten wir lieber nicht weitergeben. Wenn uns das gelingt, machen wir dadurch vielleicht nicht bloß bessere Maschinen – vielleicht machen uns die Maschinen dann auch zu besseren Menschen.
Text: Florian Aigner
Foto: TU Wien, Unsplash