Elisabeth Bolius

KOOPERATIVE MASCHINEN

Peter Fleissner ist ein Pionier der Informationswissenschaft und beschäftigt sich seit vielen Jahren mit intelligenten Systemen und der Schnittstelle zu Mensch und Gesellschaft. Im Interview mit tuw.media spricht er über seine erste Begegnung mit künstlicher Intelligenz, aktuelle Entwicklungen sowie über Chancen und Gefahren der Technologie. Sein Standpunkt: Der Mensch sollte stets im Mittelpunkt stehen.

Text: Silvan Mortazavi Foto: Elisabeth Bolius

Wann kamen Sie erstmals mit künstlicher Intelligenz in Kontakt?

[Peter Fleissner]: Ohne den Begriff gekannt zu ­haben, habe ich mit 13 oder 14 Jahren ein transistorisiertes Addiergerät gebaut. Das war meine erste Begegnung mit Elektronik, die auf einer übergeordneten Ebene kognitive Aktivitäten übernimmt. Man konnte über eine Wählscheibe Zahlen eingeben – das Messgerät hat dann die Summe angezeigt. Viel später hat mich dann die Frage interessiert, wie man ein System entwerfen kann, das sich qualitativ verändert, und wo der Beobachter diese Veränderung feststellen kann, wenn er sich den Prozess ansieht. Ich wollte, dass das System im Unterschied zu üblicher künstlicher Intelligenz die physikalische Ebene mit ihren Naturgesetzen einbaut. Dann hat man auf der einen Seite die physikalische Ebene und darüber gelagert die Informationsaustauschebene.

Wie sah dieser Prozess genau aus?

[P. F.]: Die Aufgabe, die ich mir ausdachte, war, dass ein blinder Avatar über eine Barriere springen soll, die sich zufällig in ihrer Länge verändert. Das ist sozu­sagen die Herausforderung der Wirklichkeit, die ja auch oft auf Zufälligkeiten beruht. Dann gab es einen zweiten Avatar, der die Barriere sehen konnte und eine Trompete hatte, über die er den ersten Avatar informieren konnte. Gewisse Tonhöhen bedeuteten eine gewisse Länge der Barriere. Das Besondere war aber, dass am Anfang alles rein zufällig war. Es gab keinen vorgegebenen Zusammenhang zwischen dem Trompetenton und der Länge der Barriere. Was es aber gab, war ein Lernprozess. Der blinde Springer empfand Schmerzen bei einem Fehlversuch. Wenn er daneben sprang, änderte sich die Wahrscheinlichkeit der Verbindung zwischen Länge der Barriere und Tonhöhe. Es war also ein lernendes System – nach vielen Hunderten Versuchen gab es keine Fehler mehr und der blinde Avatar meisterte die Aufgabe, als ob er sehen könnte. Der zentrale Punkt in diesem Beispiel war die Kooperation der beiden Avatare. Dadurch wurde der Blinde zum Sehenden.

Kam der Prozess jedes Mal zum gleichen Er­geb­nis?

[P. F.]: Wenn man das Programm resettet, also alles auf null stellt, ändert sich der Prozess tatsächlich. Das Interessante war, dass sich die Zuordnung zwischen der Länge der Barriere und der Tonhöhe ändert. Sie war bei jedem Durchlauf unterschiedlich. Das war eine neue Qualität, die man erst sieht, wenn man das Ex­periment durch­prozessiert. So kommt etwas qualitativ Neues heraus. Das Endergebnis – nämlich dass der Avatar die Barriere meistert – war aber immer das gleiche. Schon sehr simple Systeme können hier erstaunliche Leistungen erbringen, ohne eine Form von Bewusstsein oder irgendwelche Wertungen.

Auch wenn das Experiment ein simples war, ist die Funktionsweise dahinter vergleichbar mit einem viel komplexeren System, wie es beispielsweise beim autonomen Fahren eingesetzt wird, richtig?

[P. F.]: In gewisser Weise stimmt das. Es ist die Verlängerung dieses Ansatzes, aber mit ungleich mehr und viel komplexeren Variablen. Auch die Informationen zur Umgebung machen autonomes Fahren natürlich viel anspruchsvoller. Hier gibt es auch viele Engpässe und Schwierigkeiten. Wer hat etwa die Verantwortung bei einem Unfall? Ich stolpere hier ein wenig bei der Kausalität. Es ist nicht länger Faktor A, der Faktor B bedingt, sondern es gibt eine Vielzahl an Ebenen bei den Unfallursachen: Möglicherweise war die Fahrbahn nass, die Reifen zu rutschig; ist der Reifen­produzent verantwortlich, war die Bremsleistung nicht ausreichend? Hier gibt es sehr viele unterschiedliche Verantwortlichkeiten. Das ist meiner Meinung nach eines der Hauptprobleme für die Kontrolle bei auto­nomen Systemen: Wie man Ver­antwortlichkeiten zuweist.

Sehen Sie diese Probleme in allen ­Bereichen, in denen künstliche Intelligenz zum Einsatz kommt?

[P. F.]: Ein großes ­Thema ist zum Beispiel die Waf­fen­technik. AI und Accountability – wer ist wofür zu welcher Zeit verantwortlich? Das ist bisher ungelöst. KI führt zu einer neuen Form der Kriegsführung. Vor allem auch „Cognitive Warfare“ – also das Hacken des Individuums, um Schwachstellen auf geistiger Ebene aufzudecken, diese zu nutzen, zu manipulieren und den Menschen damit zur Waffe zu machen – macht mir Sorgen. Das ist in meinen Augen eine ganz schreckliche Entwicklung.

Sind hier jene im Vorteil, die bei der Implementierung neuer Systeme am wenigsten Skrupel zeigen?

[P. F.]: Das würde ich so nicht unterschreiben. Man kann es auch so sehen, dass es mit KI bei Waffen­systemen noch nicht weit her ist. Wenn man die Systeme hier optimieren lässt, kommt immer heraus, wie man effektiver zerstören kann. Leider ist die Technologie noch nicht so weit, Verhandlung oder Kooperation vorzuschlagen. Hier ist die Grenze der intelligenten Systeme im Moment erreicht, daher kann ich noch nicht wirklich an sie glauben. Für die Zukunft sind Verhandeln und Kooperieren das Wichtigste.

In welchen Bereichen wird sich durch KI am meisten verändern, auch im Hinblick auf Jobs, die vielleicht wegfallen oder neu entstehen?

[P. F.]: Das muss man für jeden Bereich speziell untersuchen. Insgesamt gilt aber sicher, dass eine Änderung der Qualifikationsstruktur, eine Verkürzung der Arbeitszeit und ein Teilen des wirtschaftlichen Ertrags wichtig sind. Dann gibt es in meinen Augen wenige Probleme. Das gilt übrigens für alle zukünf­tigen Technologien.

„Ich denke, es gibt einen Punkt, ab dem der Mensch nicht mehr ersetzbar ist“,

Peter Fleissner

Inwiefern werden uns denn in Zukunft Entscheidungen durch intelligente Systeme abgenommen? Sehen Sie hier Risiken?

[P. F.]: Ich denke, es gibt einen Punkt, ab dem der Mensch nicht mehr ersetzbar ist. Alle Gesetzlichkeiten der Natur und der Gesellschaft müssen durch den Geist des Menschen gehen und müssen von dort als Institution bestätigt werden, sonst gelten sie nicht. Hier braucht es den Menschen unbedingt; ich sehe nicht, wie uns das abgenommen werden soll. Auf einer anderen Ebene gibt es aber sicher Bei­spiele. Ich sehe etwa bei meinen Enkelkindern, dass etwas Simples wie ein Taschenrechner das Kopfrechnen unwichtiger macht und dadurch auch etwas verloren geht. Man kann also durch Technologie auch Dinge verlernen. Andererseits können durch moderne Technologien auch die Einsichten in Natur- und gesellschaftliche Prozesse wesentlich verbessert werden. Die Frage, ob ein Mensch durch einen Computer komplett ersetzt werden kann, bleibt offen.

Wie würden Sie diese Frage aus heutiger Sicht beantworten?

[P. F.]: Was hier zum Beispiel noch sehr unklar ist, ist die Frage nach dem Bewusstsein. Es ist evident, dass wir als Menschen in unseren Kindern Bewusstsein generieren können. Jetzt glaube ich zwar nicht, dass es eine prinzipielle Schranke gibt, die uns daran hindern wird, Maschinen mit Bewusstsein zu ver­sehen, wenn wir alle Prozesse wirklich im Detail erfassen können, aber da sind wir meiner Meinung nach noch weit davon entfernt, vor allem beim Unterschied zwischen Außensicht und Intro­spektion – dass man selbst weiß, wer man ist, und aus dieser Basis heraus agieren und interagieren kann. Da ist der Graben noch sehr groß.

Wie würden Sie einem Menschen, der davon noch nie gehört hat, künstliche Intelligenz beschreiben?

[P. F.]: Das ist schwierig, weil der Begriff Intelligenz schon nicht genau und einheitlich definiert wird, da ist von künstlich noch keine Rede. Ich würde es so beschreiben: Man kann auf der Ebene formalisierter Systeme bestimmte Zusammenhänge erfassen,
die dann in Maschinen eingebaut werden. Ich glaube, dass die Entwicklung der letzten 200 Jahre von Automatisierung geprägt ist. Diese Automati­sierung hat zwei Ebenen: Einerseits braucht es ein mechanisches Subs­trat, das ist die Arbeits- oder Werkzeugmaschine. Die hat einen Energieantrieb, eine Prozessierungs­vorrichtung wie etwa ein Getriebe und beispielsweise ein Werkzeug, das etwas bearbeitet. Dazu kommt die zweite Ebene, das ist die informationsverarbeitende Maschinerie, die mit der Werkzeugmaschine gekoppelt ist. Man erhält dann durch Sensoren, die auf die Maschine schauen, durch Informationsverarbeitung im engeren Sinne und durch Schalter, Monitore et cetera einen Automaten, sobald man die beiden Ebenen zusammenschaltet. Das ist das Grundprinzip. Künstliche Intelligenz ist dann ausschließlich in diesem zweiten Teil der informationsverarbeitenden Maschine zu finden, die alles andere steuern und verbessern kann. KI ist natürlich interessant, wenn sie eine teilautonome Entwicklung nehmen kann, also im Rahmen der Pro­grammierung Erweiterungen der Zusammenhänge herausfindet.

Peter Fleissner
studierte Elektronik an der TU Wien sowie Ökonomie am Institut für Höhere Studien (IHS). Er habilitierte auf dem Gebiet der Sozialkybernetik und wurde 1990 zum ordentlichen Professor für Gestaltungs- und Wirkungsforschung an der TU Wien berufen. Er befasst sich insbesondere mit dem Thema Informatik und Gesellschaft und war an über 400 Publikationen beteiligt. Seit 2006 ist Peter Fleissner im Ruhestand.

Wie kann man künstliche Intelligenz messen? Hat der Turing-Test heute noch Bedeutung?

[P. F.]: Der Turing-Test ist die grobe Abstraktion eines Tests. In dem Augenblick, in dem man sich nur auf die abstrakte Ebene begibt und beispielsweise nur innerhalb eines Chats kommuniziert, hat der Turing-Test eine Aussagekraft. Aber wenn ich mir einen neugierigen Menschen in der realen Welt vorstelle, der mit einem Kästchen konfrontiert ist, in dem künstliche Intelligenz steckt, dann würde er wohl versuchen, das Kästchen aufzumachen und hineinzublicken – ähnlich wie beim berühmten „Schachtürken“ (Maschine aus dem 18. Jahrhundert, die den Eindruck erweckte, dass sie automatisch Schach spielte, Anm.), wo man irgendwann einen Blick hineingeworfen und erkannt hat, dass ein Mensch darin sitzt. Insofern ist der Turing-Test eine künstlich abstrahierende Maßnahme.

In der Vergangenheit gab es auch kritische Stimmen zu künstlicher Intelligenz, von großen Namen wie dem Astrophysiker Stephen Hawking oder Tesla-Gründer Elon Musk: Sie bezeichneten KI als potenziell existenzielle Gefahr für den Menschen. Was sagen Sie zu diesen Stimmen?

[P. F.]: Solange die Selbsterhaltung des Systems nicht so weit geht, dass die physische Grundlage reproduziert werden kann, sehe ich diese Gefahr nicht. Bis diese Stufe nicht erreicht ist, kann immer noch der Stecker gezogen werden. Das gibt schon eine gewisse Sicherheit. Und es bleibt die Frage, ob dieses System dann wirklich die Idee hätte, den Menschen zu be­kämpfen. Vielleicht kommt es ja zu dem Schluss, besser mit ihm zu kooperieren.