Science-Fiction schafft Welten, die so nah an unserer sind, dass wir uns damit identifizieren können. Dadurch scheinen sie uns unheimlich. Sie regen uns aber auch zur Reflexion an: Welche Realität erscheint uns wünschenswert? Was ist für uns dystopisch? Wie würden wir uns in einem Szenario wie dem beschriebenen (aus der britischen Serie „Black Mirror“) verhalten? Halten wir es für möglich, dass das Gelesene/Gesehene demnächst unsere Realität ist – oder ist es völlig undenkbar?
Was in der Vergangenheit als Science-Fiction galt, ist heute teilweise Realität: Vor exakt 80 Jahren hat etwa der Science-Fiction-Autor Isaac Asimov seine Robotergesetze formuliert. Demnach sollte ein Roboter Menschen keinen Schaden zufügen, den Befehlen von Menschen gehorchen und seine eigene Existenz schützen – aber stets nur, wenn dadurch keine Menschen geschädigt werden. Aus (forschungs)ethischer Sicht sind diese Robotergesetze hochaktuell, denken wir nur an autonome Fahrzeuge, Pflegeroboter oder den Einsatz von künstlicher Intelligenz. Die oberste Maxime und gleichzeitig die Mindestanforderung muss aus unserer Sicht stets sein: Menschen und der Menschheit im Allgemeinen keinen Schaden zuzufügen.
Kommen wir auf das anfangs erwähnte Beispiel zurück: In diesem Szenario kann man den eigenen Wert unter anderem steigern, indem man anderen Menschen hilft. Hier landen wir sofort bei der moralphilosophischen Frage, ob wir die Absicht hinter einer Handlung oder deren Konsequenz beurteilen. Denn wie bewerten wir Hilfeleistungen, wenn Menschen sie nur machen, um zu einem besseren Score zu kommen, sie diese Möglichkeit also instrumentalisieren? Handelt es sich dann wirklich noch um genuin altruistische Sorge für andere – oder um ein schnelles Abhaken erwünschter Verhaltensweisen? Wir sehen somit auch, dass Technik nicht „einfach nur Technik“ ist, sondern Menschen mit Technik interagieren, vielleicht ihr Verhalten verändern, sich der Technik anpassen – oder das jeweilige Produkt anders verwenden, als es eigentlich vorgesehen war.
Science-Fiction kann deshalb auch hervorragend in der Lehre verwendet werden und uns dazu anregen, gemäß dem TUW-Leitbild „Technik für Menschen“ zu reflektieren: Welche Verantwortung haben wir, wenn wir neue Technologien erforschen und entwickeln? Welche Welt wollen wir als Forscher*innen entwerfen? Welche Aspekte haben wir in Forschung und Entwicklung bislang noch nicht ausreichend berücksichtigt? Im nun startenden Masterstudium Automatisierung und robotische Systeme werden wir Fragen wie diese diskutieren – und auch, inwiefern wir Asimovs Robotergesetze anwenden können.
Oft spielt Science-Fiction auch im Weltall. Die Serie „For All Mankind“ entwirft beispielsweise eine Alternativwelt, in der nicht die USA, sondern die Sowjetunion das Rennen um die erste Mondlandung gewinnt. Auch diese Serie stellt relevante ethische Fragen: Wem gehört der Weltraum? Können wir unser herkömmliches Verständnis von Eigentum auf den Weltraum anwenden? Was bedeutet das für die Ressourcen, die wir dort vorfinden? Und wie immer: Wie wollen oder sollen wir miteinander umgehen? Auch hier ist Science-Fiction gleichzeitig schon Gegenwart: Während wir diese Zeilen schreiben, probieren die USA, Artemis 1 auf den Mond zu schicken, und China hat ein neues Mineral auf dem Mond entdeckt …
Marjo Rauhala und Bettina Enzenhofer sind an der TU Wien tätig – Rauhala ist für die Koordination der Forschungsethik zuständig, Enzenhofer ist Mitarbeiterin in dieser Abteilung.
Text: Marjo Rauhala und Bettina Enzenhofer