Unsplash

PERFEKTE MASCHINEN

Wer heutzutage von künstlicher Intelligenz (KI) liest oder hört, findet sich in der Regel in einem von zwei Extremen wieder: Ein Szenario lautet, dass wir alle cocktailschlürfend in der Hängematte liegen werden, während Maschinen alle mühsamen Arbeiten für uns er­ledigen – der moderne Garten Eden quasi. Die andere Darstellung, auch befeuert durch einen 2015 publizierten Brief, den unter anderem der mittler­weile verstorbene Astrophysiker Stephen Hawking und ­Microsoft-Gründer Bill Gates unterzeichneten, lautet: KI wird außer Kontrolle geraten und die Menschheit vernichten.

Text: Klaus Fiala Foto: Unsplash

In der Regel tut man in der heutigen Debatte gut daran, die Grauzone zwischen den schwarz­weißen Darstellungen zu suchen – so auch hier. Fakt ist, dass KI eine unglaubliche Entwicklung genommen hat und unser Leben (und auch den Wissenschaftsbetrieb) nachhaltig verändern wird: Tätigkeiten werden automatisiert, Maschinen rechnen schneller, werden klüger und übernehmen mehr Arbeiten. Und wie bei der Suche nach Nachfolger*innen nach Beförderungen im Job leben gilt es, diese bestmöglich auf die neuen Aufgaben vorzubereiten – um dann in eine Supervisor-Rolle zu gehen, ohne dabei absolute Perfektion zu erwarten.

Bei Maschinen gelingt uns das nicht. Vielmehr grenzt die Debatte manchmal an Technologiefeindlichkeit. Es mag nämlich durchaus naiv klingen, aber die Anforderungen, die wir an Maschinen stellen, haben wir Menschen nie auch nur ansatzweise erfüllt. Jeder tödliche Unfall eines selbstfahrenden Autos sorgt für endlose Schlagzeilen, während 1,3 Millionen Menschen pro Jahr weltweit bei Verkehrsunfällen sterben, die zum größten Teil auf menschliches Versagen zurückzuführen sind. Auch die Frage der Transparenz und der Explainability in Rechenvorgängen von Maschinen ist nachvollziehbar, aber schwierig. Einerseits wollen wir verstehen, wie Maschinen zu ihren Ergebnissen kommen, auf der anderen Seite können nahezu alle Menschen eine Katze auf einem Bild erkennen, 99% davon aber nicht erklären, wieso. Unser Gehirn ist selbst für Neurowissenschaftler*innen bis heute eine riesige Blackbox – das stört aber niemanden.

Selbst vermeintlich knifflige ethische Fragen, die sich im Zuge des Aufstiegs von KI stellen, sind oft weniger schwierig, als wir denken. So wird etwa diskutiert, wer für einen Fehler einer KI letztendlich verantwortlich gemacht werden soll. Die Antwort ist eigentlich logisch: der/die jeweilige Hersteller*in des Algorithmus, der Maschine oder des Roboters. Oder dieses Dilemma: Soll ein selbstfahrendes Auto im Notfall einen älteren Mann mit zwei Kindern oder eine Frau, die alleine unterwegs ist, umbringen? Obwohl unsere Gesellschaft Menschenleben nicht monetär bewertet, kann man Maschinen durchaus Regeln beibringen, wie sie in solchen Situationen zu handeln hätten; etwa: Je weniger Menschen sterben und je jünger diese sind, desto besser. Das mag zynisch klingen – aber ein Autounfall mit Todesopfern ist eben nie ein ideales Szenario.

Statt uns also in sinnlosen Debatten zu verlieren, sollten wir versuchen, die Technologie so optimal wie möglich zu gestalten. Wir sollten Chancen und Gefahren abwägen und nachdenken, welche Sicherheitsnetze wir benötigen, um den Einsatz von KI in heiklen Lebensbereichen zu ermöglichen. Und wir sollten uns bewusst sein, dass Technologien nie nur Vorteile haben. Denn egal ob Explainability, ethische Dilemmata oder menschliche Fehler: Es gibt genug, was Maschinen besser machen können als wir. Wir müssen sie – wie unsere*n Nachfolger*in im Job – nur lassen.