Kristian Jones

DIE ZUKUNFT DER WISSENSCHAFT

Chatbots, Echtzeit-Übersetzungen, Gesichts- und Spracherkennungs­systeme oder autonome Autos – künstliche Intelligenz verändert unser Leben. Doch wie helfen KI-Rahmenkonzepte bei unserem Bestreben, die Welt um uns herum und uns selbst besser zu verstehen? Wie wird die KI-Technologie Forschungsmethoden voranbringen und die wissenschaftliche Tradition verändern?

Text: Ekin Deniz Dere Foto: Kristian Jones

Im Gegensatz zu Kunst und Philo­sophie entwickelt sich die Wissenschaft kumula­tiv. Wissenschaftler*innen gelangen zu Entdeckungen, indem sie auf den Schultern von Gigant*innen stehen – also auf das gesamte Wissen aufbauen, das bereits vor ihnen generiert wurde: Johannes Keplers ­Analyse der astro­nomischen Messungen im frühen 17. Jahrhundert führte ihn zur Formu­lierung der Gesetze der Planeten­bewegung; Isaac Newton formte, aufbauend auf Kepler, das Gesetz der universellen Gravitation. Ronald Fisher entwickelte in den frühen 1900er-Jahren die Theorie der Versuchsplanung. Er legte den Grundstein für viele grundlegende statistische Methoden, die noch heute verwendet werden. „Wissenschaft funktioniert in vielen inkrementellen Schritten“, sagt Andreas Ipp, Assistenz­professor am Institut für Theoretische Physik an der Technischen Universität Wien (TUW). „Hinter jedem bahn­brechenden Ergebnis, das wir in den Medien sehen, steckt eine riesige Menge wissenschaftlicher Arbeit, die versucht, jedes Mal einen Schritt weiterzugehen.“

Vor nicht allzu langer Zeit ist es uns gelungen, eine Technologie zu schaffen, die diese inkrementellen Schritte effizienter und schneller macht: künstliche Intelligenz und die Schlüssel­komponente der (tiefen) neuronalen Netze. Nach dem Vorbild des menschlichen Gehirns bestehen diese Netze aus vielen Schichten von Neuronen, die lernfähig sind. Sie werden mit der Zeit intelligenter, wenn sie mit mehr Daten gefüttert werden.

Diese Daten sind in der Wissenschaft zur Genüge vorhanden, denn in der wissen­schaftlichen Methode geht es darum, Muster aus empirischen Daten zu extrahieren und sie im Hinblick auf Theo­rien und Hypothesen zu analy­sieren. Forschungszentren erzeugen daher extreme ­Datenmengen, die sich nur äußerst schwer speichern lassen. Allein das Datenzentrum des CERN (Euro­päische Organisation für Kernforschung) verarbeitet täglich durchschnittlich eine Million Giga­byte an Daten. Ein Großteil dieser ge­sammelten Daten muss gelöscht werden, nachdem sie auf Muster untersucht wurden. KI-basierte Algorithmen könnten solch riesige Datensätze analy­sieren und entscheiden, welche davon zu behalten und welche zu löschen sind. Dies würde den Forscher*innen Zeit sparen, was wiederum das Tempo der wissenschaftlichen Entdeckung beschleunigen könnte.

Doch effiziente Datenanalyse ist nicht die einzige Facette der KI, wenn sie doch die auffälligste ist. Solche ­Technologien werden in fast allen wissenschaftlichen Disziplinen für die Model­lierung und Vorhersage eingesetzt – sei es Chemie, Medizin, Biologie, Physik, Genetik oder Astronomie. Ein gutes Beispiel ist das Programm Alpha­fold von Google Deepmind, das darauf abzielt, die Struktur von Prote­inen mithilfe eines Deep-Learning-Systems vorherzu­sagen. Proteine sind für das Leben unerlässlich; das Verständnis ihrer Form öffnet die Tür zum Verständnis ihrer Funktion. Durch die ­Vorhersage von Formen können Forscher*­innen Proteine identifizieren, die bei bestimmten Krankheiten eine Rolle spielen. Sie können die Genauigkeit der Diagnose verbessern und neue Behandlungen entwickeln. Die Forscher*innen investieren daher enorme Anstrengungen in die Untersuchung von Proteinen und konnten so bereits 100.000 einzig­artige Strukturen bestimmen. Angesichts der Milliarden von unbekannten Proteinsequenzen ist diese Zahl jedoch nicht wirklich signifikant. Das Problem: Würden Forscher*innen versuchen, alle möglichen Konfigurationen eines Proteins nach dem Zufallsprinzip zu berechnen, bräuchten sie länger als das Universum alt ist, bevor sie die richtige Struktur finden würden (das sogenannte Levinthal-Paradox). An dieser Stelle kommt Deep Learning ins Spiel: Das Team hinter Alphafold versucht nämlich, Zielformen zu modellieren, ohne dabei Vorlagen aus bereits gelösten Proteinstruk­turen zu verwenden. Die Methode stützt sich auf tiefe neuronale Netze, die darauf trainiert werden, neue Fragmente zu erfinden. Diese Fragmente werden dann verwendet, um die Genauigkeit einer vorgeschlagenen Protein­struktur zu verbessern. Mit dieser Methode lassen sich Proteinstrukturen mit hoher Genauigkeit vorhersagen. Der potenzielle Nutzen reicht von der Gesundheit bis zum Umweltschutz. Wissen­schaftler*innen versuchen bereits, Bakterien zu entwickeln, die bestimmte Proteine absondern, um uns beim Abbau von Abfällen zu helfen.

Fortschritte bei der Rechen­leis­tung und die radikale Zu­nahme der verfügbaren Daten führen dazu, dass die KI auch in Simulations­methoden eingesetzt wird. Ein Beispiel kommt aus der Teilchenphysik, in der sich Forscher*innen für die Frage „Woraus besteht alles?“ interessieren. „Wir versuchen, die Bausteine von allem, was uns umgibt, zu verstehen. Sie entstehen aus den verschiedenen Anordnungen von Protonen, Neutronen, Elektronen et cetera“, sagt Ipp. Bei Experimenten an Teilchen-Collidern müssen die Forscher*innen mit riesigen Datenmengen umgehen und verwenden daher Techniken des maschinellen Lernens, um relevante Informationen effizient zu ­extrahieren. Ein anderer Ansatz ist die Simulation: „Wir versuchen, all die Dinge zu simulieren, die in Teilchen-Collidern passieren. Wir erzeugen ein sogenanntes Quark-Gluon-Plasma, das einen neuen Zustand der Materie darstellt und uns mehr über die starke Kraft (eine der vier Grundkräfte der Physik, Anm.) lehren kann“, so Ipp. Gemeinsam mit seinem Team versucht der TUW-Forscher, eine Simulation zu erstellen, um die sehr frühe Phase einer Kollision von zwei schweren Ionen zu unter­suchen. Die Simulationen verwenden eine Formel, die aus der Quantenchromo­dynamik (Theorie der starken Kernkraft) stammt. Das Problem dabei ist, dass Lösungen für maschinelles Lernen sehr schlecht mit der Größe skalieren. Mit zunehmender Größe der Eingaben steigt der Rechenaufwand drastisch an. Selbst ein Supercomputer erlaubt es den Forscher*innen nur, kleine Teile der Kollision zu betrachten. „Wir haben einige Schätzungen angestellt und es hat sich gezeigt, dass wir Hunderte von Jahren rechnen müssten, um die be­nötigten Simulationen durchzuführen“, sagt Ipp. Doch das Ganze hat auch etwas Positives, denn maschinelles Lernen ist gut darin, Abkürzungen zu finden. Anstatt alle notwendigen Berechnungen durchzuführen, lernt der Computer das Verhältnis zwischen dem, was hinein­kommt, und dem, was hinausgeht, ohne sich in den Details zu verlieren.

Hier stellt sich die Frage nach einem Kompromiss zwischen Verzerrung und Varianz. „Wir wollen neuronale Ne­tze auf größere Systeme anwenden. Tun wir das, geben sie uns Antworten auf unsere Fragen, während wir aber die Simulationen nicht mehr durchführen können. Dann stellt sich die Frage, ob die Antwort, die wir von den neuronalen Netzen bekommen, richtig ist. Als Wissen­schaftlerinnen und Wissenschaftler wollen wir immer eine Art Garantie haben. Leider gibt es die manchmal nicht“, sagt Ipp. Eine Lösung besteht darin, den neuronalen Netzen mehr Vorabinformationen aus physikalischen Gesetzen zu geben und sicherzustellen, dass die Beschränkungen der Welt erfüllt sind. „Ein Beispiel für eine solche Regel ist die Bedingung, die wir als Energieerhaltung kennen. Wenn die Ergebnisse der Maschine am Ende gegen die Energie­erhaltung verstoßen, wissen wir, dass wir etwas falsch gemacht haben“, so Ipp.

Hinter jedem
bahnbrechenden
Ergebnis,
das wir
in den Medien sehen,
steckt eine
riesige Menge
wissenschaft­­­­­licher
Arbeit,
die versucht,
jedes mal
einen Schritt weiterzugehen.

Andreas Ipp über den stetigen Fortschritt in der Wissenschaft.

Wissenschaft und KI verstärken sich also gegenseitig. Der Raum für Verbesserungen bei den Anwendungen neuronaler Netze kann auch durch die Teilchenphysik ausgefüllt werden. Je mehr Forscher*innen die Rahmenwerke der KI nutzen, desto mehr Unzulänglichkeiten entdecken sie. So kommen sie zu kreativen Lösungen. Ipp und sein Team nutzen das Prinzip der Symmetrie, um neuronale Netze effizienter zu machen. Die Symmetrie in der Physik ähnelt der Art und Weise, wie wir das Wort in unserem täglichen Leben verwenden. Auf der abstraktesten Ebene handelt es sich um eine Eigenschaft eines Systems, die nach einer Transformation erhalten bleibt. „Betrachten wir den Fall eines sogenannten mehrschichtigen Perzeptrons (vereinfachtes künstliches neuronales Netz, Anm.), bei dem jeder Eingangsknoten mit jedem Knoten der nächsten Schicht verbunden ist“, führt Ipp aus; „wenn es keine besondere Symmetrie gibt, muss man alles mit allem verbinden. Es sind also immer alle Verbindungen möglich. Neuronale Netze sind in diesem Sinne recht allgemein. Aber in Netzen, die die Translationssymmetrie (auch Verschiebungssymmetrie genannt, Anm.) beachten, muss man nicht alle Verbindungen mit der nächsten Schicht ziehen. Translationssymmetrie bedeutet in diesem Sinne, dass bei einer Verschiebung der Eingabe auch die Ausgabe entsprechend verschoben wird.“ Dies reduziert die benötigte Rechenleistung und erlaubt das Arbeiten mit größeren Datenmengen.

Neben den verwendeten Methoden sind die Lehre und die Publikation von Wissen weitere wichtige Aspekte der wissenschaftlichen Tradition. Das späte 20. und frühe 21. Jahrhundert war eine Ära der zunehmenden Spezialisierung. Zu dieser Zeit lösten sich die meisten Einzeldisziplinen vom Dach der Philo­sophie, es wurden mehr und mehr experimen­telle Methoden eingeführt. Heute bewegen wir uns wieder stärker in eine Phase, in der generalisierte Fähigkeiten erforderlich sind. Generali­sierte Spezialisten erhalten mehr Anerkennung. Die Zusammenarbeit zwischen den Disziplinen nimmt stetig zu. Die Untersuchung desselben Problems aus verschiedenen Blickwinkeln und mit unterschiedlichen Methoden wird immer wichtiger, da die Komplexität der Systeme, mit denen wir uns beschäftigen, ebenfalls zunimmt. Die interdisziplinäre Forschung hat jedoch ihre Herausforderungen: Forscher*innen müssen die Sprache und Methoden von mehr als nur einer Disziplin beherrschen. Gerade in diesem Zusammenhang kann KI die Disziplinenvielfalt in Forschungsprojekten fördern, indem sie Forscher*innen mit unterschiedlichem Hintergrund hilft, mit Daten auf einer gemeinsamen Grundlage zu arbeiten. Das Open-Source-Framework Mantid zielt beispielsweise darauf ab, Forscher*innen bei der Verarbeitung und Visualisierung von Daten zu helfen, indem es gemeinsame Datenstrukturen und Algorithmen schafft.

Neben der Unterstützung der wissen­schaftlichen Zusammenarbeit wird KI auch eingesetzt, um Forscher*innen bei einem der wichtigsten Aspekte ihrer Arbeit zu helfen: der Literatur­analyse. „Es werden mittlerweile so viele wissen­schaftliche Arbeiten veröffentlicht, dass niemand sie alle lesen kann“, sagt Allan Hanbury, Professor für Data Intelligence an der TUW. „Daher gibt es Bewegungen, die KI nutzen, um wissenschaftliche Texte zu analysieren. Es gibt zum Beispiel ein Spin-off aus meinem Labor namens Artificial Researcher, das daran arbeitet, Forscherinnen und Forschern bei der Literaturanalyse zu helfen.“ Artificial Researcher wurde von der TU-Wien-Absolventin Linda Andersson gemeinsam mit Jenny Andersson, Nina Andersson und Florina Piroi gegründet. Das Spin-off versucht, durch die Entwicklung innovativer wissenschaft­licher Wissensmanagementsysteme die Zeit zu reduzieren, die Wissenschaftler*­innen mit der Suche und Überprüfung von Informationen verbringen. Das Team liefert einheitliche Plattformen, die die Produktivität von Wissenschaftler­*innen durch die Implementierung von Textmining-Technologien steigern können. Beispiele für den Trend zur Einbindung des maschinellen Lernens in die Forschung gibt es nicht nur bei jungen Start-ups; der Trend ist auch bei etablierten wissen­schaftlichen Zeitschriften zu be­obachten: Elsevier, einer der führenden Verlage für wissenschaftliche Artikel, verändert sich seit 2018 zunehmend in ein Technologieunternehmen. Elsevier versucht, Erkenntnisse aus verfügbaren Daten zu gewinnen und sie in Informationen umzuwandeln, die in einer Vielzahl von Berufen genutzt werden können. Dies geschieht durch die Entwicklung von Analysetools, die maschinelles Lernen einsetzen und Daten nutzen, die sich seit über hundert Jahren in der Elsevier-Datenbank angesammelt haben.

Auch wenn diese Beispiele innovativ sind, geht es bei Text Mining und Analysesystemen immer noch um die Untersuchung von Texten, die im traditionellen Format (in Worten auf Papier) geschrieben wurden. „Wir veröffentlichen immer noch wie im 19. Jahrhundert“, sagt Hanbury. „Damals war es Papier, heute haben wir PDF-Formate, aber die Idee ist die gleiche.“ Allerdings ist diese Tradition nicht besonders effizient, weil sie ein Hin und Her erfordert. Forscher*innen verbringen viel Zeit damit, ein Paper zu schreiben, um ihre Ergebnisse zu veröffentlichen, und dann ist ein weiterer Schritt erforderlich, um den Text in eine Sprache zu verwandeln, die ein Computer verstehen kann. Hier brauchen wir „etwas“ mehr, und dieses Etwas ist nicht weit von der Realität entfernt. Für die Zukunft ist nämlich ein radikaler Wandel in der Publikationstradition zu erwarten. Die Idee: Anstatt die Ergebnisse in einen fließenden Text zu packen und diesen dann in etwas zu verwandeln, das ein Computer lesen kann, warum nicht den „Mittelsmann“ überspringen? Warum nicht die Arbeit direkt in einer Form veröffentlichen, die Computer verstehen können? „Es gibt tatsächlich Bewegungen in diese Richtung“, sagt Hanbury. Ein Beispiel wäre die Veröffentlichung in XML-Form (XML = Extensible Markup Language). Es ist möglich, dass es wissenschaftliche Arbeiten und Zeitschriften, wie wir sie kennen, in einigen Jahrzehnten nicht mehr geben wird.

Dass die KI Effizienzsteigerungen in unserem Leben mit sich bringt, steht außer Frage. Doch was können wir von der Zukunft erwarten? Was kommt nach der Steigerung der Effizienz? Und was bedeutet das für die Wissenschaft an sich? Der natürliche nächste Schritt scheint die Novität zu sein. Wir sind durch unsere Erfahrungen, Emotionen und Überzeugungen in unseren Fähigkeiten eingeschränkt. Wir können aufgrund dessen auch nicht auf radikal neue Weise denken. Ein Beispiel: Es ist uns Menschen unmöglich, uns eine neue Farbe vorzustellen. Können Maschinen das? Kann KI-Technologie etwas ganz Neues erschaffen? Seit einiger Zeit können wir intelligente Programme schreiben, aber können wir auch kreative Programme schreiben? Und ist es zu viel verlangt, dass wir von der KI erwarten, dass sie uns neue und interessante Fragen stellt und so unseren Horizont erweitert? Das muss sich zeigen, denn so weit sind wir noch nicht. „Zum jetzigen Zeitpunkt obliegen die Interpretation der Ergebnisse und die Beurteilung letztlich immer noch dem Menschen“, sagt Physiker Andreas Ipp abschließend.

Illustration: Kristian Jones