Im Gegensatz zu Kunst und Philosophie entwickelt sich die Wissenschaft kumulativ. Wissenschaftler*innen gelangen zu Entdeckungen, indem sie auf den Schultern von Gigant*innen stehen – also auf das gesamte Wissen aufbauen, das bereits vor ihnen generiert wurde: Johannes Keplers Analyse der astronomischen Messungen im frühen 17. Jahrhundert führte ihn zur Formulierung der Gesetze der Planetenbewegung; Isaac Newton formte, aufbauend auf Kepler, das Gesetz der universellen Gravitation. Ronald Fisher entwickelte in den frühen 1900er-Jahren die Theorie der Versuchsplanung. Er legte den Grundstein für viele grundlegende statistische Methoden, die noch heute verwendet werden. „Wissenschaft funktioniert in vielen inkrementellen Schritten“, sagt Andreas Ipp, Assistenzprofessor am Institut für Theoretische Physik an der Technischen Universität Wien (TUW). „Hinter jedem bahnbrechenden Ergebnis, das wir in den Medien sehen, steckt eine riesige Menge wissenschaftlicher Arbeit, die versucht, jedes Mal einen Schritt weiterzugehen.“
Vor nicht allzu langer Zeit ist es uns gelungen, eine Technologie zu schaffen, die diese inkrementellen Schritte effizienter und schneller macht: künstliche Intelligenz und die Schlüsselkomponente der (tiefen) neuronalen Netze. Nach dem Vorbild des menschlichen Gehirns bestehen diese Netze aus vielen Schichten von Neuronen, die lernfähig sind. Sie werden mit der Zeit intelligenter, wenn sie mit mehr Daten gefüttert werden.
Diese Daten sind in der Wissenschaft zur Genüge vorhanden, denn in der wissenschaftlichen Methode geht es darum, Muster aus empirischen Daten zu extrahieren und sie im Hinblick auf Theorien und Hypothesen zu analysieren. Forschungszentren erzeugen daher extreme Datenmengen, die sich nur äußerst schwer speichern lassen. Allein das Datenzentrum des CERN (Europäische Organisation für Kernforschung) verarbeitet täglich durchschnittlich eine Million Gigabyte an Daten. Ein Großteil dieser gesammelten Daten muss gelöscht werden, nachdem sie auf Muster untersucht wurden. KI-basierte Algorithmen könnten solch riesige Datensätze analysieren und entscheiden, welche davon zu behalten und welche zu löschen sind. Dies würde den Forscher*innen Zeit sparen, was wiederum das Tempo der wissenschaftlichen Entdeckung beschleunigen könnte.
Doch effiziente Datenanalyse ist nicht die einzige Facette der KI, wenn sie doch die auffälligste ist. Solche Technologien werden in fast allen wissenschaftlichen Disziplinen für die Modellierung und Vorhersage eingesetzt – sei es Chemie, Medizin, Biologie, Physik, Genetik oder Astronomie. Ein gutes Beispiel ist das Programm Alphafold von Google Deepmind, das darauf abzielt, die Struktur von Proteinen mithilfe eines Deep-Learning-Systems vorherzusagen. Proteine sind für das Leben unerlässlich; das Verständnis ihrer Form öffnet die Tür zum Verständnis ihrer Funktion. Durch die Vorhersage von Formen können Forscher*innen Proteine identifizieren, die bei bestimmten Krankheiten eine Rolle spielen. Sie können die Genauigkeit der Diagnose verbessern und neue Behandlungen entwickeln. Die Forscher*innen investieren daher enorme Anstrengungen in die Untersuchung von Proteinen und konnten so bereits 100.000 einzigartige Strukturen bestimmen. Angesichts der Milliarden von unbekannten Proteinsequenzen ist diese Zahl jedoch nicht wirklich signifikant. Das Problem: Würden Forscher*innen versuchen, alle möglichen Konfigurationen eines Proteins nach dem Zufallsprinzip zu berechnen, bräuchten sie länger als das Universum alt ist, bevor sie die richtige Struktur finden würden (das sogenannte Levinthal-Paradox). An dieser Stelle kommt Deep Learning ins Spiel: Das Team hinter Alphafold versucht nämlich, Zielformen zu modellieren, ohne dabei Vorlagen aus bereits gelösten Proteinstrukturen zu verwenden. Die Methode stützt sich auf tiefe neuronale Netze, die darauf trainiert werden, neue Fragmente zu erfinden. Diese Fragmente werden dann verwendet, um die Genauigkeit einer vorgeschlagenen Proteinstruktur zu verbessern. Mit dieser Methode lassen sich Proteinstrukturen mit hoher Genauigkeit vorhersagen. Der potenzielle Nutzen reicht von der Gesundheit bis zum Umweltschutz. Wissenschaftler*innen versuchen bereits, Bakterien zu entwickeln, die bestimmte Proteine absondern, um uns beim Abbau von Abfällen zu helfen.
Fortschritte bei der Rechenleistung und die radikale Zunahme der verfügbaren Daten führen dazu, dass die KI auch in Simulationsmethoden eingesetzt wird. Ein Beispiel kommt aus der Teilchenphysik, in der sich Forscher*innen für die Frage „Woraus besteht alles?“ interessieren. „Wir versuchen, die Bausteine von allem, was uns umgibt, zu verstehen. Sie entstehen aus den verschiedenen Anordnungen von Protonen, Neutronen, Elektronen et cetera“, sagt Ipp. Bei Experimenten an Teilchen-Collidern müssen die Forscher*innen mit riesigen Datenmengen umgehen und verwenden daher Techniken des maschinellen Lernens, um relevante Informationen effizient zu extrahieren. Ein anderer Ansatz ist die Simulation: „Wir versuchen, all die Dinge zu simulieren, die in Teilchen-Collidern passieren. Wir erzeugen ein sogenanntes Quark-Gluon-Plasma, das einen neuen Zustand der Materie darstellt und uns mehr über die starke Kraft (eine der vier Grundkräfte der Physik, Anm.) lehren kann“, so Ipp. Gemeinsam mit seinem Team versucht der TUW-Forscher, eine Simulation zu erstellen, um die sehr frühe Phase einer Kollision von zwei schweren Ionen zu untersuchen. Die Simulationen verwenden eine Formel, die aus der Quantenchromodynamik (Theorie der starken Kernkraft) stammt. Das Problem dabei ist, dass Lösungen für maschinelles Lernen sehr schlecht mit der Größe skalieren. Mit zunehmender Größe der Eingaben steigt der Rechenaufwand drastisch an. Selbst ein Supercomputer erlaubt es den Forscher*innen nur, kleine Teile der Kollision zu betrachten. „Wir haben einige Schätzungen angestellt und es hat sich gezeigt, dass wir Hunderte von Jahren rechnen müssten, um die benötigten Simulationen durchzuführen“, sagt Ipp. Doch das Ganze hat auch etwas Positives, denn maschinelles Lernen ist gut darin, Abkürzungen zu finden. Anstatt alle notwendigen Berechnungen durchzuführen, lernt der Computer das Verhältnis zwischen dem, was hineinkommt, und dem, was hinausgeht, ohne sich in den Details zu verlieren.
Hier stellt sich die Frage nach einem Kompromiss zwischen Verzerrung und Varianz. „Wir wollen neuronale Netze auf größere Systeme anwenden. Tun wir das, geben sie uns Antworten auf unsere Fragen, während wir aber die Simulationen nicht mehr durchführen können. Dann stellt sich die Frage, ob die Antwort, die wir von den neuronalen Netzen bekommen, richtig ist. Als Wissenschaftlerinnen und Wissenschaftler wollen wir immer eine Art Garantie haben. Leider gibt es die manchmal nicht“, sagt Ipp. Eine Lösung besteht darin, den neuronalen Netzen mehr Vorabinformationen aus physikalischen Gesetzen zu geben und sicherzustellen, dass die Beschränkungen der Welt erfüllt sind. „Ein Beispiel für eine solche Regel ist die Bedingung, die wir als Energieerhaltung kennen. Wenn die Ergebnisse der Maschine am Ende gegen die Energieerhaltung verstoßen, wissen wir, dass wir etwas falsch gemacht haben“, so Ipp.
Hinter jedem
bahnbrechenden
Ergebnis,
das wir
in den Medien sehen,
steckt eine
riesige Menge
wissenschaftlicher
Arbeit,
die versucht,
jedes mal
einen Schritt weiterzugehen.
Andreas Ipp über den stetigen Fortschritt in der Wissenschaft.
Wissenschaft und KI verstärken sich also gegenseitig. Der Raum für Verbesserungen bei den Anwendungen neuronaler Netze kann auch durch die Teilchenphysik ausgefüllt werden. Je mehr Forscher*innen die Rahmenwerke der KI nutzen, desto mehr Unzulänglichkeiten entdecken sie. So kommen sie zu kreativen Lösungen. Ipp und sein Team nutzen das Prinzip der Symmetrie, um neuronale Netze effizienter zu machen. Die Symmetrie in der Physik ähnelt der Art und Weise, wie wir das Wort in unserem täglichen Leben verwenden. Auf der abstraktesten Ebene handelt es sich um eine Eigenschaft eines Systems, die nach einer Transformation erhalten bleibt. „Betrachten wir den Fall eines sogenannten mehrschichtigen Perzeptrons (vereinfachtes künstliches neuronales Netz, Anm.), bei dem jeder Eingangsknoten mit jedem Knoten der nächsten Schicht verbunden ist“, führt Ipp aus; „wenn es keine besondere Symmetrie gibt, muss man alles mit allem verbinden. Es sind also immer alle Verbindungen möglich. Neuronale Netze sind in diesem Sinne recht allgemein. Aber in Netzen, die die Translationssymmetrie (auch Verschiebungssymmetrie genannt, Anm.) beachten, muss man nicht alle Verbindungen mit der nächsten Schicht ziehen. Translationssymmetrie bedeutet in diesem Sinne, dass bei einer Verschiebung der Eingabe auch die Ausgabe entsprechend verschoben wird.“ Dies reduziert die benötigte Rechenleistung und erlaubt das Arbeiten mit größeren Datenmengen.
Neben den verwendeten Methoden sind die Lehre und die Publikation von Wissen weitere wichtige Aspekte der wissenschaftlichen Tradition. Das späte 20. und frühe 21. Jahrhundert war eine Ära der zunehmenden Spezialisierung. Zu dieser Zeit lösten sich die meisten Einzeldisziplinen vom Dach der Philosophie, es wurden mehr und mehr experimentelle Methoden eingeführt. Heute bewegen wir uns wieder stärker in eine Phase, in der generalisierte Fähigkeiten erforderlich sind. Generalisierte Spezialisten erhalten mehr Anerkennung. Die Zusammenarbeit zwischen den Disziplinen nimmt stetig zu. Die Untersuchung desselben Problems aus verschiedenen Blickwinkeln und mit unterschiedlichen Methoden wird immer wichtiger, da die Komplexität der Systeme, mit denen wir uns beschäftigen, ebenfalls zunimmt. Die interdisziplinäre Forschung hat jedoch ihre Herausforderungen: Forscher*innen müssen die Sprache und Methoden von mehr als nur einer Disziplin beherrschen. Gerade in diesem Zusammenhang kann KI die Disziplinenvielfalt in Forschungsprojekten fördern, indem sie Forscher*innen mit unterschiedlichem Hintergrund hilft, mit Daten auf einer gemeinsamen Grundlage zu arbeiten. Das Open-Source-Framework Mantid zielt beispielsweise darauf ab, Forscher*innen bei der Verarbeitung und Visualisierung von Daten zu helfen, indem es gemeinsame Datenstrukturen und Algorithmen schafft.
Neben der Unterstützung der wissenschaftlichen Zusammenarbeit wird KI auch eingesetzt, um Forscher*innen bei einem der wichtigsten Aspekte ihrer Arbeit zu helfen: der Literaturanalyse. „Es werden mittlerweile so viele wissenschaftliche Arbeiten veröffentlicht, dass niemand sie alle lesen kann“, sagt Allan Hanbury, Professor für Data Intelligence an der TUW. „Daher gibt es Bewegungen, die KI nutzen, um wissenschaftliche Texte zu analysieren. Es gibt zum Beispiel ein Spin-off aus meinem Labor namens Artificial Researcher, das daran arbeitet, Forscherinnen und Forschern bei der Literaturanalyse zu helfen.“ Artificial Researcher wurde von der TU-Wien-Absolventin Linda Andersson gemeinsam mit Jenny Andersson, Nina Andersson und Florina Piroi gegründet. Das Spin-off versucht, durch die Entwicklung innovativer wissenschaftlicher Wissensmanagementsysteme die Zeit zu reduzieren, die Wissenschaftler*innen mit der Suche und Überprüfung von Informationen verbringen. Das Team liefert einheitliche Plattformen, die die Produktivität von Wissenschaftler*innen durch die Implementierung von Textmining-Technologien steigern können. Beispiele für den Trend zur Einbindung des maschinellen Lernens in die Forschung gibt es nicht nur bei jungen Start-ups; der Trend ist auch bei etablierten wissenschaftlichen Zeitschriften zu beobachten: Elsevier, einer der führenden Verlage für wissenschaftliche Artikel, verändert sich seit 2018 zunehmend in ein Technologieunternehmen. Elsevier versucht, Erkenntnisse aus verfügbaren Daten zu gewinnen und sie in Informationen umzuwandeln, die in einer Vielzahl von Berufen genutzt werden können. Dies geschieht durch die Entwicklung von Analysetools, die maschinelles Lernen einsetzen und Daten nutzen, die sich seit über hundert Jahren in der Elsevier-Datenbank angesammelt haben.
Auch wenn diese Beispiele innovativ sind, geht es bei Text Mining und Analysesystemen immer noch um die Untersuchung von Texten, die im traditionellen Format (in Worten auf Papier) geschrieben wurden. „Wir veröffentlichen immer noch wie im 19. Jahrhundert“, sagt Hanbury. „Damals war es Papier, heute haben wir PDF-Formate, aber die Idee ist die gleiche.“ Allerdings ist diese Tradition nicht besonders effizient, weil sie ein Hin und Her erfordert. Forscher*innen verbringen viel Zeit damit, ein Paper zu schreiben, um ihre Ergebnisse zu veröffentlichen, und dann ist ein weiterer Schritt erforderlich, um den Text in eine Sprache zu verwandeln, die ein Computer verstehen kann. Hier brauchen wir „etwas“ mehr, und dieses Etwas ist nicht weit von der Realität entfernt. Für die Zukunft ist nämlich ein radikaler Wandel in der Publikationstradition zu erwarten. Die Idee: Anstatt die Ergebnisse in einen fließenden Text zu packen und diesen dann in etwas zu verwandeln, das ein Computer lesen kann, warum nicht den „Mittelsmann“ überspringen? Warum nicht die Arbeit direkt in einer Form veröffentlichen, die Computer verstehen können? „Es gibt tatsächlich Bewegungen in diese Richtung“, sagt Hanbury. Ein Beispiel wäre die Veröffentlichung in XML-Form (XML = Extensible Markup Language). Es ist möglich, dass es wissenschaftliche Arbeiten und Zeitschriften, wie wir sie kennen, in einigen Jahrzehnten nicht mehr geben wird.
Dass die KI Effizienzsteigerungen in unserem Leben mit sich bringt, steht außer Frage. Doch was können wir von der Zukunft erwarten? Was kommt nach der Steigerung der Effizienz? Und was bedeutet das für die Wissenschaft an sich? Der natürliche nächste Schritt scheint die Novität zu sein. Wir sind durch unsere Erfahrungen, Emotionen und Überzeugungen in unseren Fähigkeiten eingeschränkt. Wir können aufgrund dessen auch nicht auf radikal neue Weise denken. Ein Beispiel: Es ist uns Menschen unmöglich, uns eine neue Farbe vorzustellen. Können Maschinen das? Kann KI-Technologie etwas ganz Neues erschaffen? Seit einiger Zeit können wir intelligente Programme schreiben, aber können wir auch kreative Programme schreiben? Und ist es zu viel verlangt, dass wir von der KI erwarten, dass sie uns neue und interessante Fragen stellt und so unseren Horizont erweitert? Das muss sich zeigen, denn so weit sind wir noch nicht. „Zum jetzigen Zeitpunkt obliegen die Interpretation der Ergebnisse und die Beurteilung letztlich immer noch dem Menschen“, sagt Physiker Andreas Ipp abschließend.
Illustration: Kristian Jones