Eine Milliarde US-$ sind es, die das Massachusetts Institute of Technology (MIT) in den Aufbau eines neuen College mit Fokus auf künstliche Intelligenz (KI) und Computing steckt. Wir haben drei preisgekrönte Forscherinnen getroffen, die an der Eliteuni genau in diesem Bereich arbeiten – KI, maschinelles Lernen, Robotik. Das Trio will Medizin, Industrie und Biologie mit Methoden der KI revolutionieren.
Von aussen sieht das Gebäude an der Vassar Street aus wie ein großer Robot – silberne Stahlplatten verkleiden die Fassade, sie sehen aus wie die Schuppen eines großen Fischs. Anstatt einer geraden Fassade formen die Platten Steigungen und Würfel. Das Innere des Gebäudes ist funktionell und klar eingerichtet, jede*r Student*in verfügt über eine eigene kleine Computerecke. Die Gänge sind mit grauem Teppichboden ausgelegt, und so hallen die Schritte von Besucher*innen dumpf durch die Hallen. In Sachen KI kommt man am MIT nicht vorbei – genauer gesagt am Computer Science and Artificial Intelligence Laboratory (CSAIL), dem KI-Zentrum der US-amerikanischen Universität. Das CSAIL verfügt über ein jährliches Forschungsbudget von 65 Millionen US-$, das sind rund 57 Millionen €. Zum Vergleich: Die TU Wien hat ein Gesamtjahresbudget von 271 Millionen €.
Daniela Rus
ist Professorin für Elektrotechnik und Informatik sowie Direktorin des Computer Science and Artificial Intelligence Laboratory (CSAIL) am MIT. Rus’ Forschungsinteressen liegen in den Bereichen Robotik, Mobile Computing und Data Science.
Das CSAIL entwickelte den ersten konzeptionellen Ansatz in der Computertechnologie sowie auch die ersten mobilen Roboter. Bei jeder Onlineshopping-Tour und bei jeder E-Mail greifen wir auf Technologien zurück, die am CSAIL entstanden sind. Wir treffen Daniela Rus – man merkt sofort, dass sie auch unterrichtet, denn die Direktorin des CSAIL spricht über komplexe Themen in einfach verständlichen Sätzen. Auf Englisch ist das zwar oft leichter als auf Deutsch, dennoch ist diese Fähigkeit bemerkenswert. Ihre Forschungsinteressen liegen in den Bereichen Robotik, künstliche Intelligenz und Datenwissenschaft. „Robotik setzt Berechnungen in Gang“, so Rus, „KI gibt Maschinen die Fähigkeiten, Entscheidungen zu finden.“ Maschinelles Lernen umfasse wiederum beides und ermögliche eine datengesteuerte Entscheidungsfindung: „Eine Komponente meiner Arbeit ist der Körper des Werkzeugs, der Roboter. Die anderen Komponenten sind das Gehirn des Werkzeugs und schließlich die Interaktion zwischen dem Werkzeug und dem Menschen“, so Rus.
Julie Shah
ist Professorin für Luft- und Raumfahrt. Sie leitet die Interactive Robotics Group am CSAIL und ist Associate Dean for Social and Ethical Responsibilites of Computing (SERC) am MIT Schwarzman College of Computing.
Einfach erklärt entwickelt Rus Roboter. „Ich interessiere mich besonders für Soft-Roboter, weil sie sicher sind, da sie mit Menschen zusammenarbeiten.“ „Fish“ ist ein solcher Roboter: Er sieht aus und bewegt sich wie ein Fisch. Der Roboter ist so überzeugend, dass Artgenossen aus Fleisch und Blut unbehelligt weiterschwimmen, wenn der Roboter in ihrer Mitte ist. Rus und ihr Team wollen sehen, ob das Robotertier in einem Fischschwarm koexistieren kann – und ob das programmierte Verhalten des Roboters den Fischschwarm beeinflusst. „Dann würden wir besser verstehen, wie Fische funktionieren“, sagt Rus. Die Unterwasserwelt will sie auch in einem neuen Projekt erforschen, das sie vor etwa einem Jahr gestartet hat: Ihr Team will die Sprache von Walen verstehen. „Und vielleicht können wir den Tieren sogar antworten – wäre das nicht cool?“, sagt Rus begeistert. „Sie sind unsere Nachbarn und wir können durch Projekte wie dieses lernen, friedlicher zu koexistieren und den Planeten zu schützen.“
Doch Rus geht noch weiter: Sie will herausfinden, was genau wir unter einem Roboter verstehen – und die Definition „auf die Spitze“ treiben. Die Idee: Wir sollen uns mehr mit dem „Gehirn“ der Maschine beschäftigen. Eine interessante Frage für Rus ist auch, ob man Teams aus Menschen und Maschinen bilden kann, die leistungsfähiger und effektiver sind als Menschen oder Maschinen allein. Das könnte einen großen Einfluss auf verschiedene Bereiche haben – Unternehmertum, Medizin, Produktion, Transport, Energie oder die Bauwirtschaft. „Wenn wir lernen, wie man Menschen und Maschinen nahtlos Aufgaben zuordnet, um ihre Fähigkeiten wechselseitig zu stärken und zu optimieren, werden wir echten Fortschritt sehen“, sagt Rus.
Regina Barzilay
ist Professorin für KI und Gesundheit an der School of Engineering am MIT. Sie ist zudem AI Faculty Lead an der Jameel Clinic, einem Zentrum für maschinelles Lernen im Gesundheitswesen an der Universität.
Eine von Rus’ Kolleginnen ist Julie Shah. Sie leitet die Interactive Robotics Group am CSAIL. Als wir ankommen, ist Shah nicht alleine – „Abby“ ist auch da: Abby ist ein oranger Roboter und steht ein bisschen eingeschüchtert und mit eingezogenem Arm in der Ecke des Labors. Doch der unschuldige Eindruck täuscht: „Abby ist unser gefährlichster Roboter“, sagt Shah. „Ich glaube, wir sind das einzige Labor in den Vereinigten Staaten mit einer Genehmigung für Experimente mit einem solchen Roboter.“ Der große Unterschied zu anderen Robotern: Abby kooperiert nicht. Stößt sie etwa an einem Menschen an, verändert sie ihr Verhalten nicht. „Sie würde meine Hand zerquetschen, wenn meine Hand ihr im Weg wäre“, sagt Shah. Abby ist ein Industrieroboter und der erste, den Shah 2011 im Lab entworfen hat. Zehn Jahre – für einen Roboter ist Abby also vergleichsweise alt.
Seit 2011 haben Shah und ihre Student*innen weitere Roboter entworfen und gebaut. Sie alle stehen unbeweglich im Büro herum. Sie haben weiße oder hellgraue Arme, die ein bisschen wie Körperteile der Stormtrooper aus „Star Wars“ aussehen. Sie sind Geschwister von Abby – aber besser entwickelt. Sie kooperieren und sind deshalb für den Umgang mit Menschen geeignet. Und sie lernen schnell: Aus einem kleinen Datensatz – zum Beispiel aus der Beobachtung der Bewegungsmuster einer Person – können sie Erkenntnisse ziehen. In der Praxis wären die Roboter in der Lage, in einem Lagerhaus mit Menschen zusammenzuarbeiten und lästige Aufgaben zu übernehmen. Dazu nutzen die Roboter Verhaltensmodelle. Der Roboter lernt, wie der Mensch sich bewegt, wie schnell er ihm eine Kiste reicht und wie er diese dann absetzt. Die Maschine kann dann ihre Bewegungsmuster oder Position verändern, damit sie dem Menschen nicht im Weg ist. Solche Roboter sind naturgemäß gefragt – so zeigen etwa Versandhändler wie der US-Riese Amazon oder auch Automobilhersteller Interesse an den Maschinen.
ICH GLAUBE,
WIR SIND
DAS EINZIGE LABOR
IN DEN
VEREINIGTEN STAATEN MIT EINER
GENEHMIGUNG FÜR EXPERIMENTE
MIT EINEM
SOLCHEN ROBOTER.
Julie Shah über die Arbeit mit dem nicht-kooperierenden Roboter „Abby“.
Doch es gibt Herausforderungen. Für Unternehmen sind das etwa die Kosten sowie das Wissen, das für die Programmierung der Roboter erforderlich ist. Kleine Unternehmen haben häufig nicht die Expertise, um die Roboter selbst zu programmieren. Selbst für größere Unternehmen seien die Kosten oft ein Argument, um sich gegen den Einsatz solcher Roboter zu entscheiden, so Shah. Deshalb arbeitet die Forscherin daran, dass Roboter nicht nur bereits vorab programmiert sind, sondern auch das übergeordnete Ziel einer Mission kennen und es schließlich flexibel erreichen können.
Doch Shah entwickelt auch Roboter für einen persönlicheren Einsatz, nämlich in der Pflege. Dazu müssen die Maschinen „inherently human safe“ sein, wie die Wissenschaftlerin es beschreibt. Selbst wenn der Roboter gerade nicht weiß, wo sich im Raum ein Mensch befindet, zieht er sich zurück, wenn er mit ihm zusammenstößt. Doch gerade in der Pflege bedarf es des physischen Kontakts zwischen Roboter und Mensch. Zum Beispiel, wenn der Roboter dem Menschen beim Anziehen helfen soll. Das Dilemma: Ein solcher Pflegeroboter muss sanft, aber nicht zögerlich sein. Er muss eine Jacke über die Schulter des Menschen ziehen können, seine Aufgabe also erfüllen, erklärt Shah. Eine ihrer Schlüsselinnovationen ist daher die Entwicklung von statistischen Modellen über menschliches Verhalten für den Roboter. Dazu lädt das Team regelmäßig Testpersonen ein. Die Student*innen sind nämlich bereits zu sehr an die Roboter gewöhnt. Getestet werden muss an Personen, die unsicher im Umgang mit solchen Maschinen sind, um die Sicherheit auch in der Realität wirklich zu gewährleisten.
Die dritte Ki-Forscherin, die wir an diesem Tag treffen, ist Regina Barzilay. Sie winkt uns freundlich in ihr Büro. Obwohl Barzilay ganz in Schwarz gekleidet ist – selbst ihre Gesichtsmaske ist schwarz –, strahlt sie Fröhlichkeit aus. Sie spricht gerade mit einer Studentin, die ihren Hund mitgebracht hat. Ein zweiter Student ruft vom Flur herein und bittet um ein kurzes Gespräch. Barzilay ruft zurück: „In einer halben Stunde gerne!“ Nachdem sie die Studentin verabschiedet hat, setzt sie sich in einen grünen Sessel, ihr blauer Schreibtisch ist mit Papieren und Büchern bedeckt.
Barzilay forscht und lehrt im Bereich Informatik. Sie ist Professorin und AI Faculty Lead an der MIT Jameel Clinic, die sich auf das Gesundheitswesen fokussiert. Ihre Forschungsinteressen liegen in der Verarbeitung natürlicher Sprache und Anwendungen von Deep Learning in Chemie und Onkologie. „Ich bin zu meinem Forschungsfeld gekommen, weil ich zunächst selbst Patientin war“, erzählt Barzilay. Sie hatte Brustkrebs und ließ sich davon inspirieren, da es in der Medizin kaum Anwendungen für KI gab.
„Nach meiner Erkrankung 2015 hatte ich ganz neue Ziele für meine Forschungsarbeit“, sagt sie. Sie wollte die Diagnostik und Behandlung von Brustkrebs verändern. Barzilay hofft, dass Frauen mit einer Veranlagung für Brustkrebs früher davon erfahren und so auch in frühen Stadien behandelt werden können, denn das erhöht ihre Überlebenswahrscheinlichkeit.
Gemeinsam mit ihrem Team entwickelte sie ein Deep-Learning-Modell, das Mammogramme analysiert, um darin frühe Anzeichen von Tumoren zu erkennen. Gemeinsam mit dem Massachusetts General Hospital sammelten die MIT-Forscher*innen etwa 200.000 solcher Mammogramme sowie die zugehörigen Diagnosen. Eine Herausforderung: Sie wollten sicherstellen, dass das Programm für Asiatinnen genauso funktioniert wie für Europäerinnen oder Afroamerikanerinnen. Vorschriften im Datenschutz verhindern einen Datenaustausch über Landesgrenzen, also schickte Barzilay einen Studenten auf Weltreise, um das Modell zu testen.
Anschließend programmierte Barzilays Team das Modell so, dass es Anzeichen erkennt, die auf eine mögliche Tumorbildung hinweisen – bis zu fünf Jahre bevor der eigentliche Krebs diagnostiziert wird. Diese Form des maschinellen Lernens wird seit zwei Jahren vom Massachusetts General Hospital eingesetzt. Barzilay hat mit der Anwendung mehrere Preise abgeräumt; so verlieh ihr etwa die Association for the Advancement of Artificial Intelligence einen mit einer Million US-$ dotierten Forschungspreis.