«Vertrauenswürdige KI erfordert interdisziplinäre Zusammenarbeit»
K¨¹nstliche Intelligenz und maschinelles Lernen sind Schl¨¹sseltechnologien f¨¹r Wissenschaft, Wirtschaft und Gesellschaft. Doch wie zuverl?ssig funktionieren sie? Andreas Krause, R?ssler-Preistr?ger 2021 und Vorsitzender des ETH AI Centers, ¨¹ber die Chancen und Herausforderungen vertrauensw¨¹rdiger KI.
Herr Krause, Sie sind einer der f¨¹hrenden Forscher f¨¹r maschinelles Lernen und k¨¹nstliche Intelligenz (KI) in Europa. Gibt es Aufgaben, die Sie vor zehn Jahren noch selbst erledigten, heute jedoch an intelligente Computerprogramme delegieren?
Im Hintergrund gibt es tats?chlich schon einige sehr n¨¹tzliche Technologien, bei denen k¨¹nstliche Intelligenz und maschinelles Lernen meine t?gliche Arbeit erleichtern: Die Literaturrecherche wird massgeblich durch Empfehlungssysteme unterst¨¹tzt und Sprachverstehen sowie Sprach¨¹bersetzung funktionieren heute zu grossen Teilen automatisiert. Das war vor zehn Jahren noch nicht m?glich.
Kann eine k¨¹nstliche Intelligenz auch Probleme verstehen, die ein Mensch selbst noch nicht verstanden hat?
Es ist schwierig zu definieren, was ?verstehen? konkret bedeutet. Maschinen sind in der Lage effizient komplexe, statistische Muster aus grossen Datens?tzen zu extrahieren und berechnungstechnisch zu verwerten. Das heisst nicht, dass sie diese in irgendeiner Art und Weise ?verstehen?. Die bestehenden maschinellen Lernverfahren sind dennoch sehr n¨¹tzlich f¨¹r spezialisierte Aufgaben. Es ist allerdings nach wie vor eine Eigenheit des Menschen, dass er sein Wissen ¨¹bertragen und sehr verschiedene, komplexe Aufgaben schnell lernen und l?sen kann. Davon sind wir in der k¨¹nstlichen Intelligenz weit entfernt.
Wie sch?tzen Sie die KI-Forschung an der ETH Z¨¹rich ein?
Sowohl in der Informatik als auch in vielen anderen Disziplinen leisten wir an der ETH exzellente KI-Forschung. Speziell in datenwissenschaftlichen Teilgebieten wie dem Maschinellen Lernen, dem Bildverstehen und dem Sprachverstehen, aber auch in Anwendungen wie dem Gesundheitswesen, der Robotik, etc. Da viele der spannendsten Fragen an den Schnittstellen der Disziplinen entstehen, sehe ich Chancen in der systematischen Zusammenarbeit. Darum haben wir das ETH AI Center fach¨¹bergreifend etabliert und uns der europ?ischen Initiative f¨¹r maschinelles Lernen ELLIS angeschlossen. Diese Vernetzung ist der Schl¨¹ssel. Nur, wer die technologische Leadership hat, kann die Entwicklung der KI massgeblich beeinflussen und sicherstellen, dass europ?ische Werte in die n?chste Generation der KI einfliessen.
Was bedeuten ?europ?ische Werte? im Zusammenhang mit KI?
Dass wir die technologische Entwicklung und ihre Wirkungen auf unsere Wirtschaft und freiheitliche Gesellschaft reflektieren. So hat der Schutz der Privatsph?re beispielsweise in Europa einen hohen Stellenwert. Daraus ergeben sich neue Fragen, wie KI-Technologien zu entwickeln sind. Dabei spielen Zuverl?ssigkeit, Fairness, und Nachvollziehbarkeit eine zentrale Rolle, denn sie betreffen hochrelevante Fragen der gesellschaftlichen Akzeptanz, der Inklusion und des Vertrauens in die KI.
Was sind aktuell die Herausforderungen auf dem Weg zu einer vertrauensw¨¹rdigen KI?
KI und maschinelles Lernen sollen so zuverl?ssig und beherrschbar sein wie klassische Softwaresysteme, und sie sollen komplexe Anwendungen erm?glichen, denen wir vertrauen k?nnen. Aus meiner Sicht besteht eine grosse Herausforderung darin, dass sich Vertrauensw¨¹rdigkeit von KI nur im Hinblick auf bestimmte Anwendungen bewerten lassen kann. Spezielle Fragen aus der Medizin lassen sich beispielsweise kaum direkt auf Fragen des Gerichts- oder Versicherungswesens ¨¹bertragen. Wir m¨¹ssen also die konkreten Anforderungen einer Anwendung kennen, um eine vertrauensw¨¹rdige und zuverl?ssige KI zu entwickeln.
Worauf kommt es an, dass intelligente Lernverfahren zuverl?ssig sind?
Zuverl?ssigkeit ist ein zentrales Thema f¨¹r die Akzeptanz der neuen KI-Technologien. Welche konkreten Anforderungen hier bestehen, h?ngt wiederum sehr von der jeweiligen Anwendung ab. Wenn ein Empfehlungssystem einen Film vorschl?gt, der jemandem nicht gef?llt, dann haben die Konsequenzen nicht dieselbe Tragweite wie wenn ein medizinisches Unterst¨¹tzungssystem oder ein selbstfahrendes Auto einen Fehler machen. In diesen Anwendungen sind die Anforderungen an die Zuverl?ssigkeit und die Sicherheit der Methoden ungleich h?her.
Und wenn sich doch Fehler einschleichen?
?Dass maschinelle Lernverfahren Fehler machen ist wohl unvermeidbar. Menschen machen auch Fehler, aber sie lernen daraus und versuchen sie zu minimieren. Das ist beim maschinellen Lernen genauso wichtig.?Andreas Krause
Indem wir systematisch untersuchen, welche Arten von Fehlern auftreten, k?nnen wir sie reduzieren und bestm?glich verhindern. Dabei ist es insbesondere wichtig, dass Lernverfahren kein unerwartetes Fehlverhalten an den Tag legen.
Gibt es Beispiele f¨¹r unerwartetes Fehlverhalten?
Zum Beispiel gibt es Bilderkennungssysteme f¨¹r selbstfahrende Autos, die Verkehrszeichen erkennen. Mitunter reicht es bereits, dass jemand einen Sticker ¨¹ber ein Verkehrszeichen klebt und schon funktioniert die maschinelle Erkennung nicht mehr. Dieses Fehlverhalten ist f¨¹r Menschen, die sich durch Sticker nicht t?uschen lassen w¨¹rden, ?usserst unerwartet. Hier muss man neue Methoden finden, die diese St?reinfl¨¹sse zuverl?ssig ausblenden, und robuste Lernverfahren entwickeln. Das sind sehr aktuelle Forschungsthemen.
Zuweilen ist zu lesen, maschinelles Lernen m¨¹sse erkl?rbar sein, damit sich im Nachhinein nachvollziehen l?sst, wie und warum ein Verfahren zu einem Ergebnis gekommen ist.
Genau. Auch Erkl?rbarkeit ist schwer zu definieren, und kann nur im Hinblick auf eine Anwendung konkretisiert werden. Aus meiner Sicht ist es nicht zwingend erforderlich, exakt zu verstehen, wie genau ein lernendes System seine Entscheidung getroffen hat. Wenn wir uns ¨¹berlegen, wie wir Menschen entscheiden, dann wissen wir ja auch nicht genau, aus welchen neurobiologischen Gr¨¹nden ein Mensch eine bestimmte Entscheidung f?llt. Aber Menschen haben die M?glichkeit, ihre Entscheidungen nachvollziehbar darzulegen. Diese F?higkeit m¨¹ssen wir versuchen, bei maschinellen Lernverfahren nachzubilden. Bei der Klassifikation von Verkehrszeichen kann man beispielsweise versuchen, herauszufinden, ob sich ein Lernmodell an Hintergrundeigenschaften oder nebens?chlichen Merkmalen orientiert anstatt an relevanten Eigenschaften der Verkehrszeichen.
Wenn ein Fehler erkannt ist, wird das Lernverfahren angepasst?
Ja. Nur m¨¹ssen wir in jedem Fall zuerst einmal verstehen, was das Problem ist, damit wir die Lernmodelle so trainieren k?nnen, dass die Fehler nicht mehr auftreten.
?Bei Lernverfahren, die potenziell Konsequenzen haben f¨¹r die Menschen, sind hohe ethische Standards zwingend erforderlich, um sicherstellen, dass die Ergebnisse fair sind und niemanden diskriminieren.?Andreas Krause
Ist es f¨¹r Sie nachvollziehbar, wenn sich jemand bei der k¨¹nstlichen Intelligenz an Goethes Zauberlehrling erinnert f¨¹hlt: ?Die ich rief, die Geister Werd ich nun nicht los??
K¨¹nstliche Intelligenz weckt sowohl Tr?ume als auch ?ngste. Das ist auch durch Science-Fiction, Hollywoodfilme und Belletristik beeinflusst. Als Forscher mache ich mir eher Sorgen ¨¹ber den blinden Einsatz oder den Missbrauch der bestehenden Technologien, und die m?glichen Konsequenzen, die aus mangelnder Zuverl?ssigkeit oder durch Diskriminierung entstehen k?nnen. Es ist aber wichtig, dass wir uns nicht von ?ngsten leiten lassen, sondern wir m¨¹ssen uns den Herausforderungen stellen. Nur so k?nnen wir die Technologie proaktiv mitgestalten und zum Wohle der Gesellschaft einsetzen.
Welche Rolle spielen ethischen Fragen?
Bei Lernverfahren, die potenziell Konsequenzen haben f¨¹r die Menschen, sind hohe ethische Standards zwingend erforderlich, um sicherstellen, dass die Ergebnisse fair sind und niemanden diskriminieren. Dies erfordert die Zusammenarbeit zwischen verschiedenen Fachgebieten. Die Antwort auf eine ethische Frage kann nicht rein technologisch sein. Kein Informatiker kann beispielsweise in einer verallgemeinerten Weise f¨¹r sich allein ¨¹berlegen, wie ein lernendes System zu entwickeln ist, damit es faire Entscheidungen trifft.
Was geben Sie Studierenden mit auf den Weg, die sich mit KI in der Wirtschaft etablieren wollen?
Die Grundlagen, insbesondere in Mathematik und Informatik, sind sehr wichtig. Zugleich sollte man aufgeschlossen sein f¨¹r neue Fragen und sich auf konkrete Projekte mit Partnern aus verschiedenen Anwendungsbereichen einlassen. Schliesslich gilt es, eine gewisse Gelassenheit zu bewahren in einem Feld, das sich so wahnsinnig schnell entwickelt wie die KI. Besser als dem neusten Trend hinterherzurennen, ist es, sich die Zeit zu nehmen, um weiterzudenken und das Ganze zu reflektieren.
Andreas Krause
Andreas Krause ist Professor f¨¹r Informatik an der ETH Z¨¹rich. Zudem ist er akademischer Co-Direktor des externe SeiteSwiss Data Science Centercall_made, Vorsitzender des ETH AI Center und Mitgr¨¹nder des ETH Spin-offs externe SeiteLatticeFlowcall_made. Er war federf¨¹hrend am Aufbau des Masterprogramms Data Science, des DAS Data Science und der meistbesuchten ETH-Vorlesung ?Introduction to Machine Learning? beteiligt. 2012 erhielt er eine Goldene Eule der ETH-Studierenden f¨¹r ausgezeichnete Lehre. Zuletzt gewann er den R?ssler-Preis, den h?chstdotierten Forschungspreis an der ETH Z¨¹rich.
Serie ?Auf dem Weg zu einer vertrauensw¨¹rdigen KI?
Mit der Gr¨¹ndung des ETH AI Centers im Oktober 2020 hat sich die ETH Z¨¹rich die F?rderung vertrauensw¨¹rdiger, zug?nglicher und inklusiver KI-Systeme verschrieben. In einer Serie von Interviews und Portr?ts beleuchtet ETH-News, was diese Werte f¨¹r Forscherinnen und Forscher an der ETH bedeuten.
Einblick in die neuesten KI-Forschungsergebnisse und ihre m?glichen Auswirkungen geben auch die externe SeiteVideoscall_made aus der Serie ?AI + X? mit Mitgliedern des ETH AI Center.
Verwandte Artikel
- chevron_right Vordenker des aktiven maschinellen Lernens (ETH-News, 10.06.2021)
- chevron_right Neues Zentrum f¨¹r KI-Forschung (Medienmitteilung, 20.10.2020)
- chevron_right Alles KI? (Magazin Globe, 15.09.2020)
- chevron_right Grundlagen f¨¹r eine vertrauensw¨¹rdige k¨¹nstliche Intelligenz (ETH-News, 15.09.2020)