KI & Ethik: Was darf Künstliche Intelligenz?

Die Podiumsdiskussion Mitte Oktober war Teil der Veranstaltungsreihe „Gehirn der Zukunft“. Sie wurde von der Hertie-Stiftung, den Partnern des Cyber Valley und der Frankfurter Allgemeinen Zeitung ausgerichtet.

Rund 200 Gäste, darunter Forschende, Studierende, Alumni und Beschäftigte der Universität Stuttgart sowie Bürgerinnen und Bürger der Stadt besuchten die Veranstaltung „KI & Ethik: Was darf Künstliche Intelligenz?“. Rektor Prof. Wolfram Ressel betonte in seinem Grußwort, dass das Thema KI und Ethik zwei Felder zusammenbringt, die an der Universität von Bedeutung sind. Das zeige sich zum Beispiel daran, dass die Universität Gründungsmitglied des Cyber Valleys ist und das Gebäude KII, in dem die Podiumsdiskussion stattfindet, die Heimat der Philosophisch-Historischen Fakultät ist.

Die vier Podiumsgäste Prof. Regina Ammicht Quinn (Universität Tübingen), Prof. Dr. Markus Frings (Evangelisches Klinikum Niederrhein), Dr. Christoph Peylo (Robert Bosch GmbH) und Juniorprofessor Dr. Michael Sedlmair (Universität Stuttgart) hielten im ersten Teil des Abends jeweils kurze Vorträge. Carsten Knop (FAZ) moderierte die Veranstaltung. Nach einer Pause mit Gelegenheit zum Gespräch, stand eine Podiumsdiskussion auf dem Programm.

„Was meinen wir mit Moral?“ fragt der Arzt für Neurologie Prof. Markus Frings. Der Utilitarismus definiere die Moral einer Handlung nach deren Konsequenz, eine Handlung ist demnach dann moralisch richtig, wenn sie einen großen Nutzen hat. Beim kategorischen Imperativ von Kant dagegen, sei es moralisch richtig, wer so handelt, dass es als Prinzip einer allgemeinen Gesetzgebung gelten könnte. Frings brachte das bekannte Beispiel folgender Situation: Ein Zug naht, es gibt zwei Gleise. Auf dem einen Gleis liegen fünf Personen angebunden, auf dem anderen nur eine. Ein Mensch muss nun entscheiden, wie er die Weiche stellt, um den Zug entsprechend zu leiten. Entweder werden ein Mensch oder fünf Menschen sterben. Nach dem Utilitarismus wäre die erste Möglichkeit moralisch richtig. Doch dies sei eine sehr artifizielle Situationsbeschreibung so Frings. Nicht nur eine Maschine, auch „jeder Mensch ist mit dieser Entscheidung überfordert.“ Deshalb sei es auch so schwierig, diese Entscheidung schon vorher bei der Programmierung zu treffen, ohne dass schon eine Notsituation vorliege. Überhaupt sei alles noch viel komplizierter, nähme man noch die Definitionen der Philosophie und der Psychoanalytik hinzu, so Frings. Nach Freud bestimme das „Über ich“ die Regeln nach denen Menschen handeln.

Der Arzt für Neurologie Dr. Markus Frings berichtet von Untersuchungen an Patienten, die nahe legen, dass unterschiedliche Systeme im menschlichen Gehirn an moralischen Urteilen beteiligt sind. Es gibt also nicht das eine „Moralzentrum“ im Gehirn. In der Radiologie und Genom-Analyse wird KI schon erfolgreich eingesetzt. Doch für einige Entscheidungen wird es immer den Menschen brauchen, ist er überzeugt.  

Was kann, soll und will eine Ethik der KI?

„Unternehmen, Forschung, Politik und Gesellschaft – alle rufen nach ethischen Richtlinien“, erklärt Prof. Dr. Regina Ammicht Quinn, Sprecherin des Internationalen Zentrums für Ethik in den Wissenschaften (IZEW) der Universität Tübingen. Woran liegt es, dass der Ruf nach Ethik gerade von allen Seiten kommt, fragt die Wissenschaftlerin. Sie befürchtet, dass ethische Richtlinien eingesetzt werden sollen, weil sie nicht so bindend seien wie gesetzliche Richtlinien.

Ethik werde oft als Bremse für neue Technologien angesehen. Es sei aber eine  kritische Analyse. Viele Menschen bewerten KI sehr skeptisch, darüber hinaus herrschen viele Ängste in Bezug auf die Technik, z.B. dass die KI den Menschen überflügeln könnte, beschreibt Quinn die gegenwärtige Situation. „Die Frage nach dem richtigen Handeln in Krisensituationen, die Frage nach dem guten Leben – damit beschäftigt sich Ethik“, erläutert Quinn. Eine Rolle spielen dabei Prinzipien wie Freiheit, Transparenz, Datenschutz und Machtverhältnisse. „Die Frage, wem nutzt die Technologie, ist wichtig“, erklärt sie. Öffentliche Einrichtungen müssen ihre  besondere Verantwortung beim Einsatz von KI beachten. Als Beispiel nennt sie den Arbeitsmarktservice Österreich. Hier werden Arbeitsuchende in drei Gruppen eingeteilt, die sehr gut, mittelmäßig oder sehr schlecht vermittelbar sind. Die Gruppeneinteilung erfolgt anhand von Daten, die viele Menschen, wie Frauen oder ältere Menschen der schlecht vermittelbaren Gruppe zuweist. Da die mittlere Gruppe besonders viel Unterstützung erhält, ist die Wahrscheinlichkeit, dass Frauen und ältere Menschen weniger Förderung erhalten, groß, prangert die Wissenschaftlerin an. Das Beispiel zeige, wie wichtig die zugrundeliegenden Daten und deren Transparenz sind, die von der KI genutzt werden.

„Der Mensch ist nicht die Summe aller seiner Daten. Es gibt auch intuitives Wissen, taktiles Wissen, Erfahrungswissen, dies wird bei KI nicht berücksichtigt“, gibt Regina Quinn zu bedenken. Sie fordert die Wissenschaft auf, mehr zu erklären und damit eine größere Transparenz herzustellen. An die Wirtschaft adressiert sie, zu erkennen, dass ethische Selbstverpflichtungen keine rechtlichen Regeln ersetzen können. Politik müsse diese rechtlichen Regeln schaffen. Die Gesellschaft solle eine Kultur des Be-Denkens entwickeln.

KI, Ethik und Vertrauenswürdigkeit
Dr. Christoph Peylo ist Global Head des Bosch Center for Artificial Intelligence (BCAI) und Leiter der Arbeitsgruppe Mobilität, intelligente Verkehrssysteme der Plattform Lernende Systeme des Bundesministeriums für Bildung und Forschung. Er erklärt, dass seine Firma sich schon unter den Firmengründer Robert Bosch der Vorgabe „Technik fürs Leben“ verschrieben hat. Dies zähle immer noch im besonderen Maße zu den Grundsätzen der Firma. Peylo bezeichnet sich als Anwender der Künstlichen Intelligenz. Er erklärt: „Automatisiertes Fahren ist ein großes Thema, doch hier sind die Herausforderungen noch sehr groß.“ Bei Bosch werde vor allem in der industriellen Fertigung schon oft mit dem Einsatz von KI gearbeitet. „Wir trainieren Maschinen“. Wichtig sei, dass Entwicklungen und Implementierungen sicher, erklärbar und robust sind. „Negativ ist, dass oft unreife Implementierungen verwendet werden oder unbeabsichtigte oder böswillige Strategien dahinter stehen“, so Peylo.

KI visualisieren und verstehen

Michael Sedlmair ist Juniorprofessor am Fachbereich Informatik der Universität Stuttgart. Mensch-Maschine Interaktion ist einer seiner Forschungsschwerpunkte. Er untersucht, wie große und komplexe Datenmengen dem Menschen besser verstehbar gemacht werden können. „Künstliche Intelligenz, dahinter verbergen sich datengetriebene Algorithmen, die menschliche Aufgaben übernehmen können. Eine Grundlage dafür ist maschinelles Lernen“, erklärt er dem Publikum. Sodann greift er Fragen auf, die viele Menschen zu diesem Thema haben:

KI kann Vorhersagen treffen, ein weiterer Schwerpunkt liegt in der Sprach- und Gesichtserkennung. Ein Beispiel ist der Einsatz im Gesundheitswesen. Daten von Gen-Analysen ermöglichen das Vorhersagen von Krankheiten. Auch bei der Verbrechensbekämpfung und selbstfahrenden Autos gehe es um Vorhersagen, z.B. in welche Richtung sich ein Mensch bewegt.

Vorhersagen treffen nicht immer zu. Zum Teil sind die zugrunde liegenden Daten nicht angemessen. Bei Gesundheitsdaten, sind es zum Beispiel mit großer Mehrheit die Daten von westlichen Männern, für asiatische Frauen, bräuchte man andere Daten, erläutert der Informatiker. Vorhersagen, die sich auf Populationen beziehen, treffen nicht auf Individuen zu. Wenn sie trotzdem genutzt werden, führt dies oft zu Nachteilen für die einzelnen Individuen. So können Vorhersagen vorherrschende Bedingungen verstärken. Beispiel: Über Stadtviertel in denen die Kriminalität hoch ist, werden Vorhersagen über deren Bewohner gemacht. „Die Gefahr ist groß, dass wir in Sachen eingreifen, von denen wir kein Verständnis haben“, gibt Sedlmair zu Bedenken.

„Wir müssen versuchen, die Daten und Modelle besser zu verstehen, sie zu analysieren. Wir müssen KI erklärbar machen“, so der Wissenschaftler. Eine visuelle Darstellung mache oft Zusammenhänge deutlich sichtbar. Sedlmair empfiehlt, das Informatiker mehr über das Thema Ethik lernen sollten und die Gesellschaft ein größeres Verständnis über technische Zusammenhänge haben müsste.

Podiumsdiskussion

Nach den Vorträgen stellten sich die Wissenschaftler und die Wissenschaftlerin den Fragen des Moderators und des Publikums.

Wie weit ist KI?
Wir sind schon weit gekommen. Doch selbstfahrende Autos wird es in naher Zukunft nicht geben, darin sind sich Christoph Peylo und Michael Sedlmair einig. Die geniale, schlaue KI sei noch in weiter Ferne.

Schaffen wir es in Europa einen eigenen Weg mit ethischen Regeln zu gehen, im Vergleich zu den USA und China?
Regina Ammicht Quinn schätzt optimistisch, dass die Chance groß ist. Sie glaubt, dass es eine Art ethisches Zertifikat für den Einsatz von KI geben könnte. Auch Michael Sedlmair glaubt, dass man in Europa einen anderen Weg als die USA oder China gehen kann.

Können Maschinen moralisch handeln? Sollen sie über Leben und Tod entscheiden können?
„Momentan noch nicht, Maschinen können bisher nach bestimmten Regeln handeln, nach dem Muster ‚Du sollst‘, bzw. ‚Du sollst nicht‘“, antwortet Christoph Peylo und erklärt: „Es gibt jetzt schon Maschinen, die in Situationen eingreifen wie z.B. Airbags, allerdings nach genauen Regeln, die der Mensch gesetzt hat. Das eine Maschine abwägen kann, so weit sind wir noch nicht.“

Das Cyber Valley, das Partner der Veranstaltung war, besteht seit 2016 als Forschungsverbund zu Künstlicher Intelligenz und wird getragen vom Max-Planck-Institut für Intelligente Systeme, den Universitäten Tübingen und Stuttgart, sieben Industriepartnern und dem Land Baden-Württemberg. 

Zum Seitenanfang