Gastkommentar

Keine Algorithmen für ethische Fragen

Technologische Innovationen wie etwa autonome Autos führen zu komplexen ethischen Konflikten, die bisher implizit, situativ gelöst wurden.

Martin Kolmar / Martin Booms
Drucken
 Kann man die virtuellen Entscheidungen eines Computers moralisch rechtfertigen? (Bild: Google)

Kann man die virtuellen Entscheidungen eines Computers moralisch rechtfertigen? (Bild: Google)

Wenn dies ein Krimi wäre (und warum auch nicht, denn es wird Tote geben und um Verantwortung gehen), begänne er vielleicht so: 1967, Oxford, die Philosophin Philippa Foot entwickelt ein Gedankenexperiment, welches die akademische Debatte über den richtigen Massstab moralischen Handelns für Jahrzehnte befeuern wird, das sogenannte Trolley-Problem: Darf eine ausser Kontrolle geratene Strassenbahn, die fünf unbeteiligte Menschen zu überrollen droht, absichtlich so umgeleitet werden, dass nur ein einzelner unschuldiger Mensch zu Tode kommt? Dieses Gedankenexperiment spielte man in unzähligen Varianten durch, um unsere moralischen Intuitionen besser zu verstehen und nach ethisch angemessenen Lösungen zu suchen.

Dann der scharfe Schnitt in die Gegenwart: Unterschiedliche Unternehmen experimentieren mit selbstfahrenden Autos, und diese Technologie wird als «next big thing» im Individualverkehr angepriesen. Fieberhaft wird an den zahllosen Problemen gearbeitet, die gelöst werden müssen, damit autonomes Fahren möglich wird. Dabei besteht allerdings ein grosses Problem, welches zum erwähnten Trolley-Problem führt.

Ein Beispiel: Ein mit fünf Personen besetztes Auto A hat auf einer Küstenstrasse einen Ausfall des Bremssystems. Ihm kommt ein mit einer Person besetztes Auto B entgegen. Ein Zusammenstoss ist unvermeidlich, wenn nicht eines der beiden Fahrzeuge über die Klippe fährt. Bleiben beide Fahrzeuge auf der Strasse, sterben sechs Menschen, fährt A über die Klippe, sterben fünf, fährt B über die Klippe, stirbt eine Person.

Bisher musste man sich über solche Fragen keine grossen Gedanken machen, weil die Entscheidung spontan vor Ort getroffen wird und die Fahrer weder die Informationen haben noch die Zeit, komplexe ethische Probleme zu lösen, wenn sie in eine solche Situation geraten. Dies ändert sich mit dem autonomen Fahren grundlegend. Wie die Autos in der geschilderten Situation reagieren, wird durch Algorithmen tief in der Software entschieden, so dass sich bei der Programmierung der Software die moralische Frage stellt, wie der Konflikt gelöst werden soll: Die Ethik muss vorab in das technische System eingespeist werden.

Aller Voraussicht nach wird autonomes Fahren deutlich sicherer werden als das heutige, nichtautonome Fahren, aber ethisch relevante Konflikte und Dilemmata (wie zum Beispiel durch technisches Versagen) werden nicht verschwinden, und daher stellt sich die Frage, wie eine Gesellschaft mit dieser Situation umgehen will. Intuitiv scheint es klar zu sein, dass wir dabei Algorithmen gestalten sollten, die sich im Konfliktfall für das kleinere Übel entscheiden. Aber wird dieser Massstab der Problemsituation wirklich immer gerecht? Und worin besteht überhaupt das kleinere Übel? Diese Fragen sind genuin ethischer Natur, so dass ihre Beantwortung nicht den Softwareingenieuren überlassen werden sollte.

Wahrscheinlich werden es viele für richtig halten, im oben geschilderten Fall das Auto mit einem Fahrgast zugunsten der fünf zu opfern – das wäre die utilitaristische Lösung des Problems: Ohne weitere Informationen über die Insassen der Fahrzeuge hiesse dies, dass man möglichst wenige Tote wollen sollte. Aber halt: Wir hätten ja prinzipiell viele Informationen, die uns Rückschlüsse über das «Glück» der Insassen erlauben.

Soziodemografische Daten wie Alter, Geschlecht, Einkommen usw. sind prinzipiell verfügbar und könnten daher in das Kalkül eingebunden werden, so zum Beispiel das Lebensalter. Zurück zum Beispiel: In Fahrzeug B befindet sich eine 18-jährige Frau mit einer Restlebenserwartung von über 60 Jahren, während im Fahrzeug A fünf über 90-jährige Menschen sitzen, deren gesamte Restlebenserwartung 10 Jahre beträgt. Opfern wir Fahrzeug A, so töten wir mehr Menschen, retten aber mehr «quality adjusted life years».

Wenn Sie nun empört «Altersdiskriminierung» rufen, zeigen Sie nur, dass Sie doch keine Utilitaristin bzw. kein Utilitarist sind. Aber wie kann es sonst gehen? Welche anderen überzeugenden ethischen Massstäbe haben wir, um eine Entscheidung zu stützen (denn entschieden werden muss ja). Die Aufrechnung von Menschenleben verstösst nicht nur gegen die moralische Intuition vieler Menschen, sondern im Grundsatz auch gegen das Prinzip der Menschenwürde, das gerade auf der Nicht-Kommensurabilität menschlichen Lebens aufbaut.

Diese Position, die auf den Philosophen Immanuel Kant zurückgeht, ist zugleich fester Bestandteil unserer Rechtssysteme und unserer Rechtsprechung: So etwa im Urteil des deutschen Bundesverfassungsgerichtes zum sogenannten Luftsicherungsgesetz 2005. Dabei ging es ebenfalls um eine dem Trolley-Problem analoge ethische Frage: Darf man ein als Terrorwaffe entführtes Passagierflugzeug abschiessen, um zu verhindern, dass dieses etwa in ein vollbesetztes Fussballstadion gelenkt wird? Darf man also die wenigen unschuldigen Passagiere im Flugzeug gezielt töten, um die grössere Anzahl unschuldiger Menschen im Stadion zu retten? Das Verfassungsgericht hatte in seinem Urteil 2005 eine entsprechende Gesetzesvorlage für verfassungswidrig erklärt, da bei einer derartigen Aufrechnung die betroffenen Passagiere zu blossen Objekten instrumentalisiert und daher ihrer Menschenwürde beraubt würden.

Aber auch diese Position ist nicht frei von Problemen: Zum einen besteht hier ein Dilemma, weil es in jedem Fall um die Verschonung oder Tötung menschlichen Lebens, also absolut schützenswerter Güter geht. Zum anderen haben Experimente zum Trolley-Problem gezeigt, dass eine solche Position für viele Menschen irgendwann an die Grenzen ihrer moralischen Plausibilität kommt. Dies sieht man, wenn man das Beispiel so verändert, dass man nicht die Wahl zwischen einem und fünf, sondern zwischen einem und hundert, tausend, einer Million oder einer Milliarde Leben hat. Irgendwann würden viele Menschen sagen, es sei richtig, den einen Menschen für die vielen zu opfern. Aber wann kippt die Waage? Darf hier wirklich bei keiner denkbaren Opferrelation verrechnet werden?

Kommen wir zurück zum Problem des autonomen Fahrens und der Notwendigkeit, ein ethisches Entscheidungsprinzip als Algorithmus in das technische System zu implementieren.

Bisher wurde von uns stillschweigend vorausgesetzt, dass die Technologie selbstfahrender Autos vernetzt ist, das heisst, dass während der Fahrt persönliche Daten (zum Beispiel über Alter, Gesundheit, Beruf) aus den Fahrzeugen an einen Zentralrechner gegeben werden, der dann entscheidet, was zu tun ist. Daraus ergeben sich nicht nur gravierende Fragen im Blick auf Persönlichkeitsrechte und Datenschutz, sondern man mag auch einwenden, dass bei einer derart vernetzten Technologie ein utilitaristisches Kalkül die Freiheitsrechte des Einzelnen auf inakzeptable Art einschränkt.

Und auch vom Standpunkt der Akzeptanz der neuen Technologie stellen sich Fragen. Bin ich bereit, in ein Fahrzeug zu steigen, von dem ich weiss, dass es in einer bestimmten Situation meinen Tod oder meine Verletzung in Kauf nimmt, um damit andere zu retten?

Auch hierfür bieten sich prinzipiell technologische Lösungen an. Heute schon kann man in einigen Autos zwischen einem sportlichen und einem komfortablen Modus wählen. Warum nicht in Zukunft auch die Wahl zwischen einem egoistischen (e-drive) und einem altruistischen (a-drive) Modus? Wählt der Fahrer den E-Modus, so wird das Fahrzeug niemals auf Kosten der Passagiere einen Unfall vermeiden, im A-Modus schon.

Auch diese Lösung bereitet Ihnen Unbehagen? Uns auch. Wichtig ist allein zu sehen, dass technologische Innovationen es erfordern, ethische Konflikte explizit zu lösen, die bisher implizit, situativ gelöst wurden. Dies bereitet uns einerseits Unbehagen, denn wir werden gezwungen, Verantwortung in Bereichen zu übernehmen, um die wir uns bisher nicht zu kümmern brauchten.

Darin liegt für uns andererseits aber auch eine grosse Chance. Wir können durch solche explizit gewählten Lösungen Todesfälle vermeiden. Und die Tatsache, dass wir eine Entscheidung fällen und systematisch umsetzen müssen, bevor wir selbst betroffen sind, macht es vielleicht einfacher, aus einer unparteilichen Position, unter dem «Schleier des Nichtwissens», wie dies der Philosoph John Rawls ausgedrückt hat, zu argumentieren. Darüber hinaus werden wir dazu gedrängt, die ethischen Grundlagen, auf denen unsere Gesellschaft fusst, zu reflektieren und zu bestimmen.

Wie wir gesehen haben, kann dies zu ungemütlichen Entscheidungssituationen führen, aber ein rationaler Diskurs – der durchaus auch verschiedene Antworten zulässt – ist allemal besser als ein Wegschauen. Dabei zeigt sich: Das autonome Fahren ist nur ein Beispiel für die Notwendigkeit, in übergreifenden gesellschaftlichen Fragen ethische Entscheidungen zu treffen und dafür Kompetenz aufzubauen.

Ein weiteres Beispiel, das sich in der Frage selbstfahrender Autos bereits andeutet, in seiner Dimension aber weit darüber hinausgeht, ist die zunehmende Digitalisierung der Gesellschaft. Datensammlung im Internet und die damit einhergehende algorithmenbasierte Entwicklung von Persönlichkeitsprofilen, die zum Zwecke eines personalisierten Pricing, personalisierter Werbung und der Auswahl der zur Verfügung gestellten Informationen erhoben werden, sind ein weiteres Grossprojekt, welches wir auch hinsichtlich seiner ethischen Dimension lieber heute als morgen anschauen sollten. Aber das wäre ein anderer Krimi.

Martin Kolmar ist Professor für Volkswirtschaftslehre, insbesondere Mikroökonomie und Public Economics, an der Universität St. Gallen, Martin Booms ist Direktor der Akademie für Sozialethik und Öffentliche Kultur in Bonn.