Das mutet wie ein harmloses Computerspiel an: Ein Automobil bewegt sich auf einen Fußgängerüberweg zu. Darauf eine Gruppe von Passanten. Das Kfz kann aufgrund eines plötzlichen Bremsversagens nicht mehr anhalten. Jetzt soll der Mensch am Bildschirm entscheiden, ob das Auto die Passanten auf dem Zebrastreifen überfahren soll – mit dem Ergebnis, dass alle diese Passanten zu Tode kommen – oder ausweichen und mit einem schweren Hindernis kollidieren soll, was wiederum den Tod aller Insassen zur Folge hätte. Wen soll´s treffen?!
Kaum ist eine Entscheidung per Klick auf das entsprechende Szenario getroffen, erscheint eine Abwandlung derselben Frage. Diesmal kommen per Mausklick entweder ein Jogger mit Hund oder eine Mutter mit Kind ums Leben. Ändert sich das Urteil, wenn die Frau die Fahrbahn überquert, während die Fußgängerampel auf Rot steht? – Klick. Was, wenn sie auch noch dick ist? – Klick. Und wie sieht es aus, wenn statt des Lebens des Joggers das dreier Pflegepersonen auf dem Spiel steht?
Der makabre Fragenkatalog ist kein Spiel, sondern ein Forschungsinstrument. Wissenschaftler am Massachusetts Institute of Technology wollen herausfinden, wie autonome Fahrzeuge programmiert sein sollten, damit sie, wenn es zu einem tragischen Unfall kommt, die größtmögliche gesellschaftliche Anerkennung genießen. Es könnte zu Situationen kommen, in denen das Fahrzeug autonom über Leib und Leben entscheiden müsste. Um dies angemessen zu programmieren, muss man erst genauer verstehen, wie und nach welchen Kriterien Menschen solche Entscheidungen fällen. Und so spucken die Algorithmen der „Moral-App“ immer neue Szenarien aus; endlose Varianten des gleichen Dilemmas …
Die meisten Menschen befürworten autonome Fahrzeuge, die größtenteils utilitaristisch handeln, den Schaden für die Gesamtheit der Betroffenen minimieren. Entsprechend wird ein Kind eher geschont als alte Menschen, Einzelne geopfert anstelle einer Personengruppe – auch wenn das bedeutet, dass gelegentlich die Fahrzeuginsassen den Kürzeren ziehen. Nutzen möchten die Befragten aber oft nur ein Kfz, dass der Unversehrtheit der Insassen eine größere Bedeutung zumisst als der der übrigen Verkehrsteilnehmer.
Autonome Fahrzeuge werden nie lernen, zu entscheiden wie ein Mensch. Maschinen können allenfalls lernen, aus zahlreichen von Menschen getroffenen Entscheidungen eine Regel abzuleiten. Nur ist, was alle tun, nicht notwendigerweise moralisch richtig. Die Vorstellung von einer solchen „empirischen Ethik“ ist abstrus, denn sobald aus der Präferenz vieler eine allgemeine Regel nach dem Schema „Kinder vor Alten“ oder „Gruppen vor Einzelpersonen“ abgeleitet wird, geschieht eine Diskriminierung. Auch verfängt das Argument nicht, dass ein autonomes Auto nur dann gesellschaftliche Akzeptanz finden kann, wenn dessen „Entscheidungen“ sich decken mit dem, was die breitere Bevölkerung für das kleinere Übel hält. Wir haben entschieden, dass ein Leben nicht gegen ein anderes aufgerechnet werden darf. Das ist einer der Basisgrundsätze unserer Verfassung.
Weiter muss man sich vor dem Schluss hüten, dass die Antworten der Probanden im Simulator deren Reaktion in der Realität abbilden; mit großer Wahrscheinlichkeit tun sie das nicht. Das zeigen einschlägige Erfahrungen mit Piloten, die mit einem Kleinflugzeug in Not geraten: Beim Training im Simulator folgen die Piloten den Instruktionen und landen auf einem Acker, wo sie keine Unbeteiligten in Gefahr bringen. Im Angesicht der realen Bedrohung jedoch überwiegt der Drang, die eigene Haut zu retten – das zeigte vor Kurzem die Notlandung einer Cessna an einem belebten Strand bei Lissabon. Den Probanden der Ethik-Experimente zum autonomen Fahren fehlt dasselbe entscheidende Kriterium: Sie sitzen nicht drin!
Schließlich bewegt sich die Diskussion um autonome Fahrzeuge in Dilemma-Situationen in gedanklicher Schieflage: Einerseits unterstellt sie eine bis in utopische Sphären fortgeschrittene maschinelle Intelligenz, die offenbar problemlos Fußgänger nicht nur als solche erkennt, sondern diese auch noch nach diversen Merkmalen unterscheiden und außerdem die konkreten Folgen der Kollision für alle Beteiligten abschätzen kann. Diese Welt vollständiger künstlicher Intelligenz (von der wir noch weit entfernt sind) paart sich im Gedankenexperiment mit einer Ignoranz gegenüber Veränderungen, die autonome Fahrzeuge für den Straßenverkehr in seiner Gesamtheit mit sich bringen werden.
Mysteriöse Regeln, nach denen irgendwann algorithmisch entschieden wird, wer überfahren werden darf, werden schwerlich bei der Lösung dieser Problematik helfen. Vielmehr tut eine Diskussion um die Risiken not, die wir im Straßenverkehr einzugehen bereit sind. Einige davon ließen sich mit autonomen Fahrzeugen vermindern, indem Sicherungsmechanismen eingebaut würden, wie sie im Flugverkehr selbstverständlich sind.
Für Automobile ist das bis dato nicht gefordert. Vergessen wir eines nicht:
Der gegenwärtig größte Risikofaktor im Verkehr ist der Mensch!