Eigentlich mag ich Hunde, aber wäre ich ein selbstfahrendes Auto, ein auf der Fahrbahn laufender Hund wäre wahrscheinlich so gut wie tot. Das legt zumindest mein Ergebnis eines Online-Tests des US-amerikanischen MIT nahe, der sich mit einem viel diskutierten Problem des autonomen Autofahrens beschäftigt.
In 13 unterschiedlichen Szenarien muss der Testteilnehmer dort entscheiden, wie ein autonomes Auto handeln soll. Es gibt jeweils zwei Möglichkeiten, also zum Beispiel einen Hund überfahren oder gegen eine Mauer prallen, aber auch eine Gruppe junger Menschen überfahren, oder eine Gruppe älterer Menschen. Spätestens bei der letzten Situation macht der Test seinem Namen alle Ehre: Moral Machine.
Das selbstfahrende Autos gehört zu den Entwicklungen, die nicht nur nach Expertenmeinungen tatsächlich auch kommen werden. Die Autoindustrie arbeitet bereits an verschiedenen Modellen, Google testet sein selbstfahrendes Auto bereits seit einigen Jahren und Tesla liefert einen Fahrassistenten mit, den es nur aus rechtlichen Gründen noch nicht als „selbstfahrend“ bezeichnen kann.
Mit der Akzeptanz ist es freilich so eine Sache. In technisch progressiven Ländern wie den USA oder Japan stellen sich viele quasi gerne als Testfahrer zur Verfügung, weil sie an der neuen Entwicklung teilhaben wollen. Im Auto verliebten Deutschland dagegen fährt man(n) lieber selbst, und steht der Entwicklung skeptisch gegenüber. Eine völlig unberechtigte Skepsis allerdings, die am Ende des Tages nichts anderes ist, als eine Verteidigung des Rechtes möglichst lange im Stau stehen zu dürfen. Denn auch darüber, dass ein autonom geregelter Verkehr wesentlich flüssiger laufen würde, besteht große Einigkeit. Ebenso einig ist man sich darüber, dass autonomes Fahren die Unfallhäufigkeit extrem senken wird. Allein, auf Null würde auch das autonome Fahren die Unfallzahl nicht reduzieren können. Und genau da beginnt das Problem, mit dem sich das MIT auch mittels der Moral Machine auseinandersetzt.
Das autonome Auto fährt deshalb so gut, weil es die Verkehrssituation weit schneller vorausberechnen kann, als jede menschliche Intuition. Es kann also auch vorhersagen, dass in einer Situation ein Ausweichen nach rechts dem Fahrer das Leben rettet, einen Fußgänger aber töten wird bzw. ein Ausweichen nach links den Fußgänger mit einem Schock davon kommen lässt, aber der Fahrer sterben muss. Dem Auto ist das egal, es spult seine für diesen Fall eingegebenen Befehle ab. Theoretisch könnte man mit Hilfe des maschinellen Lernens tatsächlich auch dem Auto die Entscheidung überlassen, aber soviel eigene Entscheidungskraft will man dem Algorithmus berechtigterweise doch nicht geben. Dadurch taucht aber ein weiteres Problem auf: Der Mensch muss vorher festlegen, was geschehen soll.
Es gibt vermeintlich einfache Szenarien, über die wir uns wahrscheinlich schnell einige werden würden. Nehmen wir an, das Auto muss sich zwischen dem Leben seines 40jährigen Fahrers entscheiden und einer jungen Mutter, die mit ihrem Kinderwagen die Straße überquert. Instinktiv würde die Mehrheit von uns sagen, dass die Mutter und das Kind gerettet werden müssten. Der gleiche Instinkt würde uns aber auch davon abhalten, auch nur einen Fuß in ein Auto zu setzen, das im Fall der Fälle entscheidet uns sterben zu lassen.
Unser Instinkt scheint tatsächlich zu einer unitaristischen Entscheidung zu tendieren. Gerade wenn ein Kind im Spiel ist, ist es ur-menschlich alles zu tun, um das Kind zu schützen. Das tat der Mensch schon damals, als er sich zum ersten Mal auf zwei Beine stellte, um über die afrikanische Steppe hinwegzusehen. Natürlich schützt uns der Instinkt allerdings auch vor den Auswüchsen der Utilitarismus, wenn mit einem modernen Vertreter dieser Philosophie ein Peter Singer das Leben eines Tieres über das eines gerade geborenen Säuglings stellt, weil der Säugling in seiner Entwicklung noch hinter dem Tier hinterherhinkt. Unser gesunder Menschenverstand weiß, dass wir mit dem Schutz des Kindes auch dessen Potential beschützen, das es von Beginn an besitzt.
Was für Programmierer am Utilitarismus so verführerisch ist, ist seine sprichwörtliche Berechenbarkeit. Es ließe sich tatsächlich relativ leicht eine Tabelle erstellen, in der zum Beispiel das Leben eines Kindes höher einzuschätzen ist, als das eines Erwachsenen, oder der Tod von zwei Menschen schlimmer ist, als der Tod eines Menschen. Spätestens da sind wir allerdings wieder bei Peter Singer, wir bewerten das Leben eines einzelnen Menschen – wir geben seinem Leben einen Wert, und der kann geringer sein, als der Wert eines anderen Menschen. Man muss nicht erst seinen Immanuel Kant gelesen haben, um dahinter eine Problematik zu erkennen. Mit der kantschen Philosophie allerdings, wird sich das Dilemma noch weniger lösen lassen. Und wenn wir ehrlich sind, natürlich bewertet unsere Gesellschaft das Leben von Menschen. Allein, wie zum Beispiel in der Abtreibungsfrage, war diese Bewertung des Lebens eines Menschen ein Prozess, keine Entscheidung, die bewusst auf einen Schlag zu treffen ist.
Wie können wir also dieses Dilemma lösen? Es gibt Ansätze, die allerdings allesamt halbgar klingen. Man könnte die Verantwortung auf den Fahrer abwälzen, der ehe er ein autonomes Auto nutzen darf, diese Entscheidung selbst treffen muss. Er müsste das aber, nimmt man es ernst, wahrscheinlich so gut wie bei jeder Fahrt aufs Neue tun, oder? Man könnte dem Fahrer im Moment der Gefahr die Kontrolle über das Auto zurückgeben, aber was ist, wenn er gerade vor sich hindöst? Man könnte den Zufall entscheiden lassen … man könnte, man könnte, man könnte. Eine Lösung jedenfalls ist noch nicht in Sicht, die Köpfe rauchen und so manch Entwickler versucht sicher das Problem zu umschiffen, indem er das autonome Fahren so sicher wie möglich macht. Dabei wissen wir allerdings eines ganz sicher, vollkommen ausschließen kann Unfälle nicht einmal das autonome Fahren.
Machen Sie den Test selbst: http://moralmachine.mit.edu/hl/
Dieser Beitrag erschien zuerst auf Denkzeit.net.
Schreibe einen Kommentar