SN.AT / Leben / Mobilität

Autonome Autos - Wenn Roboter entscheiden

Autonom fahrende Autos: Wie reagiert der Computer bei drohendem Unfall? Eine US-Studie vergleicht menschliche Entscheidungen im Crash-Dilemma.

Wie würden sich autonome Autos, im Vergleich zu Menschen, bei gefährlichen Situationen verhalten?
Wie würden sich autonome Autos, im Vergleich zu Menschen, bei gefährlichen Situationen verhalten?

Aus der Science-Fiction-Literatur und entsprechenden Filmen kennt man das oberste Robotergesetz, wie es der Genre-Schriftsteller Isaac Asimov formulierte. Danach darf "ein Roboter einem menschlichen Wesen keinen Schaden zufügen oder durch Untätigkeit zulassen, dass einem menschlichen Wesen Schaden zugefügt wird". Dem liegt die Fantasie vieler Zukunftsautoren zugrunde, dass sich Roboter verselbstständigen und gegen ihre Erbauer erheben sowie diese letztlich versklaven könnten. Eine solche Vision ist bei autonomen Fahrzeugen, die ja auch als Roboterautos bezeichnet werden, allerdings sehr weit hergeholt. Dennoch, und weil die Entwicklung im Bereich der autonomen Mobilität mit Riesenschritten vorankommt, beschäftigt nicht nur Forscher das Thema des sogenannten Entscheidungsdilemmas bei fahrerlosen Fahrzeugen. Konkret geht es dabei zum Beispiel um die Frage, wie künstliche Intelligenz (KI) in einem autonomen Fahrzeug lenken soll, wenn ein Crash auf jeden Fall unausweichlich ist. In dem Zusammenhang ist dann auch zu entscheiden, wer bei dem Unfall verletzt wird: ein Tier, ein anderer Verkehrsteilnehmer oder die Insassen des betreffenden Fahrzeugs. Diese Situation würde auch viele Menschen in einen Konflikt stürzen.

Wie reagieren Menschen bei einem drohendem Unfall?

US-Forscher vom Massachusetts Institute of Technology (MIT) in Cambridge haben nun versucht herauszubekommen, welche Prioritäten Menschen in einem solchen Fall setzen würden. Sie starteten im Internet unter dem Titel "Moral Machine" eine Umfrage, die weltweit große Resonanz fand. Deshalb konnten die Wissenschafter nahezu 40 Mill. Entscheidungen in Dilemma-Situationen auswerten. Allerdings darf die Untersuchung nicht als repräsentativ gelten, weil an ihr unter anderem überproportional viele junge Männer teilnahmen. Dennoch erwiesen sich die Antworten als aufschlussreich.

So mussten die Probanden auswählen, ob etwa drei ältere Passanten, die bei Rot eine Straße überqueren, bei versagenden Bremsen überfahren werden sollten oder ob der autonome Wagen diese Menschen verschonen und stattdessen das
Auto gegen eine Betonwand fahren sollte. Letztere Aktion bedeutete
dabei den Tod der Insassen des Wagens, unter ihnen ein Kind. Alles in allem hatten die Teilnehmer an der Umfrage in neun kniffligen Situationen zu entscheiden, zwischen Fahrzeuginsassen und Fußgängern, Männern und Frauen, jüngeren und älteren Menschen etc. Auch Personen mit einem höheren oder niedrigeren sozialen Status standen zur Wahl.

Ergebnisse sind Länderabhängig

Bei der Auswertung der Antworten machten die MIT-Forscher drei regionale Gruppen aus: In den asiatischen Ländern (östlicher Cluster) tendierten die Teilnehmer eher dazu, jüngere Menschen nicht zu verschonen. Damit wichen sie von den anderen Gruppen - dem westlichen Cluster (Europa, Nordamerika) und südlichen Cluster (Mittel- und Südamerika) - ab. Das erklären die Wissenschafter mit dem Respekt, der älteren Menschen in asiatischen Ländern bis heute von der Gesellschaft entgegengebracht wird. Im Vergleich der westlichen und südlichen Cluster fiel auf, dass die Mittel- und Südamerikaner sehr viel öfter in das Geschehen eingreifen würden, als einfach nur Passagier zu bleiben und das Lenken der automatischen Steuerung zu überlassen.

Sachschaden immer vor Personenschaden

Die "notwendigen ethischen Leitlinien für das automatisierte und vernetzte Fahren", die von der deutschen Ethik-Kommission im Auftrag des Bundesverkehrsministeriums erarbeitet und 2017 vorgestellt wurden, besagten klar, dass Sachschaden immer Personenschaden vorzuziehen sei. Eine Qualifizierung der Menschen sei unzulässig.