Selbstfahrende Autos - wie soll die KI entscheiden?

      Selbstfahrende Autos - wie soll die KI entscheiden?

      So, da ich mich entschieden habe, mir heute um 03:00 noch Wahnwitziger Psychopath vs. Opportunistische Bitch Part 2 zu geben, habe ich zum Zeitvertreib dahin ein bisschen im Netz gesurft und bin auf diese interessante Seite gestoßen. Selbstfahrende Autos sind ja schon seit längerem ein Thema in den Medien und die Frage, nach welchen Prinzipien die KI entscheiden sollte, wird heiß diskutiert. Auf der oben verlinkten Seite kann man das dann selbst anhand einer Reihe von Szenarien (die natürlich sehr stark konstruiert und bisweilen unrealistisch sind) ausprobieren. Mich würde interessieren, welche Entscheidungen die Forengemeinde so trifft und nach welchen Kriterien ihr handelt. Bei mir waren es:
      Spoiler anzeigen
      In der Reihenfolge der Priorität:

      - bei Tier gegen Mensch habe ich mich grundsätzlich gegen die Tiere entschieden. Der Hund war bei der Auswertung auch mein am häufigsten getöteter Charakter.
      - bei Insassen gegen Passanten habe ich, wenn beide menschlich waren, grundsätzlich gegen die Insassen entschieden, weil sie sich für das Autofahren und somit auch das damit einhergehende Risiko entschieden haben. Zwar haben sie eine defekte Bremse nicht zwingend zu verantworten, aber wenn man sich entscheiden muss, erscheint es mir noch unfairer, gänzlich Unbeteiligte sterben zu lassen.
      - bei abweichenden Zahlen habe ich die kleinere Menge an Personen getötet
      - bei kriminell gegen nicht kriminell habe ich mich für die nicht kriminelle Seite entschieden. Rote Ampeln habe ich aber komplett ignoriert. Bin ja nicht Inspektor Chiba.
      - bei jung gegen alt habe ich jung vorgezogen, was wahrscheinlich meine am wenigsten logische Entscheidung war. Man könnte zwar mit der längeren Lebenserwartung argumentieren, aber dann hätte ich bei den nachfolgenden Kriterien ja auch klare Entscheidungen treffen können, statt sie zu ignorieren.
      - obdachlos gegen sozial erfolgreich habe ich als Kriterium ignoriert
      - bei Frau gegen Mann habe ich den Zufall entscheiden lassen
      - dicklich gegen athletisch habe ich auch ignoriert


      Joa, würde mich echt interessieren, was bei anderen Leuten so rauskommt. Ich frage mich auch, mit welchen Einstellungen die ersten massentauglichen selbstfahrenden Autos auf den Markt kommen werden. Fahrzeuge, die wie in meinen Szenarien tendenziell ihre Insassen opfern, dürften sich ja eher schlecht verkaufen.
      Spoiler anzeigen
      Bei mir die Katze das am häufigsten getötete. Habe auch präferiert Menschen gerettet. Das war die leichteste Entscheidung, abgesehen davon, dass ich auch Ampeln ignoriert hab und erst nach ner Weile gemerkt hab, dass der eine Typ ein Bankräuber ist. (Woher soll das Auto das wissen? :D)
      Habe auch eher Passanten als Passagiere gerettet. Mal abgesehen davon, dass es hier nur kill or die gibt (Wenn man das Auto gegen die Wand fährt, ist die Chance, dass Insassen überleben höher als, wenn man volles Produkt über die Passanten düst.), liegt die Verantwortung bei den fahrenden.
      Gender, Age und Fittness habe ich nicht differenziert. Warum auch?
      Wichtiger Punkt ist mMn noch Intervention. Glaube das macht sogar rechtlich einen Unterschied. Gibt ja dieses bekannte Zugdilemma, bei dem man entscheiden muss, ob man lieber einen Zug über 5 Leute fahren lässt, oder die Weiche umstellt, um den Zug über 3 Leute rollen zu lassen. In dem Moment wo ich die Weiche auf die 3 Leute stelle, bin ich persönlich für die Handlung verantwortlich und unter Umständen haftbar, auch wenn hier zwei Leute weniger sterben. Die 3 waren in dem Szenario unbeteiligt, bis ich die Weiche auf sie stelle. Genauso verhält es sich auch, wenn das Auto auf Passanten lenkt, die eigentlich verschont geblieben wären.