Autor: Heinz-Jürgen Althoff
Datum: 25.06.2019
Als Hemmnis auf dem Weg zum autonomen Fahren wird oft genannt, dass Computer niemals werden moralisch handeln können. Hierzu wird immer wieder folgende Situation angesprochen: In einem außer Kontrolle geratenen Fahrzeug muss zwischen 2 Möglichkeiten gewählt werden, beispielsweise dem Tod einer Gruppe älterer Menschen und dem eines Kindes. Zur Verkomplizierung kann man ruhig noch die dritte Möglichkeit hinzufügen, den Selbstmord durch Steuern in einen Abgrund bzw. an ein Hindernis.
So weit, so gut.
Dann aber wird argumentiert, dass ein Computer nicht in der Lage sei, moralische Entscheidungen zu treffen und in diesem Fall überfordert sei. Meiner Meinung ist aber genau das falsch, deshalb werde ich zunächst den Begriff der Moral diskutieren und dann das menschliche Verhalten in solchen Situationen.
Moral ist nach im Tenor übereinstimmenden Quellen ein Satz von in einer Gesellschaft als verbindlich empfundenen Regeln. Diese können sich je nach Religion und Gebiet sehr unterscheiden, so ist in einigen Ländern die Todesstrafe verboten, in anderen neben anderen drastischen Strafen akzeptiert. Hier sei nur die Scharia genannt.
Auch das Thema „Menschenrechte“ gehört hierher: In einigen Moralsystemen steht mehr der Mensch im Vordergrund, in anderen die Gemeinschaft. In letzterer ist es moralisch, auch mal das Leben von Einzelnen zu opfern.
https://de.wikipedia.org/wiki/Moral
https://www.duden.de/rechtschreibung/Moral
Was aber ist einem Computer einfacher beizubringen als Regeln? Insbesondere wenn sie klar definiert und eindeutig sind? Nichts, gar nichts.
Aber: Die angeführte Situation ist nach (westlicher) Moral gar nicht lösbar, da alle Leben gleich viel wert sind und die Werte von Leben nicht addierbar sind. Das Töten von einem oder mehreren Menschen einschließlich sich selbst ist absolut verboten. Ein klassisches Dilemma oder sogar Trilemma, es gibt gar keine richtige Lösung. Also kann auch der Mensch die Situation nicht moralisch lösen. Warum sollte es der Computer können?
Also kann Moral nicht der Grund sein, warum man sich vor Computern in der o. a. Situation fürchtet. Was ist es dann? Vielleicht die unmoralische Entscheidung, die der Programmierer bei der Entwicklung des Programms treffen muss (Einer oder Viele), die der Computer dann „kalt“ und gnadenlos durchzieht? Und das immer gleich, immer müssen entweder nur die Rentnergruppe oder immer die Kinder dran glauben. Schreckliche Vorstellung, zu Recht.
Schauen wir uns einmal das Verhalten des Menschen in einer solchen Situation an: Es reicht von Hilflosigkeit bis Panik. Die wenigsten behalten den kühlen Kopf, der für eine kognitive Entscheidung zwingend ist! Sehr schön wird das im Duden beschrieben: „Durch eine plötzliche Bedrohung, Gefahr hervorgerufene übermächtige Angst, die das Denken lähmt und zu kopflosen Reaktionen führt“
Das heißt aber, dass gerade nicht streng nach Regeln moralisch gehandelt wird. Ich habe das selbst erlebt, als ich bei einem sehr geringen Schreck im Linksverkehr automatisch nach rechts gelenkt habe, was in einem Unfall endete. Ein schmerzhafter Fehler, von dem mich meine ganze Intelligenz (es gibt Leute, die sagen sie sei durchaus vorhanden) nicht abgehalten hat!
https://de.wikipedia.org/wiki/Panik
https://www.duden.de/rechtschreibung/Panik
Was passiert anstelle des rationalen Denkens? Die Amygdala übernimmt, es wird auf automatisierte Prozesse umgeschaltet, die ungleich schneller reagieren als das denkende Großhirn. Das war in der Entwicklung sehr praktisch, man rennt weg, wenn man den Löwen vor sich hat und macht nicht erst einen Plan!
Das führt unmittelbar zu der Frage, wie der Mensch denn reagiert, wenn er in Angst ist. Wenn nicht kognitiv und nach äußeren Regeln, wie dann? Ganz einfach: Erratisch, zufällig. Man kann fast sagen, das Großhirn „stürzt ab“ und wird abgeschaltet. Der Mensch reagiert nach vollständig automatisierten Abläufen (nach rechts fahren), weil das die größte Aussicht auf Überleben verspricht. Was immer funktioniert hat, wird mit höchster Wahrscheinlichkeit wieder funktionieren.
https://www.angst-und-panik.de/angst–panikstoerungen/die-amygdala/
https://www.spektrum.de/lexikon/neurowissenschaft/amygdala/565
Das führt sogar manchmal zu dem Paradoxon, dass er genau das tut, was er nicht will, weil der dort hinstarrt, wo er auf keinen Fall hin möchte. Warum tut er das? Weil sein ganzer Organismus darauf programmiert ist, dorthin zu treffen, wo er hinsieht, sogar unter Berücksichtigung der Ballistik! Wie sonst könnte er bei der Jagd Speere oder Steine werfen (der Ursprung dieser Optimierung) und Golf, Basketball und Tennis spielen (die moderne Version). Nicht umsonst muss man als Motorradfahrer lernen, nicht panisch auf den Schmutz auf der Straße zu gucken, sondern auf die fast immer vorhandenen freien Stellen dazwischen! Dann rutscht man mit traumwandlerischer Sicherheit nicht mehr aus, fragen Sie meine Frau.
Weitere Kriterien sind Emotionen z. B. lieber Fremde/Hässliche als Bekannte/Schöne opfern oder andere, fast beliebige tiefliegende Auslöser, die niemand vorhersagen kann.
Daran würde sich übrigens auch nichts ändern, wenn kein moralisches Dilemma vorläge. Kognitiv verarbeitete Regeln werden in richtiger Angst immer außer Kraft gesetzt. Natürlich wirkt die Regel „Du sollst nicht töten“ bei denjenigen trotzdem, die sie wirklich verinnerlicht haben. Bei notorischen Mördern, aber auch Soldaten mit durchlebten Kampfeinsätzen bin ich da nicht ganz so sicher!
Genau aus dem Grund handelt der Computer immer moralischer als der Mensch, sofern er so programmiert wurde!
Und damit ist die Lösung logisch klar: Wie das kognitive Denken des Menschen aussetzt, muss der Computer in einem Dilemma ebenfalls gezielt zum zeitlich begrenzten Absturz gebracht werden, was ohnehin seinem normalen Verhalten entspräche. Was spricht dagegen, für solche Fälle einen Zufallsgenerator einzubauen, der bei einem hinreichend sicher erkannten Dilemma einspringt?
Damit erzielt man sicher nicht eine Kopie wirklich menschlichen Verhaltens, aber nach außen wirkt es sehr ähnlich.
Zumindest entlastet diese Strategie die Entwickler von der unmenschlichen Aufgabe, vorab in einem moralischen Dilemma unmoralisch entscheiden zu müssen. Sie würde auch verhindern, dass durch den Einsatz in vielen Autos immer nur Ältere Gruppen oder einzelne Kinder getroffen würden, jegliches Ranking verschiedenster Szenarien wäre vollkommen unnötig.
Ist das unmoralisch?