Welche Corona-Maßnahmen würde Immanuel Kant treffen?

Ein beliebter Zeitvertreib in intellektuellen Zirkeln war und ist zu jeder Zeit die Diskussion über Ethik und Moral. Schon die alt ehrwürdigen Philisophen wie Kant, Russels, Aristoteles haben sich darüber den Kopf zerbrochen, wie man einfache Regeln aufstellen kann, um auch für weniger philosophisch betuchte Mitbürger Gut und Schlecht unterscheidbar zu machen. Für Menschen ist das eine Lebensaufgabe – damals genauso wie heute.

Aber wie treffen Computer Entscheidungen? Scheinbar banal könnte man glauben, dass Computer einfach Zahlen hoch addieren und damit Alternativen entsprechend objektiv bewerten können. Das stimmt auch in letzter Konsequenz. Aber die wirklich relevante Frage ist, welche philosophische Denkrichtung als Basis für die Programmierung fungiert. Also sozusagen die Spielregeln vorgibt, nach denen die Zahlen hoch addiert werden. 

Machen wir es konkret:

Ein bekanntes Gedankenexperiment in der Moralphilosophie ist das sogenannte “Trolley-Problem”  (dt. “Weichenstellerfall”): 

Ein Zug fährt auf eine Menschenmenge zu, die mit großer Wahrscheinlichkeit zu Schaden kommen wird. Einige Meter vor dieser Menschenmenge befindet sich eine Weiche und eine Person, die diese Weiche bedienen kann. Dieser Weichensteller steht nun vor einer folgenschweren Entscheidung: 

  • Er könnte den Zug mittels der Weiche auf ein anderes Gleis umleiten, wo eine geringere Anzahl von Menschen zu Schaden kommen würden. Oder…
  • er könnte einfach nichts tun und abwarten, was passiert.

Was wäre also die “beste” Entscheidung? 

Die vermutlich erste Reaktion ist ein klares “Ja, die Weiche umstellen”, weil damit der Gesamtschaden reduziert würde. Das klingt logisch und moralisch richtig.

Aber könnte man nicht auch argumentieren, dass der Weichensteller dann ein Mörder ist, weil er durch sein Handeln den Tod von Menschen verschuldet hat? Rein faktisch ist er das, denn er hat eine Entscheidung getroffen und eine Aktion gesetzt, die ursächlich zu dem Tod von Menschen geführt hat. Dass er mit dieser Aktion, das Leben von anderen geschützt hat, würde ihn zwar persönlich ehren, hätte aber vor Gericht möglicherweise keinen Bestand.

Noch komplexer wird die Bewertung dieser Entscheidung, wenn die Wahrscheinlichkeiten für das Eintreten eines Unglücks in den beiden Alternativen ungleich wären, d.h. dass beim Belassen der Weichenstellung möglicherweise und beim Umleiten aber sicher Personen zu Schaden kommen würden. 1

Man kann sich leicht vorstellen, dass derartige Entscheidungssituationen beliebig komplex werden können. Für uns Menschen spielt die Komplexität glücklicherweise eine geringere Rolle, weil wir einerseits nicht so analytisch denken und uns andererseits meistens die Zeit für die tiefgründige Evaluierung fehlt. Wir entscheiden dann in dem Moment “aus dem Bauch heraus”.

Für Algorithmen bestehen diese Einschränkungen nicht. Computer können (und müssen) aufgrund der verfügbaren Fakten entscheiden und haben aufgrund ihrer Rechengeschwindigkeit die Kapazität, all dies rechtzeitig zu berechnen. Beim autonomen Fahren wird es ständig hoch komplexe Entscheidungssituationen geben, z.B:

  • Bei Vollbremsung: Gesundheit der Fahrzeuginsassen versus Fussgänger
  • bei Lenkmanövern: Schulbus mit Dutzenden Kindern versus einzelner Cabrio-Fahrer
  • bei Beschleunigung: Optimierung der Fahrtdauer versus potentielle Gefahren bei höherer Geschwindigkeit

Die große Frage ist also, welche Basis (=philosophische Denkrichtung) soll den “Spielregeln” für die Berechnung dieser Entscheidungssituationen zugrunde gelegt werden? Bzw. noch konkreter formuliert: Wie sollten Software-Entwickler die Software in den selbstfahrenden Autos von heute und morgen gestalten? 

Dass nun jeder Software-Entwickler ein Experte für philosophische Denkrichtungen sein muss, ist vermutlich übertrieben. Allerdings wird in dem Maß, in dem Software wichtiger wird, auch die moralische und ethische Verantwortung für die Personen, die sie gestalten, größer. “Bauchgefühl” allein wird hierfür nicht ausreichen, es braucht ein konzeptionelles Verständnis und eine breitere öffentliche Diskussion. Diese sollte sich sowohl auf generelle Maßnahmen (wie z.B. aktuell in der Corona-Pandemie) als auch auf die Ausgestaltung von Computer-Algorithmen erstrecken.

Wie kann man sich also der Themenstellung konzeptionell nähern?

Im Wesentlichen gilt es, sich innerhalb eines Kontinuums zwischen zwei Extrempositionen zu entscheiden:

  • Prinzipien-Ethik: wähle einfache, klare Regeln aus und wende diese rigide an
  • Utilitarismus: versuche die aggregierte Auswirkung von allen Beteiligten zu optimieren. 

Die Prinzipien-Ethik kann für sich verbuchen, dass die Entscheidungen sehr vorhersehbar und konsistent getroffen werden. Die Hauptprobleme sind, die zumeist recht allgemeinen Prinzipien auf eine bestimmte Situation anzuwenden und andererseits durch die rigide Anwendung der Prinzipien, möglicherweise das “Kind mit dem Bade auszuschütten”. Würden Sie einem Einbrecher in ihrem Haus verraten, wo sich ihre Frau und ihre Kinder aufhalten? Laut Kant und dessen “Kategorischen Imperativ” müssten sie das, denn eine Lüge ist immer moralisch verwerflich.

Der Utilitarismus hingegen gilt als realitätsnäher und scheint auch für die evolutionäre Herausforderung, unsere Spezie zu bewahren, besser geeignet. Warum? Weil es aus evolutionärer Gesamtsicht eine richtige Entscheidung ist, 10 Menschen das Leben zu retten – und gleichzeitig in Kauf zu nehmen, dass deswegen 2 andere Menschen zu Schaden kommen.

Der Utilitarismus geht aber von einer richtigen und vollständigen Einschätzung der Gesamtsituation aus. Und er setzt sich relativ locker über Prinzipien hinweg. Kollateralschäden nehmen wir insgesamt in Kauf, wenn es der Sache dient. Also frei nach dem Motto: “Wo gehobelt wird, da fallen Späne.”

Angewendet auf das Trolley-Problem würde die Prinzipien-Ethik vermutlich für die Passivität (“Du sollst nichts tun, womit ein anderer zu Schaden kommt”) bzw. die Utilitaristen für das aktive Eingreifen entscheiden (“Minimiere den Gesamtschaden”). Beides ist für sich gesehen konsistent und begründbar. Es gibt aber keine Garantie, dass die Anwendung in anderen Szenarien für ähnliche Ergebnisse sorgt. Man muss also von Fall zu Fall neu entscheiden!

Für Computer gibt es ebenso beide Denk-Ansätze. 

Der Prinzipien-Ethik folgend, hat  Isaac Asimov 1942 bereits versucht, allgemeine Grundsätze für Computer festzulegen. Seine Robotergesetze waren kurz und klar verständlich. Aber kein Computer auf der Welt konnte diese auf eine konkrete Entscheidungssituation anwenden. Deswegen verlegte man sich danach auf konkrete “Wenn-Dann” Anweisungen. Diese mussten aber dann für jede Entscheidungs-Domäne separat ausgestaltet werden, was sehr aufwendig und schwer auf eine konsistente Grundhaltung zurückführbar ist.

Utilitarismus funktioniert für Computer vom Ansatz besser. Mit Hilfe von Big Data und Machine Learning können Computer Situationen einschätzen und Entscheidungen herbeiführen. Die grundsätzliche Problematik bleibt aber die gleiche wie für Menschen: Auch ein Computer wird für komplexe Situationen nicht eine vollständige Abbildung in ein Nutzenschema vornehmen können. Was am Ende des Tages heraus kommt, sind korrekte Berechnungen auf Basis einer unvollständigen, möglicherweise inkorrekten Datenbasis.

Das alles klingt ernüchternd! Wie könnten also die großen Entscheidungen dieser Welt auf eine solide Basis gestellt werden?

Gesellschaftliche Maßnahmen, die zum Beispiel jetzt wegen der Corona-Pandemie getroffen werden, erzeugen immer Verlierer und Gewinner. Wie lassen sich 100 mehr Todesopfer gegenrechnen mit 1.000.000 Menschen, die mit Einschränkungen leben müssen? 

Die Prinzipien-Ethik würde sagen, dass 1 Todesfall mehr Gewicht hat als alles andere. Das ist konsistent, einfach – aber würde auch nicht von der Mehrheit der Bürger mitgetragen werden. 

Mit Hilfe der utilitaristischen Herangehensweise würde man aber auch schwerlich akzeptable Relationen finden: Wären Maßnahmen, die 50.000 traumatisierte Kinder bewirken, gegenüber einer Reduktion von 100 Todesfällen noch akzeptabel? Vielleicht! Wenn es aber mehr als 100.000 traumatisierte Kinder wären? Wären uns dann 100 Todesfälle nicht doch lieber?

Das sind ungustiöse Fragen! Keiner möchte sie aussprechen, keiner möchte sie beantworten. Tatsächlich würden sie aber den “richtigen” Blickwinkel für die Entscheidungsfindung vorgeben. Für Maßnahmen rund um Corona, für selbst fahrende Autos, für die Gestaltung unseres Gesundheitssystems.

Unsere Gesellschaft hat die Entscheidungsfindung für diese Fragen an unsere Politiker “outgesourced”. Die Politik reagiert darauf, in dem sie bei Entscheidungsfindungen primär spätere Wahlergebnisse zugrunde legen.

Das ist nicht effizient und schafft auch keine allgemeine Fairness. Aber weder uns als Bevölkerung, noch der Politik ist bis heute etwas besseres eingefallen. Vermutlich würde auch Kant keine Wahlen gewinnen und auch Aristoteles müsste sich bei den Pressekonferenzen vorwerfen lassen, dass seine Entscheidungen ungerecht und schlecht durchdacht sind. Die Last und Schönheit von Ethik und die Verantwortung für Entscheidungen verbleiben also schlußendlich bei jedem einzelnen von uns!

Fussnoten

1 Ähnliche Problemstellungen wären die Entscheidung ein Flugzeug, das von Terroristen entführt wurde und möglicherweise von den Terroristen auf eine dicht besiedelte Wohngegend zum Absturz gebracht wird, abzuschießen. Wenn es abgeschossen wird, werden die Passagiere sicher sterben. Ob es ansonsten tatsächlich zum Absturz kommt, kann nur mit einer gewissen Wahrscheinlichkeit angenommen werden.

Hinterlasse einen Kommentar