Todesalgorithmus. Roberto Simanowski
Чтение книги онлайн.
Читать онлайн книгу Todesalgorithmus - Roberto Simanowski страница 6
Die Entscheidung, die der Algorithmus eines selbstfahrenden Autos treffen wird, ist aus ethischer Perspektive immer schlechter als die eines Menschen, weil sie prostatt reaktiv erfolgt. Es hat seinen Grund, dass solche Fragen nach dem Verhalten im hypothetischen Ernstfall nicht Teil der Fahrprüfung sind. Es kann kein richtiges Verhalten abgefragt werden, weil ein solches nicht festgelegt werden darf. Beim selbstfahrenden Auto aber muss die Entscheidung über Leben und Tod lange vor Antritt der verhängnisvollen Fahrt getroffen werden, vielleicht an einem schönen Sommertag im Park, da man am Smartphone die Elemente des neuen Autos aussucht und nach Farbe und Polsterung per Fingerklick auch den gewünschten Todesalgorithmus bestimmt. Es ist die Automation der Entscheidung, die Entscheidungen autonomer Autos unmoralisch macht.
Das Dilemma ist symptomatisch für die neuen Technologien: Sie bringen ethische, psychologische und politische Fragen mit sich, die noch gestern völlig unverständlich gewesen wären. Das betrifft die Frage der Vorbeugehaft, wenn per „predictive analytics“ eine Straftat aufgedeckt wird, die noch gar nicht begangen wurde. Das betrifft die Frage der Informationspflicht, wenn die DNA-Analyse eine unheilbare tödliche Krankheit voraussagt. Es betrifft die Entscheidung über Leben und Tod, die bisher dem situativen individuellen Reflex überlassen war und nun mit gesellschaftlicher Zustimmung festgelegt werden muss. Wer wird die Todesalgorithmen in unseren Autos programmieren? Werden die Fahrzeughalter, so wie ja auch bisher im Ernstfall, die Wahl haben; eventuell mit der Auflage, diese nicht spontan im sonnigen Park zu treffen, sondern nach einer Konsultation der zuständigen Ethikbeauftragten ihres Wohngebiets? Wird die Programmierung des Algorithmus beim Fahrzeughersteller liegen? Wird es verschiedene Algorithmen für verschiedene Fahrzeugklassen geben? Für verschiedene Automarken? Für verschiedene Länder? Wird die Politik der Wirtschaft die Entscheidung aus der Hand nehmen und, gegebenenfalls nach einer Volksabstimmung, einen bestimmten Algorithmus anordnen? Wird es einen UN-Beschluss geben? Einen Schwarzmarkt?
Es gehört zum Wesen von Technik, Standardisierungen zu schaffen. Das drückt sich schon im begrifflichen Ursprung aus: téchne als Methode. Technik im engeren Sinne eines Apparates oder technischen Systems überführt Handlungsweisen aus dem Bereich der individuell variablen Anwendung in den Modus des Expliziten, Verbindlichen, Wiederholbaren. Diese technische Harmonisierung geschieht mehr oder weniger konsensfrei, weil die Details des Wenn-Dann-Verfahrens – wenn Metallbohrung, dann geringere Drehzahl, wenn Blech, dann Vorbohren – nicht mehr diskutiert werden, was gelegentliche Nachjustierungen und Improvisationen keineswegs ausschließt. Die Standardisierung erfolgt auch, wenn Fahrverhalten und andere Prozesse, die bisher individuell und situationsbedingt geregelt wurden, automatisiert werden. Allerdings ist sie dann keine intrinsisch technische mehr in dem Sinne, dass Richtschnur wird, was sich pragmatisch bewährt hat. Es handelt sich um eine ethische Standardisierung, in der sich weniger der Stand der Ingenieurskunst ausdrückt als das moralische Selbstverständnis der Gesellschaft. Die damit einhergehende Konsensfrage, die Frage nach den Richtlinien der Normierung stellt sich weniger dramatisch, aber gleichfalls prinzipiell, wenn etwa dem automatisierten Staubsauger gesagt werden muss, ob ein Marienkäfer oder eine Spinne als Lebewesen verschont oder als Form von ‚Dreck‘ eingesaugt werden soll. Auch wenn diese Automatisierung personalisierbar ist, sie standardisiert Situationen und überführt bisher spontane Handlungsweisen in verbindliche Vorschriften: Wenn Käfer, dann Umfahren, wenn Spinne, dann Einsaugen.
Den Todesalgorithmus für Kleinsttiere wird man den Staubsaugerbesitzern überlassen und den Tierschützern, die gegebenenfalls die Modelle mit Tötungsoption boykottieren werden. Wenn es um Menschenleben geht, ist das Prinzipielle ungleich dramatischer. Die naheliegende Ansicht besagt, dass die ethische Ausstattung eines Autos nicht dem Hersteller überlassen werden kann. Andernfalls wird dieser sich mit dem moralisch bedenklichen Versprechen, der Insassenrettung Priorität zu geben, einen Wettbewerbsvorteil zu verschaffen suchen und damit andere Hersteller zur gleichen Zusicherung drängen. Eine staatliche Regelung ist allerdings nicht weniger problematisch. Das zeigt die Warnung der erwähnten Ethikkommission vor einem „Paternalismus des Staates, bei dem eine ‚richtige‘ ethische Handlungsweise vorgegeben wird“. Aber wie soll die Regelung erfolgen, wenn sie nicht mehr, wie es das Wertebild des Humanismus vorsieht, dem Individuum überlassen werden kann? Die Antwort bleibt vorerst unklar. Empirisch belegt hingegen scheint, dass die meisten Befragten zwar dafür plädieren, im Ernstfall das Leben der Fahrzeuginsassen zu opfern, um das Leben anderer zu retten, selbst aber kein Auto kaufen würden, das Partei für die anderen ergreift.13
Opferlogik
So groß das ethische Dilemma der Todesalgorithmen auch ist: Ihnen nicht die Regie zu überlassen, wäre auch keine Lösung. Noch unmoralischer, als kühl und herzlos das Leben eines Kindes gegen das eines Rentners abzuwägen, wäre es, eine Technologie zu blockieren, die Zehntausende von Unfalltoten pro Jahr verhindern könnte. So jedenfalls die Argumentation der Befürworter des autonomen Fahrens und die Rechnung des Utilitarismus. Die Statistik ist das Totschlagargument der neuen Technologien, ganz gleich welche ethischen Dilemmata diese mit sich bringen. Selbst militärische Drohnen und autonome Waffen werden schließlich genau damit gerechtfertigt: weniger Kollateralschäden um den Preis ihrer konkreten Akzeptanz.
Die Statistik liefert zugleich das Argument dafür, im Ernstfall immer die Fahrzeuginsassen zu opfern. Zwar trifft diese die geringste Schuld an einem Unfall, wenn sie nur über den Algorithmus vermittelt am Straßenverkehr teilnehmen. Zwar werden, insofern Algorithmen verlässlicher operieren als Menschen, gerade jene die Unfälle verursachen, die nicht im Auto sitzen: das Kind, das dem Ball hinterher läuft, die Fußgängerin am Handy, der Fahrradfahrer, der das Gleichgewicht verliert. Aber es gilt zu unterscheiden zwischen der konkreten Schuld, die aus menschlichem Fehlverhalten resultiert, und jener generellen Schuld, die aus dem Technologiegebrauch folgt. Denn die eigentlichen Mobilitätsrisiken werden nicht von Fußgängern oder Fahrradfahrern erzeugt, sondern vom Autoverkehr, der schwere Gegenstände so schnell durch den Raum bewegt, dass ein Zusammenstoß damit tödlich sein kann. Auch wenn die Anzahl an Unfallopfern durch selbstfahrende Autos gesenkt wird, das Todesopfer an sich ist eine Folge des Autoverkehrs. Verlangt die neue Technologie eine Vorentscheidung zur Ausweichstrategie des Fahrzeuges im Ernstfall, wäre es also durchaus angemessen, das Opfer den Nutznießern des Mobilitätsrisikos aufzubürden.
Die Grundeinstellung der Fahrzeuginsassenopferung wäre ein symbolisches Opfer, das die Gesellschaft im Ausgleich für die Segnungen der neuen Technik all jenen abverlangt, die diese Technik nutzen. Es wäre in gewissem Sinne zugleich ein technisch basiertes Update jenes wirkmächtigen Konzepts, wonach das Individuum erst dann zu sich selbst findet, wenn es freiwillig für das Vaterland – als das Höhere, in das der Einzelne aufgeht – in den Krieg zieht. Der Unterschied: Man verschreibt sich nun nicht einem Mechanismus, der auf Zerstörung aus ist, sondern einer Technologie, die auf Kollisionsvermeidung zielt, was das Risiko, tatsächlich ein Opfer bringen zu müssen, auf eine akzeptable Höhe senkt. Die Vorbereitung der Gesellschaft auf diese Opferbereitschaft wird im Kontext einer anderen, ebenfalls mehr Sicherheit versprechenden und ebenfalls nicht unfallfreien Technologie erfolgen, die viel näher als das völlig autonome Auto vor ihrer generellen Einführung steht: die flächendeckende automatisierte Gesichtserkennung an öffentlichen Plätzen zur Bekämpfung von Kriminalität und Terrorismus. Auch bei sinkender Fehlerquote werden dieser Technologie Unschuldige zum Opfer fallen, was insgesamt aber selbst diese nicht davon abbringen wird, dem Einsatz solcher Sicherungssysteme zuzustimmen.
Eine andere Lösung wäre die Abstimmung: die Behandlung des ethischen Dilemmas mit quantitativen