21 lekcji na XXI wiek. Yuval Noah Harari

Чтение книги онлайн.

Читать онлайн книгу 21 lekcji na XXI wiek - Yuval Noah Harari страница 18

21 lekcji na XXI wiek - Yuval Noah Harari

Скачать книгу

e-maile.

Filozoficzny samochód

      Ktoś mógłby zaprotestować, mówiąc, że algorytmy nigdy nie będą w stanie podejmować za nas ważnych decyzji, ponieważ takie decyzje zazwyczaj dotyczą wymiaru etycznego, a algorytmy nie rozumieją etyki. Nie ma jednak powodu, by zakładać, że algorytmy nie okażą się lepsze od przeciętnego człowieka nawet w etyce. Już dzisiaj, gdy smartfony i pojazdy autonomiczne podejmują decyzje, które niegdyś uchodziły za zarezerwowane dla ludzi, urządzenia te zaczynają borykać się z tymi samymi problemami etycznymi, którymi przez całe tysiąclecia zadręczali się ludzie.

      Załóżmy na przykład, że tuż przed poruszający się drogą samochód autonomiczny wyskakuje dwoje dzieci goniących piłkę. Na podstawie przeprowadzonych błyskawicznie obliczeń algorytm kierujący samochodem dochodzi do wniosku, że jedynym sposobem uniknięcia potrącenia tej dwójki dzieciaków jest gwałtowny skręt na przeciwny pas i zaryzykowanie kolizji z nadjeżdżającą ciężarówką. Algorytm oblicza, że w takiej sytuacji prawdopodobieństwo śmierci właściciela samochodu – który śpi smacznie na tylnym siedzeniu – wynosi 70 procent. Co powinien zrobić algorytm?59

      Filozofowie przez całe tysiąclecia spierali się o takie „dylematy wagonika” (tak się je nazywa, ponieważ podręcznikowe przykłady we współczesnych filozoficznych debatach odwołują się nie do samochodu autonomicznego, lecz do wagonika kolejki, który wymknął się spod kontroli i pędzi w dół po torach60. Jak dotąd ich argumenty miały żenująco niewielki wpływ na rzeczywiste zachowanie, ponieważ w sytuacji kryzysowej ludzie zbyt często zapominają o swych filozoficznych poglądach i kierują się po prostu emocjami oraz pierwotnym instynktem.

      Jeden z najokropniejszych eksperymentów w dziejach nauk społecznych przeprowadzono w grudniu 1970 roku na grupie studentów Princeton Theological Seminary, którzy przygotowywali się do tego, by zostać pastorami Kościoła prezbiteriańskiego. Każdemu z nich polecono, by szybko udał się do odległej sali i wygłosił tam wykład na temat przypowieści o miłosiernym Samarytaninie. Opowiada ona o tym, jak pewien Żyd podróżujący z Jerozolimy do Jerycha został obrabowany i pobity przez bandytów, którzy następnie zostawili go na poboczu drogi, by tam skonał. Po jakimś czasie przechodzili tamtędy kapłan i lewita, obaj jednak nie zareagowali na jego widok. Natomiast Samarytanin – członek sekty, którą Żydzi mieli w wielkiej pogardzie – widząc bliźniego w potrzebie, zatrzymał się, zaopiekował się nim i ocalił mu życie. Morał z tej przypowieści jest taki, że człowieka należy oceniać na podstawie jego faktycznego zachowania, a nie przynależności do konkretnej religii.

      Jeden po drugim gorliwi młodzi seminarzyści pędzili zatem do wskazanej sali, zastanawiając się po drodze, jak by tu najlepiej wyjaśnić morał płynący z przypowieści o miłosiernym Samarytaninie. Na trasie, którą w takim pośpiechu pokonywali, twórcy eksperymentu posadzili jednak nędznie ubranego człowieka. Siedział on w drzwiach z pochyloną głową i zamkniętymi oczami – wyglądał, jakby osunął się na ziemię z braku sił. W chwili gdy każdy z niczego niepodejrzewających seminarzystów mijał go pospiesznie, „cierpiący” kaszlał i wydawał z siebie jęki. Większość seminarzystów nawet się nie zatrzymała, by spytać, co mu dolega, nie mówiąc o tym, by miała mu zaoferować pomoc. Napięcie emocjonalne wywołane koniecznością szybkiego dotarcia do wyznaczonej sali brało górę nad moralnym obowiązkiem niesienia pomocy cierpiącemu obcemu człowiekowi61.

      Ludzkie emocje biorą górę nad teoriami filozoficznymi w niezliczonych innych sytuacjach. Sprawia to, że etyczna i filozoficzna historia świata jest dość przygnębiającą opowieścią o cudownych ideałach i bynajmniej nie idealnym postępowaniu. Ilu chrześcijan rzeczywiście nadstawia drugi policzek, ilu buddystów rzeczywiście wznosi się ponad egoistyczne obsesje i ilu żydów rzeczywiście kocha bliźnich jak siebie samych? Po prostu w taki sposób dobór naturalny ukształtował homo sapiens. Podobnie jak wszystkie ssaki, homo sapiens używa emocji do szybkiego podejmowania decyzji dotyczących życia i śmierci. Gniew, strach i pożądanie dziedziczymy po milionach przodków, z których każdy pozytywnie przeszedł najsurowsze testy kontroli jakości, czyli test doboru naturalnego.

      Niestety to, co było dobre dla przetrwania i rozmnażania się na afrykańskiej sawannie milion lat temu, niekoniecznie sprzyja odpowiedzialnemu postępowaniu na dwudziestopierwszowiecznych autostradach. Zdenerwowani, zezłoszczeni i niespokojni kierowcy co roku w wypadkach drogowych zabijają ponad milion ludzi. Możemy wysłać wszystkich filozofów, proroków i kapłanów, jakich znajdziemy, by głosili tym kierowcom kazania na temat etyki – ale i tak na drodze górą będą wciąż typowe dla ssaków emocje i instynkty wyniesione z sawanny. Dlatego seminarzyści nie będą reagować na widok cierpiącego człowieka, a przeżywający jakiś kryzys kierowcy będą rozjeżdżać nieszczęsnych pieszych.

      Ta rozłączność seminarium i drogi jest jednym z największych praktycznych problemów w etyce. Immanuel Kant, John Stuart Mill i John Rawls mogą sobie siedzieć całymi dniami w przytulnej auli uniwersyteckiej i omawiać teoretyczne problemy z zakresu etyki – ale czy zestresowani kierowcy w jakiejś nagłej sytuacji, wymagającej podjęcia decyzji w ułamku sekundy, rzeczywiście wprowadzą w życie ich wnioski? Być może Michael Schumacher – mistrz Formuły 1, któremu czasami przypisuje się tytuł najlepszego kierowcy w dziejach – rozmyślał o filozofii, prowadząc samochód wyścigowy; ale większość z nas nie jest Schumacherem.

      Algorytmów komputerowych nie ukształtował jednak dobór naturalny i nie mają one ani emocji, ani pierwotnych instynktów. A zatem w sytuacji kryzysowej będą umiały stosować się do wytycznych moralnych znacznie lepiej niż ludzie – pod warunkiem, że wymyślimy sposób na zapisanie etyki za pomocą liczb i statystyk. Gdybyśmy nauczyli Kanta, Milla i Rawlsa pisać oprogramowania, mogliby w swej przytulnej pracowni starannie zaprogramować samochód autonomiczny i mieć pewność, że na autostradzie będzie trzymał się ich nakazów. W efekcie każdy samochód miałby za kierownicą Michaela Schumachera i Immanuela Kanta w jednej osobie (a ściślej: w jednym algorytmie).

      Jeśli zaprogramujemy samochód autonomiczny tak, że będzie się zatrzymywał przy cierpiącym obcym człowieku, by można było mu pomóc, to tak właśnie zrobi, choćby się paliło i waliło (o ile oczywiście w kodzie programu nie umieścimy linijki uwzględniającej wyjątek, jakim jest właśnie scenariusz, gdy się pali i wali). Podobnie jeśli nasz samochód autonomiczny zostanie zaprogramowany tak, by gwałtownie skręcić i wjechać na przeciwny pas, aby ocalić życie dwójki dzieci wbiegających mu przed maskę, to własnym życiem możemy ręczyć (i to życie stracić), że właśnie tak zrobi. Projektując samochody autonomiczne, firmy takie jak Toyota czy Tesla będą przekształcały teoretyczne problemy z dziedziny filozofii etyki na praktyczne problemy z dziedziny inżynierii oprogramowania.

      Zgoda, filozoficzne algorytmy nigdy nie będą idealne. Błędy wciąż będą się zdarzały, a ich skutkiem mogą się stać obrażenia, wypadki śmiertelne i niezwykle skomplikowane procesy sądowe. (Niewykluczone, że po raz pierwszy w dziejach można będzie pozwać filozofa za niefortunne skutki jego teorii, ponieważ po raz pierwszy będzie można dowieść bezpośredniego związku przyczynowego między ideami filozoficznymi a wydarzeniami z realnego życia). Aby jednak zastąpić ludzi za kierownicą, algorytmy nie muszą być idealne. Wystarczy, jeśli będą po prostu lepsze od ludzi. Biorąc pod uwagę, że kierowcy zabijają corocznie ponad milion osób, nie jest to aż tak trudne wyzwanie. Chyba wolelibyście, żeby za kierownicą jadącego obok was samochodu siedział zespół Schumacher–Kant, a nie pijany nastolatek?

Скачать книгу


<p>59</p>

J.-F. Bonnefon, A. Shariff, I. Rawhan, The Social Dilemma of Autonomous Vehicles, „Science” 2016, nr 352(6293), s. 1573–1576.

<p>60</p>

Ch.W. Bauman et al., Revisiting External Validity. Concerns about Trolley Problems and Other Sacrificial Dilemmas in Moral Psychology, „Social and Personality Psychology Compass” 2014, nr 8(9), s. 536–554.

<p>61</p>

J.M. Darley, D.C. Batson, „From Jerusalem to Jericho”. A Study of Situational and Dispositional Variables in Helping Behavior, „Journal of Personality and Social Psychology” 1973, nr 27(1), s. 100–108.