21 lekcji na XXI wiek. Yuval Noah Harari

Чтение книги онлайн.

Читать онлайн книгу 21 lekcji na XXI wiek - Yuval Noah Harari страница 19

21 lekcji na XXI wiek - Yuval Noah Harari

Скачать книгу

lepiej niż ludzie63.

      Człowiek na stanowisku dyrektora może wiedzieć o tym, że dyskryminowanie osób czarnoskórych i kobiet jest rzeczą nieetyczną, a nawet może się z tym zgadzać, ale przecież gdy jedną ze starających się o pracę osób jest czarnoskóra kobieta, dyrektor podświadomie ją dyskryminuje i podejmuje decyzję, że jej nie zatrudni. Jeśli pozwolimy komputerowi oceniać podania o pracę i zaprogramujemy go tak, by zupełnie nie brał pod uwagę rasy ani płci, możemy być pewni, że maszyna rzeczywiście pominie te czynniki, ponieważ komputery nie mają podświadomości. Oczywiście nie będzie łatwo napisać program oceniający podania o pracę i zawsze istnieje niebezpieczeństwo, że tworzący go ludzie w jakiś sposób przeniosą własne podświadome uprzedzenia do software’u64. Prawdopodobnie znacznie łatwiej jednak byłoby naprawić program, w którym wykryłoby się takie błędy, niż wykorzenić z ludzi rasistowskie i mizoginiczne uprzedzenia.

      Wiemy już, że nadejście sztucznej inteligencji może wypchnąć większość ludzi z rynku pracy – w tym kierowców i policjantów z wydziałów ruchu drogowego (gdy niesfornych ludzi zastąpią posłuszne algorytmy, policja drogowa będzie niepotrzebna). Mogą się jednakże pojawić nowe miejsca pracy dla filozofów, ponieważ ich umiejętności – dotychczas pozbawione wielkiej wartości rynkowej – nagle zaczną być bardzo potrzebne. Jeśli więc chcecie studiować coś, co da wam w przyszłości gwarancję dobrej pracy, być może filozofia nie jest aż tak złym pomysłem.

      Oczywiście filozofowie rzadko się ze sobą zgadzają w kwestii wyboru właściwego kierunku działania. Niewiele „dylematów wagonika” rozwiązano w sposób, który by zadowalał wszystkich filozofów, a myśliciele konsekwencjalistyczni (którzy oceniają czyny na podstawie ich konsekwencji), tacy jak John Stuart Mill, głoszą zupełnie inne opinie niż deontologowie (którzy oceniają czyny na podstawie absolutnych reguł), tacy jak Immanuel Kant. Czy firma Tesla będzie rzeczywiście musiała zająć jakieś stanowisko w tak zawiłych kwestiach?

      Cóż, być może Tesla zostawi to po prostu decyzji rynku, uruchamiając produkcję dwóch modeli samochodów autonomicznych: Tesla Altruista i Tesla Egoista. W razie niebezpieczeństwa Altruista poświęci swego właściciela na rzecz większego dobra, podczas gdy Egoista zrobi wszystko, co w jego mocy, by właściciela ocalić – nawet jeśli będzie to oznaczało zabicie dwojga dzieci. Wówczas klienci będą mogli kupić sobie taki samochód, który będzie najbardziej odpowiadał preferowanym przez nich poglądom filozoficznym. Jeśli więcej ludzi postanowi kupić Teslę Egoistę, to nie będzie można za to winić Tesli. Przecież klient ma zawsze rację.

      To nie żart. W 2015 roku przeprowadzono pionierskie badania, w trakcie których uczestnikom przedstawiono następujący hipotetyczny scenariusz: samochód autonomiczny znalazł się w sytuacji, w której za chwilę przejedzie kilku pieszych. Większość badanych twierdziła, że samochód powinien chronić pieszych nawet za cenę śmierci swego właściciela. Gdy następnie zapytano uczestników badania, czy sami kupiliby sobie samochód zaprogramowany w taki sposób, by poświęcić właściciela w imię większego dobra, większość powiedziała, że nie. Dla siebie woleliby Teslę Egoistę65.

      Wyobraź sobie taką sytuację: kupiłaś nowy samochód, ale zanim zaczniesz go używać, musisz wejść do menu ustawień i pozaznaczać różne opcje. Czy w razie wypadku chcesz, żeby samochód poświęcił twoje życie – czy też zabił rodzinę jadącą innym pojazdem? Czy w ogóle chcesz dokonywać tego rodzaju wyborów? Pomyśl tylko, ile razy musiałabyś się kłócić z mężem o to, w co kliknąć…

      Wobec tego być może to państwo powinno interweniować i wprowadzić pewne regulacje rynkowe, ustanawiając kodeks etyczny obowiązujący wszystkie samochody autonomiczne? Niektórzy ustawodawcy bez wątpienia byliby zachwyceni taką możliwością: wreszcie mogliby ustanawiać prawa, które byłyby z a w s z e i co do joty przestrzegane. Dla innych tak niespotykana i totalitarna odpowiedzialność może być przerażająca. Przecież w całej historii to właśnie ograniczona możliwość egzekwowania prawa zapewniała pożądaną przeszkodę dla szerzenia uprzedzeń, błędów i nadużyć prawodawców. Mieliśmy wyjątkowo dużo szczęścia, że prawa przeciwko homoseksualizmowi i bluźnierstwu były egzekwowane jedynie częściowo. Czy naprawdę chcemy systemu, w którym decyzje omylnych polityków staną się równie nieubłagane jak grawitacja?

Cyfrowe dyktatury

      Sztuczna inteligencja często ludzi przeraża, ponieważ nie mają do niej zaufania – nie wierzą, że zawsze będzie im posłuszna. Widzieliśmy za dużo filmów science fiction o robotach, które buntują się przeciwko swym ludzkim panom, dostają amoku, biegają po ulicach i mordują wszystko, co się rusza. Prawdziwy problem z robotami jest jednak dokładnie odwrotny. Powinniśmy się ich obawiać dlatego, że prawdopodobnie będą zawsze posłuszne swym panom i nigdy się nie zbuntują.

      W ślepym posłuszeństwie nie ma oczywiście niczego złego, dopóki roboty będą służyć dobrym panom. Nawet w dziedzinie militarnej powierzenie działań wojennych zabójczym robotom mogłoby dać nam gwarancję, że po raz pierwszy w dziejach na polu bitwy prawo wojenne byłoby faktycznie przestrzegane. Żołnierzem, który jest człowiekiem, kierują czasem emocje i pod ich wpływem dopuszcza się mordów, grabieży i gwałtów, naruszając tym samym prawo wojenne. Zazwyczaj kojarzymy uczucia ze współczuciem, miłością i empatią, ale w czasie wojny zdecydowanie zbyt często dochodzą do głosu takie emocje, jak strach, nienawiść i okrucieństwo. Ponieważ roboty nie mają uczuć, można będzie mieć co do nich pewność, że zawsze będą się trzymały suchego tekstu kodeksu wojskowego i nigdy nie ulegną lękowi czy nienawiści66.

      Szesnastego marca 1968 roku kompania amerykańskich żołnierzy w wiosce Mỹ Lai na południu Wietnamu wpadła w szał i wymordowała mniej więcej czterystu cywilów. Do tej zbrodni wojennej doszło z inicjatywy mężczyzn, którzy od wielu miesięcy prowadzili w dżungli walkę z wietnamską partyzantką. Owa rzeź nie służyła realizacji żadnego strategicznego celu i była pogwałceniem zarówno prawa, jak i polityki wojskowej Stanów Zjednoczonych. Odpowiedzialne za nią były ludzkie emocje67. Gdyby Stany Zjednoczone wysłały do walki w Wietnamie zabójcze roboty, do masakry w Mỹ Lai by nie doszło.

      Zanim jednak weźmiemy się z zapałem do tworzenia zabójczych robotów i wysyłania ich na pole bitwy, musimy sobie przypomnieć, że roboty zawsze stanowią odbicie i wzmocnienie tego, jak są zaprogramowane. Jeśli ich oprogramowanie jest powściągliwe i łagodne – roboty będą prawdopodobnie stanowiły ogromny postęp w porównaniu z przeciętnym żołnierzem. Jeśli jednak oprogramowanie będzie bezwzględne i okrutne – skutki będą katastrofalne. Prawdziwy problem z robotami polega nie na ich własnej sztucznej inteligencji, lecz raczej na naturalnej głupocie i okrucieństwie ich twórców.

      W lipcu 1995 roku w okolicach miasta Srebrenica oddziały bośniackich Serbów wyrżnęły ponad osiem tysięcy muzułmańskich Bośniaków. W odróżnieniu od chaotycznej masakry w Mỹ Lai zbrodnia w Srebrenicy stanowiła długą i dobrze zorganizowaną operację, która była odzwierciedleniem prowadzonej przez bośniackich Serbów polityki „etnicznego czyszczenia” Bośni z muzułmanów68. Gdyby w 1995 roku bośniaccy Serbowie mieli zabójcze roboty, przypuszczalnie doszłoby do jeszcze gorszych potworności. Żaden z robotów nawet na moment by się nie zawahał, wypełniając wszelkie otrzymane rozkazy, nie oszczędziłby też życia ani jednemu muzułmańskiemu dziecku,

Скачать книгу


<p>63</p>

T. Adams, Job Hunting Is a Matter of Big Data, Not How You Perform at an Interview, „Guardian”, 10 maja 2014, https://www.theguardian.com/technology/2014/may/10/job-hunting-big-data-interview-algorithms-employees (dostęp: 6 września 2017).

<p>64</p>

Wyjątkowo wnikliwe omówienie: C. O’Neil, Broń matematycznej zagłady. Jak algorytmy zwiększają nierówności i zagrażają demokracji, przeł. M.Z. Zieliński, Warszawa 2017. Jest to naprawdę lektura obowiązkowa dla każdego, kogo interesuje potencjalny wpływ algorytmów na społeczeństwo i politykę.

<p>65</p>

J.-F. Bonnefon, I. Rahwan, A. Shariff, The Social Dilemma of Autonomous Vehicles, „Science” 2016, nr 24(352), s. 1573–1576.

<p>66</p>

V.C. Müller, Th.W. Simpson, Killer robots: Regulate, don’t ban, University of Oxford, Blavatnik School of Government Policy Memo, listopad 2014; R. Arkin, Governing Lethal Behaviour. Embedding Ethics in a Hybrid Deliberative/Reactive Robot Architecture, Georgia Institute of Technology, Mobile Robot Lab, 2007, s. 1–13.

<p>67</p>

B. Greiner, War without Fronts. The USA in Vietnam, przeł. A. Wyburd, V. Fern, Cambridge, MA 2009, s. 16. Przynajmniej jedna wzmianka na temat stanu emocjonalnego żołnierzy: H. Kelman, V.L. Hamilton, The My Lai Massacre. A Military Crime of Obedience, [w:] Sociology. Exploring the Architecture of Everyday Life Reading, red. J. O’Brien, D.M. Newman, Los Angeles 2010, s. 13–25.

<p>68</p>

R.J. Donia, Radovan Karadzic. Architect of the Bosnian Genocide, Cambridge 2015. Zob. również: I. Delpla, X. Bougarel, J.-L. Fournel, Investigating Srebrenica. Institutions, Facts, and Responsibilities, New York – Oxford 2012.