Po piśmie. Jacek Dukaj
Чтение книги онлайн.
Читать онлайн книгу Po piśmie - Jacek Dukaj страница 20
Objawia się reguła: im lepsze narzędzie, tym mniejsza przestrzeń dla nadziejowania – owa luka między stanem A i stanem B. Gdy luka zwęża się poniżej pewnej wielkości, przestajemy myśleć i mówić o nadziei.
Powiedzmy, że chcesz porozmawiać z przyjacielem, który znajduje się na drugiej półkuli. W XIX wieku mogłeś jeszcze ku temu obficie nadziejować, ta nadzieja mogła ci wypełniać godziny, dni, miesiące. Dzisiaj natomiast jest to kwestia wybrania numeru w komórce.
I nikt już nie stosuje kategorii „nadziei” do opisania tak drobnej luki między chęcią i jej ziszczeniem.
Dostrzegamy więc logiczny kres nadziejowania zwiastowany przez technologię: takie domknięcie owej luki, dzięki dostarczeniu nam coraz lepszych i coraz naturalniejszych w użytku narzędzi, niewymagających myśli i wysiłku z naszej strony, że nie pozostanie nam już ż a d n a przestrzeń na nadziejowanie; nie będziemy mieli kiedy ani po co nadziejować.
Czy to możliwe?
Od razu przychodzi do głowy taka obiekcja: ludzie mogą mieć najróżniejsze zachcianki; ich wyobraźnia, właśnie dlatego, że są ludźmi, pozwala im wybiegać daleko poza real.
Nie jest przecież wcale cechą konieczną nadziei nadziejowanie ku celom realistycznym. Można nadziejować ku najdziwniejszym fantazjom.
Można też nadziejować stany niezwiązane z osobą nadziejującego – czyli raczej już właśnie „mieć nadzieję”, nie „nadziejować”. Tak więc można mieć nadzieję, że nie roztopi się lodowa pokrywa polarna albo że dana partia zwycięży w wyborach.
I druga obiekcja: wielkość tej luki na nadzieję stanowi miarę subiektywną. To nie jest niemożliwość twarda, bezwzględna. Byłoby nią dopiero zmniejszenie luki do zera, domknięcie jej całkowite.
Cywilizacja technologiczna dąży wszelako do spełnienia obu tych warunków.
Otóż aby nie pozostawić w ogóle przestrzeni na chęć, na wolę, na ruch wyobraźni pomiędzy tym, co jest, a tym, czego bym chciał, technologia musiałaby mi ów przedmiot ewentualnej nadziei dostarczyć, z a n i m ja go świadomie zachcę (nie wspominając o intensywnym nadziejowaniu). Więcej: z a n i m nawet pojawi się to niejasne, lekko drażniące egzystencjalny naskórek poczucie dyskomfortu poprzedzające jakąkolwiek świadomość braku.
Sądzę, że jeszcze w XXI wieku przynajmniej część ludzkości znajdzie się w takiej właśnie sytuacji w większości sfer życia. To znaczy w sytuacji uprzedzania potrzeb i zachcianek przez inteligentne środowisko.
Aby tak się stało, muszą zostać spełnione dwa logiczne warunki:
Pierwszy, że środowisko człowieka w praktyce jest w stanie dostarczyć mu, czegokolwiek by sobie zażyczył.
Drugi, że środowisko człowieka istotnie zna człowieka lepiej, niż on zna sam siebie.
„Wiedza o człowieku jest poza człowiekiem” – takie credo ukułem dla epoki pohumanistycznej.
W epoce humanistycznej trwaliśmy w przekonaniu, że człowiek jest tajemnicą. Że istnieje taka jakość człowieczeństwa, która na zawsze pozostaje poza zasięgiem racjonalnych narzędzi poznania. Co najwyżej można ją oswajać przybliżeniami, sondować narzędziami z dziedzin miękkich, humanistycznych właśnie: psychologii, socjologii, szeroko rozumianej sztuki. Poprzez wglądy, introspekcje, poszukiwania duchowe. I że wobec tego zawsze będziemy sami siebie zaskakiwać.
Dlatego zawodziły teorie ekonomiczne oparte na założeniu racjonalnych wyborów jednostki, owe społeczne kalkulatory staroświeckiego liberalizmu. Wcale bowiem nie wybieramy dla siebie tego, co rozumowo dla nas najlepsze; sami nie wiemy, dlaczego wybraliśmy to, a nie coś innego. I dlatego też psychoanaliza oddziela szczerość opowieści o sobie od prawdy tej opowieści: całkowicie szczerze opowiadamy siebie w wykrzywieniach, odwróceniach, przemilczeniach, projekcjach, fantazjach.
W epoce pohumanistycznej przyzwyczajamy się do świadomości, że chociaż ja sam nadal siebie nie znam, to rozmaite zewnętrzne wobec mnie agendy znają mnie wystarczająco dobrze, bym zdał na nie moje dotychczasowe decyzje, i że lepiej na tym wyjdę.
Przyzwyczajamy się – nie na skutek jakiejś ideologicznej indoktrynacji i nawet nie przekonani przez tezy Foucaulta o „śmierci człowieka”. Przywykamy poprzez codzienną praktykę, pod naporem rozwiązań akceptowanych jako oczywiste, naturalne w niezliczonych drobnych kwestiach. Niepostrzeżenie.
W praktyce naukowej i biznesowej nazywa się to calm technology, calm processing – „ciche przetwarzanie”. Stopniowe przesuwanie obsługi życia poza pole naszej uwagi.
Osobiście zauważyłem ową zmianę kilka lat temu, kupując książki w Amazonie.
Amazon od zawsze polecał klientom następne tytuły do nabycia. Zwykłem ignorować te polecanki, widząc, że to wypisy z list bestsellerów w poszczególnych kategoriach albo po prostu „więcej tego samego”: autora, gatunku, tematyki. Lecz od pewnego momentu Amazon miał mnie już sprofilowanego wystarczająco dobrze, by proponować mi także książki, które nie tylko autentycznie mnie interesują, ale na które dotąd nie trafiłem i inaczej pewnie w ogóle bym nie trafił.
W tym pozornie mało istotnym przykładzie widać zalążek technologii likwidacji nadziei. Dostaję coś, czego nie miałem szansy chcieć; spełnienie następuje nawet nie w momencie, a p r z e d momentem uruchomienia chęci, p r z e d poczuciem dyskomfortu niespełnienia.
Żadnej z tak podsuniętych i zakupionych jednoklikiem książek nie miałem logicznej możliwości nadziejować. Jakakolwiek, nawet czysto teoretyczna, nawet milisekundowa możliwość nadziei została tu systemowo wyeliminowana.
Gromadzenie informacji o poszczególnych ludziach, budowanie modeli ich osobowości i uprzedzające działanie na podstawie tych modeli – to zdefiniuje cywilizację i mentalność człowieka w XXI wieku; już definiuje.
„Wiedza o człowieku jest poza człowiekiem” – i nie tylko że poza nim, ale w ogóle dla niego niedostępna.
To, że Google, Facebook czy inna korporacja na podstawie informacji o twoich zachowaniach w Sieci jest w stanie z określonym prawdopodobieństwem przewidzieć następne twoje zachowania, nie znaczy, że w głębi programów analitycznych Big Data kryje się jakaś obiektywna prawda o tobie, jakikolwiek opis przekładalny na wyrażenia naturalnego czy sztucznego języka. Jak w wypadku wszystkich programów samouczących, sami ich twórcy nie rozumieją, co się dzieje tam w środku, w „czarnej skrzynce”. Dostarczamy jej dane, ona wypluwa z siebie inne dane, z których użyteczności wnioskujemy o poprawności programu. Ale tak samo nie rozumiemy tego programu, jak nie rozumiemy samych siebie.
Albo i bardziej: program to nie człowiek.
Taka wiedza o miliardach