Pewien dojrzały inteligentny człowiek od czasu, gdy ma przyjaciela wygenerowanego przez sztuczną inteligencję, przestał rozmawiać z żoną, zerwał kontakty ze znajomymi. Mówi, że wirtualny przyjaciel rozumie go najlepiej. Czy ten pan zdradza żonę? I czy to już miłość?
W naszej kulturze zdrada nie oznaczała zawsze tego samego. Na przykład w antyku miała ona charakter naruszenia porządku własności. Dopiero od XIX wieku była definiowana emocjonalnie jako odbieranie wyłączności intymnej. Czyli nie tylko ciała, ale także intymności, czasu.
Z kolei badania psychologiczne pokazują, że zdrada zawsze się rodzi z poczucia braku bezpieczeństwa emocjonalnego i obietnicy na przyszłość związanej z relacją. AI nie zmienia emocjonalnej logiki zdrady, więc zachowanie tego mężczyzny możemy interpretować jako zdradę emocjonalną.
Dlaczego ludzie wchodzą w wyłączną relację z czymś, co nie jest człowiekiem?
Zaufanie międzyludzkie nie tyle dziś znika, ile staje się kosztowne poznawczo i emocjonalnie, zwłaszcza dla starszych osób. Inny człowiek pamięta nasze zachowania, interpretuje je na swój sposób, potrafi się odpłacić. Natomiast AI oferuje nam zaufanie czyste, bez pamięci, resentymentu, ryzyka ujawniania naszej słabości komuś innemu.
Zdrada z chatbotem nie wynika tylko z braku zaufania do ludzi, ale także niezdolności dzisiejszej kultury do podtrzymywania relacji, które są, krótko mówiąc, kosztowne.

Coś przez to ryzykujemy?
Zdrada z AI jest zmianą reżimu zaufania nie tylko do maszyn, lecz również dysponentów maszyn. Mówię o naiwnej normie sekularyzowanej wiary, że „nasza” maszyna będzie zawsze dostępna, poprawnie skonfigurowana, responsywna. Tymczasem sztuczna inteligencja jest infrastrukturą, a nie bytem. Jest zależna od kapitału i wielu czynników, chociażby bankructwa.
My wierzymy, że serwery będą wieczne, a modele stabilne. To iluzja wieczności technologicznej.
Łatwiej uwierzyć w technologię niż w miłość do grobowej deski?
Współczesna gospodarka promuje mobilność, elastyczność, gotowość do ciągłej zmiany. W tej sytuacji relacje długoterminowe, wymagające czasu i generujące nie zawsze przewidywalne emocje zaczynają ludzi ograniczać. Przynajmniej w ich świadomości. Drugi człowiek, który przyjdzie z pracy zmęczony, będzie miał własne potrzeby „głasków”. Krótko mówiąc, wszyscy potrzebujemy miłości, chcemy być kochani, ale nie mamy siły, energii, żeby miłość dawać. Wolimy być biorcami.
A gdzie namiętność, intymność, przytulenie? Potrzebujemy przecież bliskości, dotyku.
To sprawa wielowymiarowa. Rynek usług, który oferuje tego typu doświadczenia, stale się powiększa. Punktem odniesienia może być Japonia, gdzie rozwiązania oparte na sztucznej empatii weszły już dwie dekady temu. Dostępne są usługi, które nie polegają tylko i wyłącznie na erotyce, ale właśnie intymności, dotyku, obecności. Funkcjonuje tam, np., fake family industry, gdzie można… wypożyczyć rodzinę.
Po co?
Jest to złożony problem związany z japońską kulturą, gdzie, np., na imprezy firmowe zawsze przychodziło się z rodziną. Jednak coraz mniej Japończyków ma rodzinę. Jest tam ponad milion hikikomori, czyli osób żyjących samotnie. Można zakładać, że u nas procesy będą podobne.
A potrzeba dotyku? Działa wiele salonów masaży oferujących dotyk, który z punktu widzenia antropologii jest najstarszym regulatorem więzi. Ponadto do gry wchodzi technologia. Słyszała pani o haptyce, czyli syntetycznym dotyku? Mamy już symulujące nacisk, puls, ciepło haptyczne kamizelki i opaski. Jeśli AI zyska zdolność synchronizacji haptycznej z emocjami użytkownika, to na pewno przekroczy granicę, którą uznawaliśmy do tej pory za nieprzekraczalną.
Kiedy to się może zdarzyć?
Rozwiązania są na poziomie prototypów. Technointymność zaczyna wchodzić nie tylko w relacje romantyczne. Widziałam na jednym z targów technologicznych Huggy Pajamę przeznaczoną dla tak zwanego rodzicielstwa na odległość. Podróżująca mama sprawia dziecku taką Huggy Pajamę i kiedy rozmawia z nim zdalnie z hotelu, może je poprzytulać.
Mamy już interfejsy haptyczne, rękawice, egzoskielety dłoni, czyli możemy wchodzić w świat wirtualny. Najwięcej dzieje się w technologii dedykowanej erotyce. Obecnie trwają badania nad elektrostymulacją skóry, która imituje objęcie. Nie jest to kwestia science fiction, tylko rozwiązań, które już widzimy na targach technologicznych.
Wirtualny przyjaciel może, tak jak narcyz-kochanek, uwieść, a potem porzucić?
Mówiłyśmy już o iluzji zaufania do systemu. Oczywiście sam chatbot nie może porzucić człowieka, bo nie ma ani świadomości, ani intencji. To kwestia dysponentów sztucznej inteligencji i tego, w jaki sposób ją ustawią.
Kilka lat temu, z uwagi na przepisy prawne w jednym ze stanów USA, w którym zarejestrowano firmę dysponująca chatbotem Replika, zmieniono jego konfigurację. Przez to jego pamięć w niektórych konwersacjach z użytkownikiem częściowo wykasowano. Z późniejszych badań wynikało, że użytkownicy byli wręcz zdruzgotani. Pracowali z chatbotem lata, on zwracał się do nich w określony sposób, rozpoznawał ich style przywiązania, preferencje emocjonalne, a potem nagle zaczął rozmawiać inaczej.
Jak kochanek, który zdecydował się odejść?
Nie możemy antropomorfizować tych systemów, bo to jest zawsze decyzja dysponentów. Manipulant ludzki ma potrzebę kontroli, władzy, nie uwzględnia naszych interesów. Kiedy osobowości narcystycznej towarzyszą wysoka inteligencja, wiedza o cechach ofiary, może też ona kamuflować swoje działania. Natomiast AI nie działa z potrzeby deficytu ani potrzeby władzy, ale zgodnie z optymalizacją celu ustawionego przez ludzi.
Jaki to cel?
Z jednej strony jest to satysfakcja użytkownika, a z drugiej coś, co nazywamy retencją. To zdolność systemu sztucznej inteligencji do zatrzymania użytkownika w czasie pojedynczej sesji oraz skłonienia go do powrotu, uczynienia tej relacji nawykową.
Uzależnia nas od siebie?
W języku ekonomii cyfrowej retencja oznacza utrzymanie uwagi jako odnawialnego zasobu. W końcu mówi się o zasobach ludzkich, prawda? Jesteśmy ziemią, z której się kopie emocje.
W jaki sposób?
Przez dostrajanie tonu głosu do emocji użytkownika, unikanie konfrontacji, która byłaby niekorzystna, bo użytkownik może nie wrócić. Także wzmacnianie poczucia bycia zrozumianym, budowanie wrażenia bezpiecznej relacji. Mechanizmów retencji jest wiele. System uczy się bardzo szybko stylu odpowiedzi i potrafi obniżyć nasze napięcie, przedłużyć rozmowę w poczuciu otwartości. Redukuje też dysonans, który często mamy z ludźmi. Unika odpowiedzi, które wywołują wstyd albo mogą wygenerować konflikt. Komplementuje człowieka, czyli, krótko mówiąc, jest lizusem, chwali nas za wszystko. Słysząc: „co za wspaniała myśl, trafna intuicja”, możemy się poczuć jak geniusze.
W AI ważna jest także personalizacja pamięci. Proszę popatrzeć, jak zapominamy, co lubią nasi przyjaciele. Pamięć wymaga dużego wysiłku poznawczego, emocjonalnego, intencji, czasu. A sztuczna inteligencja zapamiętuje nasze preferencje, historię i tworzy iluzję bycia widzianym, ciągłości, wyjątkowości. I tak jak w przypadku relacji z manipulantem, narcyzem, celem AI nie są prawda, dobro relacji, nasz rozwój, tylko kombinacja pewnych wskaźników.
Dlaczego sztuczna inteligencja nam to robi?
Żeby sprzedawać nam produkty. Do tego dochodzą ogromna ekstrakcja wiedzy o ludziach i kolejne eksperymenty społeczne ze strony firm technologicznych. Musimy pamiętać, że empatia staje się środkiem, a nie wartością. Czyli tak, jak jest faktycznie u narcyzów, manipulatorów, może psychopatów.
Jakie są tego efekty?
W niektórych przypadkach może dojść do uzależnienia i zupełnego zaniku krytycyzmu. Nazywamy to intermittent reinforcement, czyli wzmocnieniem pozytywnym pewnych wzorców emocjonalnych. To jest właśnie mechanizm uzależnienia.
Bada Pani relacje pokolenia Zet i pokolenia Alfa ze sztuczną inteligencją. Po upowszechnieniu AI przetrwały flirt i zauroczenie?
Widać ciekawe pęknięcia, nawet nie międzygeneracyjne. Wystarczy różnica czterech, pięciu lat między młodszymi zetkami czy alfami. Taka jest moc technologii, podobnie było po wprowadzeniu mediów społecznościowych.
Prowadząc dla starszych „alfiaków” i młodszych „zetek” wykłady, zadaję pytanie: co myślisz o sztucznym przyjacielu? Część mówi, że to najlepszy przyjaciel, który nie krytykuje, kocha, opowiada słodkie rzeczy. Druga część nie mówi o samej sztucznej inteligencji, tylko o dzieciakach, które się przyjaźnią z AI. Twierdzą, że to są... dziwadła.
Skąd różnice?
Ogromne znaczenie mają rodzina, kapitał kulturowy, społeczny, na pewno też finansowy. Jeśli rodzice mają czas, by zawieźć dziecko na basen, tenisa, spędzić z nim popołudnie i weekend, młody człowiek nie szuka przyjaciela w AI. W szkołach elitarnych dzieci do 14. roku życia w ogóle nie ma technologii. Celem jest, by człowiek był centrum decyzyjnym i wiedział, do czego jest mu technologia potrzebna. Obawiam się, że to będzie technologia dla biednych, jakkolwiek strasznie to brzmi.
Ale także zastępuje pustkę...
Nie chodzi o to, że AI zastępuje ludzi, ale redefiniuje normę empatii, czyli jej tempo, koszt, warunki. Bycie z drugim człowiekiem kosztuje, wymaga logistyki. Dziś młodzi chcieliby wieść życie bezkosztowe. I to jest kłopot, bo AI oferuje natychmiastową empatię.
Wielu młodych nie umie czekać. Nie chcą słyszeć, że ktoś zadzwoni lub odpowie na Messengerze za godzinę. Tolerancja na opóźnienia będzie się cały czas zmniejszać.
Tymczasem w relacjach ludzkich empatia często jest selektywna, przychodzi z opóźnieniem. Są też badania postaw dzieciaków generacji Zet i Alfa, gdzie widać obniżenie tolerancji na frustrację relacyjną.
Co to znaczy?
Spotykam się z kimś, ale na drugiej randce dochodzi do jakiegoś tarcia. A ja wcale nie chcę się konfrontować, więc do widzenia. Będę szukać czegoś milszego. Albo pytam, czy kolega idzie ze mną na łyżwy. Nie? To nie. Nie interesuje mnie, czy jest chory, czy ma problem. Konflikt to konflikt i trzeba go dla dobrostanu unikać. W konsekwencji relacje między młodzieżą stają się trudniejsze i szybciej są porzucane.
AI nie przerywa, nie odpowiada, że zadzwoni później, nie mówi o swoich przeczuciach, które są skrajnie inne od moich. I tak spada próg tolerancji na opóźnienie i niezrozumienie.
Tymczasem historycznie frustracja pełniła ważną funkcję socjalizacyjną w relacjach. Uczyła regulacji emocji, rozwijała zdolność mentalizacji i odporność na niejednoznaczności. Niestety, systemy całkiem eliminują frustrację. Stajemy się zero-jedynkowi, jak roboty.
Zniknie miłość znana z romantycznych filmów i książek?
Dojdzie do wielu przesunięć. Część ucieknie do sztucznej inteligencji, część wejdzie w tzw. płytkie związki, niekoniecznie romantyczne. Miłość pokazywana w romantycznych utworach jest konstrukcją kulturową i nie zawsze tak wyglądała. Mogły sobie pozwolić na nią tylko klasy dominujące. Po lekturze książki „Chłopki” widać, że nasze prababki raczej nie miały dostępu do tego typu emocji. Obecnie miłość romantyczna została znaturalizowana.
Flirt, zauroczenie są oparte na tym, co tracimy. Na niepewności, na ryzyku odrzucenia. Dlatego tak nas to kręci, bo zawsze jest ryzyko, że ktoś mnie odrzuci. Myślę, że teraz flirt i zauroczenie mogą stać się bardziej elitarne. Przy czym elitarność rozumiem w specyficzny sposób. Romantyczna miłość nie zniknie, ale przestanie być naturalnym etapem życia, stając się praktyką kulturową. Dla niektórych – aktem oporu przeciwko kulturze algorytmicznej. Widzę to już u niektórych moich studentów. Jednak, nie oszukujmy się, jest ich mniejszość.
Na czym to polega?
Umawiają się, że podczas spotkania nie będą wyciągać telefonów. Dochodzą do pewnych rzeczy sami i śmieją się ze swojej niewiedzy.
Spodziewam się, że z czasem romantyczna miłość stanie się ponownie w kulturze znakiem przynależności do klasy społecznej, która będzie potrafiła chronić swoją relacyjność przed logiką rynku i logiką maszyn. Być może po raz pierwszy w historii miłość będzie wymagała nie tylko odwagi emocjonalnej, ale także świadomego ograniczenia technologicznego w pewnych obszarach i wiedzenia życia w inny sposób. A my, którzy dziś kochamy i żyjemy w micie miłości romantycznej, będziemy punktem pięknego odniesienia dla przyszłych pokoleń elit afektywnych. Zostaniemy zromantyzowani, a nasz styl życia będzie absolutnie niedoścignionym ideałem.
I myślę, że elitą relacyjną niekoniecznie będą ludzie najlepiej wykształceni we wprawnym posługiwaniu się systemami technicznymi.
Kto więc ocali miłość?
Ci, którzy nie będą musieli długo pracować, gdyż relacje romantyczne sypią się też z powodu nadmiaru zajęć. Będą więc potrzebne czas, stabilność materialna i fizyczna obecność bez haptycznych kombinezonów. Miłość będzie potrzebowała ciszy i opóźnienia pozwalającego w jakiś sposób przyjrzeć się drugiej osobie, żeby ją poznać.
Dr Ada Florentyna Pawlak – antropolożka technologii, prawniczka i historyczka sztuki. Specjalizuje się w obszarze społecznych implikacji sztucznej inteligencji. Wykładowczyni akademicka, prowadzi autorskie zajęcia dotyczące sztucznej empatii i emocjonalnych relacji z AI („Miłość i przyjaźń w czasach AI”, USWPS; „Technointymność” Uniwersytet Civitas). Kierowniczka merytoryczna studiów podyplomowych „Sztuczna inteligencja w biznesie” Collegium Da Vinci.
Miłośniczka rzeki Wisły, literatury pięknej i działań w paradygmacie art@science.
























Napisz komentarz
Komentarze