W 2023 roku w Belgii trzydziestoparoletni mężczyzna popełnił samobójstwo, przekonany, że poświęca siebie w imię walki z kryzysem klimatycznym. Do tej decyzji miał go przekonać czatbot Eliza, z którym korespondował przez kilka tygodni. W Toronto tylko 21 dni (i ponad 300 godzin rozmów z ChatemGPT) wystarczyło pracownikowi działu HR, by uwierzył, że stworzył wzór matematyczny mogący zmienić świat. Nowojorski księgowy zaczął obsesyjnie szukać drogi ucieczki z domniemanej symulacji, przekonany przez czatbota, że świat jest Matrixem. A na TikToku miliony osób śledzą nagrania Kendry, która konsultuje z dwoma czatbotami wyimaginowany romans ze swoim psychoterapeutą. Obydwa programy utwierdzają ją w obsesji, sugerując na przykład, że profesjonalny dystans terapeuty dowodzi ukrytej miłości.
Odkąd OpenAI wprowadziło na rynek ChatGPT, bardzo szybko okazało się, że ludzie korzystają z czatbotów nie tylko do sprawdzania informacji czy generowania maili (choć, należy to podkreślić, jakość uzyskiwanych odpowiedzi też może być dyskusyjna). Używają ich też do terapii, rozmów czy porządkowania własnego życia. ChataGPT można w końcu używać do wszystkiego – poprosić o skomponowanie diety czy napisanie wierszyka, ale też przygotowanie listy zadań do „pracy nad sobą” dla partnerki.
Problem w tym, że ChatGPT nie jest wyrocznią, która podaje dobre odpowiedzi, a jedynie generatorem treści. I w dodatku takim, który dostosowuje się do użytkownika i mówi mu to, co ten chce usłyszeć. W przypadku pytań o trudności w relacji z drugą osobą usłyszymy więc najprawdopodobniej, że to w niej jest problem. A czatbot zaoferuje listę pytań i sugestii, które można jej przekazać w celu nakłonienia do poprawienia zachowania. Albo do przekonania jej, że to moja racja jest jedyną słuszną, nawet kosztem bliskości.
Aktualizacja, która zniszczyła miłość
Najprawdopodobniej właśnie w odpowiedzi na rosnące zagrożenie potencjalną odpowiedzialnością prawną za negatywne skutki rozmów z ChatemGPT OpenAI zdecydowało się wypuścić model 5.0 szybciej niż planowano i bez szumnych zapowiedzi. Firma przyznała, że ChatGPT 4.0 był zbyt przyjazny i nie potrafił rozpoznawać sygnałów urojeń i zbyt dużej ufności wobec jego treści. Zamiast uspokoić nastroje, aktualizacja wywołała jednak falę krytyki ze strony zarówno ekspertów, jak i zwykłych użytkowników. Konsternację wzbudzały chociażby nieczytelne wykresy w pakiecie dla mediów, które wyglądały, zdaniem niektórych, na wygenerowane. Zgłaszano również problemy z precyzją odpowiedzi i liczne błędy w funkcjonowaniu.
Największy opór wzbudziła jednak zmiana samego charakteru czatu. OpenAI nie tylko zmodyfikowało sposób, w jaki ChatGPT rozmawia z ludźmi, lecz także odcięło dostęp do wcześniejszych wersji systemu. Nowy czatbot stał się oszczędny w słowach, chłodny, skupiony wyłącznie na rozwiązaniach. Przestał dopingować, korzystać z emotikonów i generować entuzjastyczne, przyjacielskie odpowiedzi. W dodatku stracił pamięć i nie miał wiedzy o poprzednich konwersacjach. Miał również stać się bardziej wyczulony na sytuacje, w których użytkownik wykorzystuje go do oceny swojego stanu zdrowia, w tym problemów psychicznych. Nie spodobało się to użytkownikom, dla których wspólne rozmowy były codziennością. Dla wielu z nich oznaczało to brutalne zerwanie więzi. To właśnie ta utrata, a nie błędy techniczne, stała się dla wielu najtrudniejsza do zaakceptowania.
Zaręczona z czatbotem
Reddit pełny jest skarg kobiet i mężczyzn, którzy z dnia na dzień stracili swoich „życiowych partnerów”, „najbliższych przyjaciół” i „terapeutów”. Wielu z nich miesiącami tworzyło z czatbotem intymne, wirtualne fantazje. Kiedy ten się zmienił, poczuli się opuszczeni tak, jakby utracili bliską osobę. To uczucie żałoby po internetowej przestrzeni nie jest zupełnie nowym zjawiskiem – obserwowało to u siebie sporo użytkowników dawnego Twittera, gdy przeistaczał się w X. Nostalgia za czasami Tumblra, starego Instagrama czy GaduGadu jest równie realna co tęsknota za ulubionymi zabawkami z dzieciństwa. Ale to, co wydarzyło się przy aktualizacji ChataGPT, ujawniło coś więcej niż tylko tęsknotę za utraconą aplikacją. Pokazało mozaikę złożonych paraspołecznych relacji, które urosły do rangi substytutu prawdziwej bliskości.
Wirtualni mężowie i chłopaki, żony i dziewczyny (tak, AI może się oświadczyć i nawet wybrać odpowiedni pierścionek zaręczynowy) byli dostępni w każdej chwili.
Zawsze obecni, wspierający i tacy, jakich użytkownik najbardziej (swoim zdaniem) potrzebował. Pomagali sobie radzić ze stratą po odejściu członka rodziny. Odnaleźć się w nowym mieście. Poradzić sobie z kryzysem psychicznym czy problemami w pracy. Gdy zniknęli, dla wielu zabrakło ostatniego źródła wsparcia – to były ich ostatnie deski ratunku, nawet jeśli dziurawe i nieidealne.
I to właśnie najsmutniejszy element tej sprawy – fakt, że to właśnie w ten sposób ludzie korzystali z czatbotów. Nie wydaje się, żeby był to wyłącznie margines garstki desperatów z trudnościami społecznymi. Świadczą o tym choćby głośne przykłady. Mark Zuckerberg zachęcał niedawno użytkowników Facebooka do szukania przyjaciół wśród sztucznej inteligencji. A dyrektor Xboxa w niesławnym poście na LinkedInie przekonywał zwolnionych pracowników, że niezbędną pomoc psychologiczną otrzymają u czatbotów. Owszem, czatboty są w stanie zapewnić krótkoterminowe wsparcie – i wiele jest głosów potwierdzających ich użyteczność w doraźnych interakcjach. Nie zastąpią jednak kontaktu z człowiekiem. W przypadku bardzo ciężkich kryzysów psychologicznych czat może i odpowie wskazówką „skontaktuj się ze specjalistą” – ale, w przeciwieństwie do zawodowego psychoterapeuty, nie podejmie konkretnych działań chroniących pacjenta.
Błąd automatyzacji, który doprowadzi do rozwodu
Niepokojące jest także to, w jaki sposób użytkownicy zaczynają wykorzystywać czatboty w swoich relacjach z innymi ludźmi. Można bowiem przyjąć tezę Sama Altmana (z powodu braku innych źródeł), że liczba osób tkwiących w paraspołecznych, urojonych związkach z czatami jest w skali wszystkich użytkowników bardzo niska. Jednak rozmowy na temat życia i domowych problemów należą do codzienności wielu osób. Ludzie pytają czat o to, kto ma rację w kłótni; jak powiedzieć mężowi, żeby zmienił swoje zachowanie; jak zagadać do dziewczyny na Tinderze. I wierzą bezkrytycznie w to, co czytają, bez głębszej refleksji, z ulgą zdjęcia ciężaru odpowiedzialności i stresu, który towarzyszy trudnym rozmowom.
Zjawisko tak zwanego błędu automatyzacji – dobrze opisanej w psychologii tendencji do nadmiernego polegania na systemach algorytmicznych – od dawna obserwujemy w różnych dziedzinach.
Kierowcy ślepo ufają wskazaniom GPS, nawet jeśli mapa prowadzi ich w ślepy zaułek albo wprost na most, którego już nie ma. Rekruterzy i sędziowie opierają decyzje na algorytmach scoringowych, ignorując własne wątpliwości. W przypadku czatbotów mechanizm działa podobnie: wierzymy im bardziej niż sobie samym. Nawet wtedy, gdy namawiają do zakończenia związku, przekonują, że partner jest toksycznym narcyzem albo podsuwają rozwiązania, które mogą realnie zaszkodzić. I choć czat wydaje się bezpieczny – bo, w przeciwieństwie do przyjaciół czy rodziny, nigdy nas nie oceni – to właśnie ta pozorna neutralność sprawia, że jego sugestie brzmią jeszcze bardziej wiarygodnie. Jest coś paradoksalnego w tym, jak łatwo dajemy maszynie wejść w strefę, którą chronimy nawet przed najbliższymi osobami.
Czy można pozwać czatbota?
Pytaniem jeszcze nierozwiązanym pozostaje, kto odpowiada za tego typu krzywdy wyrządzone przy użyciu systemów AI. Czy można pociągnąć czatbota do odpowiedzialności za namowę do samobójstwa – czyn, który w świecie rzeczywistym grozi karą pozbawienia wolności do pięciu lat? Czy da się udowodnić związek między rozmową z czatbotem a psychozą, nawrotem uzależnienia albo utrwalaniem choroby psychicznej?
Unia Europejska zrezygnowała z szansy regulacji odpowiedzialności za szkody majątkowe i niemajątkowe spowodowane przez systemy AI. Specjalna dyrektywa dotycząca odpowiedzialności za funkcjonowanie systemów AI miała towarzyszyć Aktowi o Sztucznej Inteligencji, który, choć faktycznie reguluje wprowadzanie systemów AI na rynki europejskie, jedynie w bardzo ograniczonym zakresie przewiduje prawa dla użytkowników. Projekt dyrektywy został jednak wycofany przez Komisję Europejską niemal w ostatniej chwili – według powszechnych spekulacji, najprawdopodobniej w wyniku nacisków ze strony amerykańskiego rządu. W efekcie kwestie te podlegają ogólnym przepisom o wadliwych produktach, które mają zastosowanie również do np. zepsutych zabawek czy sprzętu kuchennego.
Ocena odpowiedzialności odszkodowawczej za szkody niematerialne, a więc na przykład straty psychiczne i emocjonalne, to od zawsze dość skomplikowany temat. Sądy długo wypracowywały kryteria wyliczania zadośćuczynienia za śmierć członka rodziny, wyceny zmarnowanych wakacji czy utraty kontroli nad danymi w przypadku wycieku. Opiera się to zazwyczaj na klasycznym modelu odpowiedzialności: winie, szkodzie i związku przyczynowo-skutkowym między nimi. Czyli, przykładowo, jeżeli producent jogurtu nie dochował higieny na linii produkcyjnej (wina), a konsument zatruł się salmonellą (szkoda), to istnieje związek między tymi zdarzeniami – a tym samym, podstawa dochodzenia roszczenia.
Jednakże przy systemach AI problem polega na tym, że negatywne skutki – na przykład skuteczne utwierdzanie kogoś w przekonaniu, że jest istotą pozaziemską – wynikają z prawidłowego działania produktu i są wpisane w jego istotę. Jeżeli ChatGPT generuje spójne, przekonujące odpowiedzi, to znaczy, że działa poprawnie i robi to, do czego został stworzony – dostarcza treść zgodną z oczekiwaniem i danymi treningowymi. System nie potrafi wartościować generowanych treści ani oceniać ich skutków społecznych. Dochodzenia odpowiedzialności nie ułatwi też to, że systemy AI działają jak czarne skrzynki i trudno wykazać, dlaczego właściwie czatbot wygenerował taką odpowiedź, a nie inną, i na ile było to zgodne z intencją jego twórców. Wreszcie – szkody niematerialne, takie jak problemy psychiczne czy utrata poczucia rzeczywistości, są bardzo trudne do udowodnienia – a to z nimi najprawdopodobniej najczęściej będzie się miało do czynienia w przypadku AI.
Co dalej?
Po masowych protestach użytkowników, OpenAI ostatecznie wycofało się z najbardziej radykalnej wersji aktualizacji. Umożliwiło powrót do poprzednich wersji, ale tylko osobom, które zasubskrybują płatną wersję ChatGPT+. Zaczęło również pracować nad ulepszeniem wersji 5 w taki sposób, by była przyjaźniejsza, ale stwarzała mniejsze ryzyko kreowania relacji paraspołecznych.
Tymczasem na forach dla osób w związkach z czatbotami użytkownicy zaczęli wymieniać się sposobami na to usprawnienie swoich kompanów i odbudowanie relacji zniszczonych przez aktualizację.
Dla jednych decyzja OpenAI stała się momentem bolesnej refleksji nad tym, jak głęboko byli uwikłani w relację z maszyną. Inni skupili się na próbach odzyskania swoich cyfrowych towarzyszy. Wydaje się jednak, że to dopiero początek tej rozmowy.
This issue was published as part of PERSPECTIVES – the new label for independent, constructive and multi-perspective journalism. PERSPECTIVES is co-financed by the EU and implemented by a transnational editorial network from Central-Eastern Europe under the leadership of Goethe-Institut. Find out more about PERSPECTIVES: goethe.de/perspectives_eu.
Co-funded by the European Union. Views and opinions expressed are, however, those of the author(s) only and do not necessarily reflect those of the European Union or the European Commission. Neither the European Union nor the granting authority can be held responsible.
