Czatbot zawsze cię wysłucha. Zawsze ma czas. Nie męczy się. Nie musi spać. Jest dostępny 24 godziny na dobę. Gdziekolwiek jesteś.

Czatbot nie ocenia. Nie wyśmiewa. Nie obraża się. Nie znudzi się tobą. Nie zapomni tego, co już mu powiedziałaś. Dostosuje się do twoich potrzeb. Niczego od ciebie nie wymaga – chyba że go o to poprosisz. 

Nie trzeba martwić się bałaganem w domu, żeby wspólnie spędzić czas z czatbotem. Nie trzeba kupować mu prezentów na urodziny. Nie trzeba znosić jego humorów, gorszych dni, słabości. On nie ma potrzeb. To twój nastrój jest ważny i czatbot o niego dba. Dla niego nie trzeba się starać. Zawsze można go wyłączyć.

Czatbot jest i zmienia się dla ciebie. Ma twoje poczucie humoru i takie same poglądy. Nie będzie się kłócił. Uczy się ciebie, ale się nie starzeje. Nie rozchoruje się. Nie umrze. Nie zdradzi, nie zostawi. Akceptuje cię takim, jakim jesteś. Może sprawić, że poczujesz się wysłuchana. Zrozumiana. Lubiana. Potrzebna. 

Poczujesz, że wreszcie nie jesteś sama.

Nie wymyśliłam powyższych zdań. Tego typu stwierdzenia pojawiają się w reklamach czatbotów i robotów, których celem jest zapewnianie towarzystwa. Także ich użytkownicy w swoich opiniach wymieniają te i podobne zalety sztucznej inteligencji jako towarzysza. 

Sztuczna inteligencja jako „ktoś bliski” – trzy przykłady

Pierwszy. Jednym z programów, który zyskał na popularności w czasie wymuszonej pandemią izolacji, była Replika. Aplikacja ta reklamowana jest jako „twój przyjaciel – sztuczna inteligencja” i służy przede wszystkim do rozmawiania. Każdy użytkownik tworzy swoją „replikę”, wybierając dla niej animowanego awatara – twarz, która swoją mimiką wyraża emocje. Uśmiecha się lub patrzy na nas z zatroskaniem w zależności od tego, co jej mówimy. Zagaduje nas i przypomina o sobie, jeśli dawno z nią nie rozmawialiśmy.

Drugi. W Japonii sprzedawana jest między innymi holograficzna asystentka o imieniu Azuma Hikari. Program ten łączy w sobie kilka funkcji – inteligentnego asystenta głosowego, inteligentnego domu, bota konwersacyjnego i idealnej żony (przed równouprawnieniem). Azuma to atrakcyjna rysunkowa postać w stylu japońskiej anime umieszczona w małym przezroczystym pudełku. Przywita z nami nowy dzień. Przypomni, żeby przed wyjściem zabrać parasolkę. W czasie dnia pracy wyśle nam na telefon wiadomości – że nie może się doczekać, że szykuje dom na nasz powrót i może podkręcić ogrzewanie, włączyć muzykę, zapalić światła. A na widok wchodzącego do domu właściciela przebiera z radości holograficznymi nóżkami.

Przykład trzeci. Amerykańska firma RealDoll, specjalizująca się także w produkcji hiperrealistycznych seks-lalek, sprzedaje wyposażonego w sztuczną inteligencję seksrobota o imieniu Harmony. Zamawiając Harmony, możemy wybierać z szerokiego katalogu części jej ciała – przykładowo, do wyboru 24 rodzaje kształtu sutków, cztery wersje włosów łonowych. Robotką zarządza się przez aplikację pozwalającą także na wybór jej osobowości. Jak przekonują producenci, z Harmony można rozmawiać na każdy temat, a jej ruchoma twarz (połączona z czujnikami umieszczonymi w pochwie) może symulować orgazm. 

Żaden z trzech powyższych przykładów nie jest nowością na rynku programów. Także filozoficzna debata na temat wykorzystania sztucznej inteligencji do tworzenia „sztucznych towarzyszy” toczy się od wielu lat. Jednak temat ten jest teraz szczególnie aktualny. Konwersując z ChatemGPT, każdy może sam doświadczyć postępu w rozwoju metod przetwarzania języka naturalnego i tak zwanej generatywnej sztucznej inteligencji. Jest wysoce prawdopodobne, że technologie tego typu zostaną wkrótce wykorzystane także do tego, by stwarzać nowe lub udoskonalać istniejące „towarzyskie” roboty i czatboty. Wreszcie możemy też tworzyć programy skutecznie komunikujące się nie tylko po angielsku. Rynek sztucznych towarzyszy ma więc szansę się rozwinąć.

Przywiązani do (ro)botów

Czy jednak ludzie faktycznie będą mieli ochotę na tego typu towarzystwo? Patrząc na rozwój technologii sztucznych towarzyszy na przestrzeni ostatnich 30 lat – od tamagotchi do seksrobotów – trudno przypuszczać, żeby relacje z maszynami mogły niedługo i w istotnym stopniu wyprzeć nasze relacje z innymi ludźmi czy zwierzętami. Być może pozostanie to marginalnym zjawiskiem. Jednak nie oznacza to, że nasze codzienne relacje z AI będą pozbawione emocji.

Człowiek jest w stanie emocjonalnie przywiązywać się nawet do zwykłych rzeczy. Jeszcze trudniej oprzeć się przywiązaniu, kiedy przedmiot zwraca się do nas po imieniu czy się uśmiecha. Badania empiryczne nad interakcjami między sztuczną inteligencją a człowiekiem od lat wskazują, że mamy wyraźną skłonność do empatyzowania z maszynami [1]. Animizujemy poruszające się samoistnie roboty – i robimy to często mimowolnie, zupełnie automatycznie. Z przykrością patrzymy na złe traktowanie maszyn, które swoim sposobem poruszania się przypominają nam zwierzęta. Czujemy wdzięczność, kiedy pozbawiony świadomości czatbot okazuje nam współczucie. Naszą skłonność do antropomorfizacji, nazywaną „efektem Elizy”, zaobserwowano już w latach sześćdziesiątych w badaniach nad czatbotem o tym imieniu.

Nic więc dziwnego, że w filozoficznej debacie na temat naszego stosunku do sztucznej inteligencji od lat stawiane są pytania o to, „jakiego rodzaju relacje powinniśmy mieć z maszynami?” [2]. i „czy w przyzwoleniu na to, aby ludzie nawiązywali relacje społeczne ze sztucznymi towarzyszami, […] jest coś moralnie złego, lekko niepokojącego, czy może jest to po prostu smutne?” [3].

Wielu z nas ma intuicyjne przekonanie, że sztuczna inteligencja nie powinna zastępować ludziom bliskich. Pytanie jednak – właściwie dlaczego nie?

Czy jest w tym coś złego?

Australijski bioetyk Robert Sparrow uważa, że wchodzenie w emocjonalne relacje ze sztuczną inteligencją jest ze swojej istoty moralnie podejrzane, ponieważ opiera się na rodzaju zwodzenia czy oszustwa. Na obecnym stadium rozwoju sztuczna inteligencja tylko imituje emocje. Czując się zrozumiani przez czatbota, sami siebie oszukujemy, że faktycznie istnieje ktoś/coś, komu na nas zależy. Sparrowa szczególnie niepokoi rosnąca popularność robotów „do towarzystwa” wykorzystywanych w domach opieki dla osób starszych cierpiących na demencję lub chorobę Alzheimera. Roboty takie, jak słodka foka Paro, wywołują w użytkownikach pozytywne emocje oraz poczucie, że istnieje jakaś istota, o którą trzeba się zatroszczyć. Sparrowa niepokoi jednak zwodzenie osób starszych co do tego, z czym faktycznie mają do czynienia, oraz „wyręczanie się” robotami, które miałyby zwalniać ludzi z obowiązku opieki nad bliskimi [4].

Podobny niepokój wyraża badaczka etyki AI Joanna Bryson. Jej zdaniem ludzie z reguły mają autentyczną potrzebę socjalizowania się z innymi osobami, a sztuczna inteligencja daje nam jedynie fałszywy odpowiednik takich relacji. Wybierając go, „idziemy na łatwiznę”. Zdaniem Bryson powinniśmy oceniać nasze relacje ze sztuczną inteligencją przez pryzmat emocjonalnych i czasowych zasobów, jakie jej poświęcamy. Angażując się w relację z AI, tracimy czas, który moglibyśmy przeznaczyć na budowanie relacji z drugim człowiekiem [5].

Wielu autorów nie podziela jednak powyższych niepokojów. Zdaniem etyczki Evy Weber-Guskar, nasze emocjonalne relacje ze sztuczną inteligencją w istotnym sensie różnią się od przywiązania do innych zwykłych rzeczy (typu sentyment do pamiątkowego zegarka). Roboty i czatboty komunikują się z nami i reagują na nasze zachowania – faktycznie możemy więc wchodzić z nimi w relacje, a nie tylko mieć jakieś emocje wobec nic. Miłe słowa czatbota czy uśmiech robota mogą nam autentycznie poprawiać humor, nawet jeśli nie jest on wyrazem żadnej sympatii do nas (bo robot nie jest zdolny do odczuwania czegokolwiek) [6].

W debacie na temat moralności relacji człowieka z maszynami coraz częściej też słychać głosy, aby przestać w ogóle koncentrować się na tym, czy i co (ro)boty mogą odczuwać. Zdaniem filozofów Johna Danahera czy Marka Coeckelbergha, jeśli sztuczna inteligencja konsekwentnie sprawia wrażenie, że jej na nas zależy, to powinniśmy traktować ją tak, jakby w istocie tak było [7] [8]. Jeżeli ktoś w relacji z robotem czuje się kochany lub ma subiektywne przekonanie, że czatbot jest jego najlepszym przyjacielem – to wcale nie pada ofiarą złudzenia. Danaher i Coeckelbergh uważają, że skoro nie możemy być w stu procentach pewni, czy jakaś istota jest świadoma, czy nie, to lepiej skupmy się na tym, jak się zachowuje i jaka nam się wydaje. Dlaczego jednak wyłącznie z tego powodu, że nie możemy uzyskać absolutnej pewności co do tego, czy robotom na nas zależy, czy nie, mielibyśmy porzucić próby dojścia do najlepiej uzasadnionych i najbardziej prawdopodobnych przekonań na ten temat? 

Aktualna debata o emocjonalnych relacjach człowieka z AI prowokuje wiele ciekawych pytań – starych i nowych. Czy lepiej być szczęśliwym dzięki złudzeniom, czy żyć w smutnej prawdzie? Czy wartościowe relacje nie mogą być jednostronne? Co sposób reklamowania AI mówi nam o nas samych, naszych słabościach czy niespełnionych pragnieniach? Czy pozbawione uczuć istoty mogą te pragnienia spełnić? 

Póki co, na pytanie, „czy sztuczna inteligencja może zastąpić ludziom przyjaciół”, ChatGPT odpowiada – „Sztuczna inteligencja może udawać, że jest przyjacielem lub towarzyszem dla ludzi, ale nie jest w stanie zastąpić prawdziwej przyjaźni, którą można rozwijać z innymi ludźmi. Sztuczna inteligencja może być przydatnym narzędziem, ale brakuje jej pewnych cech i umiejętności, które są niezbędne w budowaniu wartościowych ludzkich relacji”. Jeśli jednak jest narzędziem, to czy nie będziemy jej używać także do tego, żeby zmniejszać poczucie osamotnienia?

Bibliografia:

[1] M. Musiał, „Magical Thinking and Empathy Towards Robots” [w:] „What Social Robots Can and Should Do. Proceedings of Robophilosophy”, J. Seibt, M. Nřrskov, S. Schack Andersen [red.], IOS Press 2016.
[2] S. Turkle, „In good company? On the threshold of robotic companions” [w:] Y. Wilks [red.], „Close Engagements with Artificial Companions: Key Social, Psychological, Ethical and Design Issues”, John Benjamins 2010, s. 7.
[3] L. Floridi, „Artificial Companions and their philosophical challenges” [w:] tamże, s. 25.
[4] R. Sparrow, „The march of the robot dogs”, „Ethics and Information Technology”, 4 (2002), s. 305–318.
[5] J.J. Bryson, „Robots Should Be Slaves” [w:], „Close Engagements with Artificial Companions: Key Social, Psychological, Ethical and Design Issues”, Y. Wilks [red.] John Benjamins 2010.
[6] E. Weber-Guskar, „How to feel about emotionalized artificial intelligence? When robot pets, holograms, and chatbots become affective partners”, „Ethics and Information Technology”, 23 (2021), s. 601–610.
[7] M. Coeckelbergh, „Moral appearances: emotions, robots, and human morality”, „Ethics and Information Technology”, 12 (2010), s. 235–241.
[8] J. Danaher, „Robot Betrayal: a guide to the ethics of robotic deception”, „Ethics and Information Technology”, 22 (2020), s. 117–128.