Tomasz Sawczuk: Kiedyś była szczęśliwa era wolnego internetu, a dzisiaj cyfrowy świat jest chory. To prawda?

Aleksandra Przegalińska: Nie wierzę w wiek niewinności. Był może chaos początków. Możliwa była wtedy eksploracja rozmaitych ścieżek rozwoju sieci. Ale potem zawsze następuje proces stabilizacji.

To fajnie, że w 2001 roku Yochai Benkler pisał o cyfrowych kibucach – że w końcu będziemy wolni w sieci, nie będąc wolnymi poza nią. Ale prawda jest taka, że sieć to jest nasz cyfrowy bliźniak. I chociaż ma swoje uwarunkowania, to jest w dużej mierze odzwierciedleniem świata fizycznego. Nie wierzę, że kiedyś było piękniej i lepiej.

To co się zmieniło?

Zaczynamy zdawać sobie sprawę z tego, co się dzieje. Na przykład zdajemy sobie sprawę z istnienia czegoś takiego jak bańki informacyjne. I doskonale wiemy dzisiaj, jak one działają. To pozwala nam myśleć o alternatywach. To duży krok naprzód.

Wcześniej świadomość była dużo niższa. Ludzie rzadziej pytali o to, dlaczego zobaczyli pewną informację w sieci, a także o to, czego nie zobaczyli. Teraz mleko się rozlało. Musiało w końcu dojść do skandalu, takiego jak Cambridge Analytica, żeby ludzie dostrzegli, że coś jest nie tak.

Na razie jest dużo szumu medialnego. Jakie są trzy najważniejsze problemy?

Powiem o tym, co jest mi bliskie. Ostatnio z uwagą obserwuję tektoniczne ruchy w sferze mediów społecznościowych. Jeszcze do niedawna uważaliśmy, że krajobraz mediów społecznościowych został zacementowany na bardzo długo. Kiedy Facebook kupił Instagrama, wydawało się, że przejął nie tylko pokolenie młodych rodziców, ale także wziął nastolatków i młodych dorosłych.

Ale najpierw pojawił się TikTok, który ma zupełnie inny pomysł na algorytmikę podsuwania treści. Można przeżyć szok, mając z nim do czynienia po raz pierwszy, ale jest to na pewno inne medium. Teraz z wielką uwagą obserwuję rozwój platform takich jak Clubhouse i Discord. Te zmiany wydają się bardzo interesujące nie tylko dlatego, że naruszają istniejący oligopol.

A dlaczego jeszcze? 

Jest to próba odpowiedzi na problem polaryzacji. Do czego zmuszają nas te platformy? Do tego, żeby zabrać głos w sposób nieanonimowy. To nie wszystkim musi się podobać. Ale jest to próba wyjścia z impasu polaryzacji, w jakim się znaleźliśmy, a także braku przestrzeni do rozmowy, co jest jeszcze gorsze niż sama polaryzacja.

To jest dla mnie społeczny problem numer jeden, z którego wynika wiele innych – uporządkowanie dyskusji. Nie chodzi o to, że wszyscy mamy w wyprasowanych kołnierzykach zgłaszać się do odpowiedzi na Clubhousie. Pewnie jest dużo innych sposobów. Ale to jest rozwiązanie intersujące z punktu widzenia już zdiagnozowanych problemów. Weźmy nut-picking – mamy jakieś zjawisko, które reprezentowane jest w wielu formach, jednak najbardziej klikalna okazuje się forma najbardziej ekstremalna. To blokuje wszelką możliwość dyskusji.

Ilustracja: Arkadiusz Hapka

Zaledwie tydzień temu przedstawiciele młodej lewicy pisali w internecie pod nazwiskiem o „rażeniu prądem” ludzi o innych poglądach. Co jest takiego w formie tych nowych platform, że prowadzi do zmiany sposobu komunikacji? 

Pierwszym ważnym czynnikiem jest to, że reakcja nie jest odłożona w czasie, tylko natychmiastowa – tak jak w rozmowie. Do tego szalenie istotny jest głos. To wynika bezpośrednio z badań naszego zespołu. Głos niesie masę afektów. Wypowiedzenie rzeczy na głos daje bogatszy kontekst, niż kiedy to samo jest napisane. Dlatego jestem w ogóle fanką interfejsów głosowych. Trudno mi sobie wyobrazić, że osoba, która pisze nienawistne komentarze, wykrzykiwałaby je na Clubhousie.

Rosnąca popularność podcastów i wideoblogów to ucieczka przed toksycznym pisaniem? 

I skrótowością przekazu. Byliśmy uczeni, że musi być najkrócej, jak się da. Myślę, że na naszych oczach ten paradygmat odchodzi w przeszłość.

Sama prowadzę podcasty, one nie są aż tak długie, jak programy Joe Rogana, które trwają nawet do 2–3 godzin. Jednak zarówno dla mnie, jak i dla słuchaczy i słuchaczek to jest satysfakcjonujące. W końcu można coś powiedzieć. To nie jest 6 minut jak w telewizji śniadaniowej ani strzał w mediach społecznościowych. A umówmy się, że to nie jest wybór ludzi zmęczonych mediami społecznościowymi, tylko wybór ludzi młodych, często bardzo świadomy.

To jaki jest drugi główny problem? 

To już bardziej z mojej działki – jako praktyka sztucznej inteligencji. Jest to stronniczość [ang. bias] decyzji podejmowanych przez algorytmy. Może to mieć ogromne konsekwencje dla ludzkiej egzystencji, choćby dla diagnostyki medycznej albo w przypadku narzędzi rekrutacyjnych, które wykluczają z pracy pewne osoby i grupy.

I co z tym można zrobić?

Jest już trochę pomysłów, jak dążyć do bardziej sprawiedliwej sztucznej inteligencji, ale wciąż za mało w stosunku do tego, jak potężny to jest temat. A w dodatku naprawdę nieoczywisty. Bo często nie mamy do czynienia z jawną dyskryminacją. Wręcz przeciwnie – czasem znaczenie ma to, to co jest zakryte. Tymczasem algorytmiczne podejmowanie decyzji jest wszędzie, od feedu w mediach społecznościowych po aplikację kredytową.

Czy to jest bardziej kwestia techniki czy człowieka? Decyzja o tym, co pokazujemy, a co zakrywamy, co uwzględniamy, a co odrzucamy, to jest decyzja polityczna. W ostatnim czasie najgłośniejszy przypadek to zablokowanie Donalda Trumpa na Twitterze. I to była decyzja człowieka, a nie algorytmu. 

To jest i technika, i człowiek – dlatego to jest bardzo trudne. Ale wydaje mi się, że bias jest przede wszystkim problemem technologicznym. Oczywiście, wynika często z naszych wyszukiwań i stereotypów, które mamy w głowie. Jednak większa uważność po stronie technologicznej nie tylko rozwiązałaby część problemu, ale też dała więcej wiarygodności technologiom, które bardzo tego potrzebują, żeby rozwijać się w stronę lepszą dla ludzi.

W mojej dziedzinie pracuje się trudno. Mimo że ludzi interesuje sztuczna inteligencja, to większość pytań ma charakter negatywny. Jest oczekiwanie, żeby mitygować lęki. A skoro tak jest, że cały czas są te lęki, to znaczy, że na fundamentalnym poziomie coś nie działa. Jeżeli więc możemy w jakikolwiek sposób dowieść, że technologicznie jesteśmy w stanie rozwiązać przynajmniej część problemu, to może od tego zacznijmy.

Pytanie o algorytm jest zawsze także pytaniem o twórcę algorytmu. Niektórzy politolodzy, tacy jak Daniel Ziblatt i Steven Levitsky, przekonują, że rosnąca polaryzacja i radykalizacja sfery publicznej wiąże się z upadkiem tak zwanych gatekeeperów, czyli instytucji społecznych, takich jak elity partii politycznych, które w przeszłości blokowały dostęp radykałów do władzy. Czy powinniśmy patrzeć na algorytmy cyfrowe w kategoriach współczesnych odpowiedników tego rodzaju instytucji – jak na nowych gatekeeperów?

Nie uważam, że technologia powinna przejmować takie kompetencje ludzi. Jest zresztą iluzją, że możliwy jest powrót do stanu wcześniejszego. Myślę natomiast, że technologia powinna udostępniać opcje, umożliwiać zróżnicowanie.

W mojej ocenie najważniejsza jest edukacja technologiczna, krytyczna analiza treści przez młodych ludzi. Nie mam co do tego wątpliwości. A to jest najbardziej zaniedbany obszar edukacji w Polsce. Pod tym względem jesteśmy w naprawdę złym miejscu. I jest to znacznie większy problem niż sposób działania algorytmu.

Co to znaczy w praktyce?

Lepiej myśleć o narzędziach, które nie odgrywają roli gatekeeperów, lecz mają bardziej miękki charakter – na przykład naprawdę dobrze pojętego fact-checkingu, który jest tak łatwy, jak zalajkowanie wpisu na Facebooku. To byłby powrót do sytuacji, w której technologia może coś sugeruje, ale niczego nie zamyka.

To nie jest zadanie ponad ludzkie siły. Chodzi o to, żeby każdy mógł wiedzieć, dlaczego coś ogląda. I to jest dla mnie produktywne wyjście z impasu. A w marzenia o powrocie do przeszłości nie wierzę.

Algorytm zawsze będzie polityczny. Coś wypromuje, a coś pominie. Z kolei edukacja młodych to jest odpowiedź na dekady, a nie na jutro.

Dla mnie to jest jedyne praktyczne rozwiązanie. Algorytm już tasuje treści. Jedyne, co mogę do tego dodać, to wyjaśnić człowiekowi, dlaczego coś widzi i z czym jeszcze się to wiąże. A może ktoś zażąda zobaczenia treści radykalnie rozbieżnych z tym, co widzi?

„Chcę zobaczyć przeciwną opinię”? To byłaby ciekawa opcja.

Na pewno da się to zrobić. Można obawiać się, że będzie to mieć złe skutki, bo ktoś zostanie wciągnięty w wir treści, które będą powodować u tej osoby niepokój. Ale jesteśmy w sytuacji, w której w ogóle nie da się rozmawiać, więc może to jest jedyny sensowny pomysł.

Jak ktoś przychodzi ze swoimi troskami i obawami… to powiem tak: nie śmiałabym się z antyszczepionkowców w sieci. To nie jest dla mnie sposób na rozwiązanie problemu, a widzę, że według wielu osób to jest dobry sposób.

W „Kulturze Liberalnej” mieliśmy cały numer dotyczący tego, żeby się z nich nie śmiać. To trzecia kwestia na koniec: a czy sam rozwój technologiczny stał się problemem? Niektórzy twierdzą, że tempo rozwoju technologicznego jest po prostu za duże – i człowiek nie może za tym nadążyć. W Polsce taki pogląd promuje Andrzej Zybertowicz. Co pani o tym myśli?

Moim zdaniem to nie jest trafna analiza. Twierdzenie prof. Zybertowicza może budzić strach, a to jest bardzo paraliżująca emocja, która utrudnia działanie. Byłoby dobrze, gdyby w takich sprawach częściej zabierali głos praktycy dziedziny, którzy mają do czynienia z „żywym” kodem i dostrzegają rozmaite ograniczenia sztucznej inteligencji. Może wtedy dyskurs publiczny miałby mniej alarmistyczny charakter.

Nie wiem, jakie badania naukowe potwierdzają tego rodzaju pogląd. Jestem świadoma tego, że kiedy jemy jedzenie z lodówki, chociaż wcale nie jesteśmy głodni, to jest to ewolucyjna zaszłość, która nie przystaje do współczesnych warunków życia w świecie Zachodu. Jedną nogą jesteśmy w społeczeństwach łowiecko-zbierackich. Ale drugą nogą jesteśmy naprawdę tu i teraz, tworząc technologie.

Możemy szukać cyfrowego detoksu i abstynencji – to ma sens. Jednak pomysł, że „nie nadążamy”, kłóci się z istniejącymi obserwacjami, choćby w kontekście tego, w jaki sposób radzimy sobie z pandemią, w tym cyfryzacją organizacji, które tworzą przecież ludzie. Nie fetyszyzuję rozwoju technologicznego. Niech dzieci grają też w piłkę, zamiast tylko siedzieć w iPadach. Ale naturalizacja technologii jest raczej koronnym dowodem na to, że korzystanie z technologii przychodzi nam bardzo łatwo. Na dobre i na złe.

Jeszcze trochę skomplikuję. Tak jak rozumiem wątpliwość – dotyczy ona dwóch rzeczy. Po pierwsze, czy to jest dobre życie? A po drugie, czy to jest życie dla wszystkich? Niektórzy na pewno potrafią się przystosować. Ale czy zmiana technologiczna nie prowadzi do powstania społeczeństwa rosnących nierówności, z którego część ludzi będzie trwale wykluczona? 

No dobrze, tylko kiedy było to mityczne „dobre życie”? W feudalizmie? Za komuny? I drugie kluczowe pytanie: czy da się zrobić coś, co będzie dobre dla wszystkich?

Wydaje mi się, że tego rodzaju krytyka technologii ma autorytarny posmak. Mam kłopot ze stwierdzeniem, że dobre życie dla kogoś będzie polegać na tym, co powie ktoś inny. Sztuczna inteligencja szuka leków na covid, modeluje pandemię, robi diagnostykę medyczną i przyjmuje ludzi do szpitali. Tak tylko wspominam.