Łukasz Pawłowski: Przed Marszem Niepodległości Facebook zablokował niektóre z profili polskich narodowców, oceniając, że promuje się tam mowę nienawiści. Wiele mediów i organizacji – niekoniecznie prawicowych – uznało tę decyzję za ograniczanie wolności słowa. Jednocześnie, po kampanii prezydenckiej w Stanach Zjednoczonych, część amerykańskich mediów domaga się od Facebooka cenzurowania jawnie nieprawdziwych treści, które mogły przyczynić się do sukcesu Trumpa. Czy mamy do czynienia z dwoma sprzecznymi postulatami wobec tej samej firmy?
Katarzyna Szymielewicz: To nie są porównywalne przypadki. W Polsce pojawił się spór, ponieważ według polskiego prawa, w odróżnieniu od regulaminu Facebooka, symbol falangi jest legalny i sam w sobie nie jest przejawem mowy nienawiści. W polskim prawie nie istnieją zresztą słowa i symbole zakazane – o tym, czy mamy do czynienia z mową nienawiści, decyduje kontekst.
ŁP: Zakazane jest na przykład promowanie nazizmu.
Ale już nie wykorzystanie dajmy na to swastyki w artykułach naukowych lub publikacjach historycznych. Natomiast Facebook, szukając prostego i nadającego się do automatycznego wdrożenia rozwiązania, przyjął, że pewne symbole są – zgodnie z jego regulaminem – zakazane. To oczywiście może prowadzić do blokowania treści, które w danym kraju są legalne. Z drugiej strony portale internetowe często nie usuwają treści, które zgodnie z polskim prawem należałoby uznać za mowę nienawiści. Takich treści nie da się wykryć z pomocą prostego algorytmu, ponieważ konieczne jest właściwe odczytanie kontekstu i emocji związanych z daną wypowiedzią. Jak pokazują doświadczenia Facebooka, problem z taką oceną mogą mieć nawet ludzie, jeśli nie znają dość dobrze języka i kontekstu społecznego. Stąd konieczność bazowania na zgłoszeniach samych użytkowników i rozstrzygania sporów światopoglądowych, bo przecież ta sama treść może u różnych osób budzić różne emocje.
Sytuacja staje się jeszcze bardziej skomplikowana w przypadku treści legalnych, ale z różnych powodów problematycznych, jak np. nieprawdziwe informacje. Treści nieprawdziwe mogą się przecież pojawiać w najróżniejszym kontekście: satyry, uproszczenia, wyolbrzymienia. Trudno wymagać, by każdy głos w debacie publicznej był w pełni wiarygodny i rzetelny. Wyznaczenie takiego standardu to prosta droga do cenzury i arbitralnych ocen. Podejrzewam, że zgodnie z tak pojemnym i uznaniowym kryterium większość treści, jakie pojawiają się w internecie, można by uznać za nielegalne.
ŁP: Co w takim razie możemy zrobić?
Po pierwsze warto wyjść od pytania, dlaczego nieprawdziwe informacje są tak popularne. Czy nie jest tak, że my wszyscy, jako użytkownicy mediów społecznościowych, ponosimy za to częściową odpowiedzialność, a przynajmniej mamy na to realny wpływ? Jeżeli niepokoi nas to, że nieprawdziwa informacja zyskuje na znaczeniu i zaczyna oddziaływać na życie publiczne, zawsze możemy aktywnie wzmacniać alternatywny, rzetelny przekaz. Jeśli będzie to robić dostatecznie dużo osób, mają szansę zmienić, a przynajmniej zrównoważyć fałszywą narrację.
Popularność nieprawdziwych treści jest związana z tabloidyzacją wiadomości, które obecnie stały się grą emocji i rozrywką. | Katarzyna Szymielewicz
Jakub Bodziony: Ale to nie działa w ten sposób, ponieważ gorszy pieniądz zawsze wypiera lepszy. Fałszywa informacja jest bardziej atrakcyjna i szybko się rozprzestrzenia, zanim zostanie zweryfikowana jako kłamstwo. Jej wpływ na społeczność od razu jest negatywny, a ewentualne sprostowanie dotrze do ułamka odbiorców.
Nasze życie publiczne w coraz większym stopniu jest zdefiniowane przez nieprawdziwe informacje. I to jest niepokojące. Nigdzie jednak nie dojdziemy, jeśli skupimy się na nieskutecznych zakazach, bez zrozumienia przyczyn. Może być tak, że jakościowo gorszych informacji jest po prostu więcej, bo media produkują je szybciej i taniej, a ważna jest liczba kliknięć, nie zaś merytoryczna wartość materiału. Bardziej prawdopodobne wydaje mi się jednak to, że informacja nieprawdziwa często niesie wyższy ładunek emocjonalny i dlatego przyciąga więcej uwagi. Jeżeli rzeczywiście tak jest, to naszym głównym problemem nie jest inflacja fałszywych treści, tylko sprowadzenie debaty publicznej do języka emocji, sensacji i maksymalnych uproszczeń. Gdyby ładunek informacyjny komunikatu miał większe znaczenie niż ładunek emocjonalny, wtedy to fałsz byłby wypierany przez prawdę.
ŁP: Póki tak się nie stanie, czego możemy wymagać od właścicieli mediów społecznościowych? Mark Zuckerberg twierdzi, że jego Facebook to jedynie platforma, która nie może ponosić odpowiedzialności za treści publikowane przez użytkowników. Inni argumentują, że Facebook poprzez stosowane algorytmy sam decyduje o tym, co będziemy mogli przeczytać. Dobiera nam treści, a zatem zachowuje się jak wydawca gazety i w związku z tym powinien być obciążany takimi samymi obowiązkami. A wydawcę gazety możemy pozwać do sądu za publikację fałszywych informacji.
Jeśli naprawdę Zuckerberg twierdzi, że Facebook nie ponosi odpowiedzialności za treści publikowane na jego łamach, najwyraźniej nie zna regulaminu własnego serwisu ani przepisów w Unii Europejskiej, na której terenie funkcjonuje jego firma. To Facebook podjął decyzję, że będzie nie tylko reagować na zgłoszenia swoich użytkowników, co nakazuje obowiązujące w Unii Europejskiej prawo, ale również z własnej inicjatywy usuwać treści, które naruszają regulamin serwisu. To powoduje, że w świetle prawa Facebook nie jest „ślepym” pośrednikiem w dostarczaniu informacji, ale aktywnym graczem, który ponosi odpowiedzialność za swoją politykę. Osobiście wolałabym, żeby z tej polityki zrezygnował i ograniczył się do usuwania treści, które na danym terytorium są nielegalne.
JB: A informacje nieprawdziwe?
Portal nie powinien ich usuwać, ponieważ nie łamią prawa. Ale mógłby zrobić coś lepszego: z jednej strony dać użytkownikom możliwość oceniania treści pod kątem ich prawdziwości, a z drugiej – zwiększyć przejrzystość działania algorytmu, który dobiera treści dla poszczególnych użytkowników.
JB: Co by to mogło zmienić?
Facebook wyświetla nam treści według określonych kryteriów: płci, poglądów, wieku, miejsca zamieszkania, wykształcenia, poglądów naszych znajomych. Podobno czynników, które są realnie brane pod uwagę, są tysiące, ale ich pełna lista i waga to tajemnica przedsiębiorstwa. Nie wymagam od Facebooka, żeby ujawnił swój algorytm, ale powinien umożliwić użytkownikom weryfikowanie danych osobowych, które w tym procesie są brane pod uwagę. Mogę sobie nie życzyć, żeby Facebook odgadywał moje poglądy polityczne czy pokazywał mi wyłącznie świat moich znajomych. Wybór innych kryteriów daje szansę na wyjście poza bańkę informacyjną.
Trudno jednak oczekiwać od algorytmu, że oceni za nas stopień „prawdziwości” informacji. Sztuczna inteligencja musiałaby być w stanie zrozumieć tekst, odnieść ten przekaz do kontekstu społecznego, ocenić prawdziwość i na tej podstawie pozycjonować. To dość przerażający scenariusz, który przerzuca na firmę ogromną odpowiedzialność. Narzucenie Facebookowi obowiązku reagowania na fałsz to pomysł karkołomny technicznie, niepożądany społecznie, prowadzący do błędów i realnej cenzury.
ŁP : Może więc Facebook powinien pozwolić wybranym organizacjom lub użytkownikom na zgłaszanie nieprawdziwych treści? Zuckerberg sygnalizował, że rozważa takie rozwiązanie.
Dlaczego tylko wybranym organizacjom? Wystarczy prosta opcja flagowania treści, które uważamy za nieprawdziwe. Oczywiście zawsze znajdzie się ktoś, kto fałsz oznaczy jako prawdę, choćby w ramach trollowania. Jednak kiedy zobaczymy post z tysiącem flag ostrzegających: „fałsz!”, jest szansa, że zachowamy większą czujność. Innym pomysłem może być automatyczne podpowiadanie treści, które dotyczą tej samej kwestii, ale reprezentują różne strony sporu. Z wykreowaniem takich podpowiedzi algorytm Facebooka nie powinien mieć żadnego problemu. Żaden użytkownik nie będzie musiał z niej skorzystać, ale przynajmniej będzie miał możliwość zapoznania się z przeciwnym stanowiskiem.
ŁP: To jednak niejako zrównuje ze sobą wiadomości prawdziwe i kompletny fałsz. A tak być nie powinno.
Popularność nieprawdziwych treści najprawdopodobniej jest związana z tabloidyzacją wiadomości, które obecnie stały się przede wszystkim grą emocji i rozrywką. Najwyraźniej wiele osób takiej rozrywki poszukuje w internecie i nikt nie może im tego zabronić. Jestem przekonana, że próba narzucenia im innej wizji świata mogłaby doprowadzić co najwyżej do buntu. To nie jest świat, w którym łatwo będzie się odnaleźć wam czy mnie, ale możliwe, że on właśnie zaczyna dominować.
JB: Użytkownicy Facebooka sami jednak cenzurują i filtrują treści, bo zamykają się we własnych liberalnych, lewicowych czy konserwatywnych społecznościach, tworząc bańki informacyjne. Jeśli społeczna kontrola tego portalu miałaby funkcjonować, wymagałaby, abyśmy sami śledzili strony, które publikują treści niezgodne z naszym światopoglądem.
Owszem, w pierwszym kroku to my wybieramy, kto jest na liście naszych znajomych i jakie strony śledzimy. Jednak na to, co ostatecznie zobaczymy na ekranie, największy wpływ ma algorytm Facebooka. Dziś ewidentnie zamyka nas w bańce informacyjnej, a przecież mógłby premiować różnorodność treści, podpowiadać nam różne stanowiska dotyczące tej samej sprawy.
ŁP: Wróćmy jednak do kwestii ewentualnej odpowiedzialności prawnej. Czy Facebooka można potraktować jak wydawcę prasy i oskarżyć o promocję treści nieprawdziwych czy obraźliwych?
To jest złożony problem. Platformy internetowe, takie jak Facebook czy Google, indeksują i w ramach swojej polityki rzeczywiście przetwarzają treści wytwarzane przez miliardy ludzi. Na przykład decydują o tym, jakie treści będą lepiej widoczne na ich stronach. Dlatego – wbrew temu co twierdzą same firmy – ich rola wykracza daleko poza bierne przekazywanie informacji. Z drugiej strony trudno ich rolę porównywać z sytuacją gazety, która zatrudnia kilkudziesięciu dziennikarzy i sama decyduje o tym, co będzie publikować. Platformy internetowe są gdzieś po środku tego spektrum. I dlatego nie ponoszą bezpośredniej odpowiedzialności za udostępniane treści, ale mają prawny obowiązek szybkiego reagowania na zgłoszenia swoich użytkowników czy interwencje organów państwa.
ŁP: W głośnej sprawie dotyczącej tzw. prawa do zapomnienia sąd uznał, że Google powinien usunąć z wyszukiwarki negatywne informacje dotyczące pewnego hiszpańskiego przedsiębiorcy.
Co do zasady prawo do zapomnienia dotyczy informacji prawdziwych, które zostały legalnie opublikowane, ale z różnych powodów nie powinny już być dostępne w wyszukiwarkach. Na przykład dlatego, że straciły aktualność, albo dlatego, że sposób, w jaki są prezentowane w wyszukiwarce, może prowadzić do dezinformacji. Wyobraźmy sobie taką sytuację: w artykule o mafii, pojawia się wzmianka o osobie, która była świadkiem w sądzie. Na skutek działania algorytmu Google’a, w odpowiedzi na zapytanie o tę osobę, w pierwszych wynikach pojawia się tekst sugerujący związki ze światem przestępczym… Rozwiązaniem tego typu problemu jest prawo do zapomnienia. Jego istotą nie jest modyfikacja samej publikacji, ale sposobu działania algorytmu, który ją pozycjonuje.
Treści fałszywe, a jednocześnie zniesławiające, nie muszą być „zapominane” przez wyszukiwarki, ponieważ można je z internetu usunąć, powołując się na naruszenie własnych praw. Najtrudniej poradzić sobie z fałszem, który nie powoduje zniesławienia i nie stanowi mowy nienawiści. Zwykła dezinformacja nie narusza prawa, a więc trudno kogokolwiek obarczać odpowiedzialnością za jej publikację czy rozpowszechnianie.
ŁP: Czyli jeżeli tradycyjna gazeta opublikowałaby informację, która zrobiła furorę na Facebooku, mówiącą, że papież Franciszek poparł Donalda Trumpa, to nie można jej za to pozwać?
Można, ale powinien to zrobić papież Franciszek, jeśli poczułby, że naruszone zostały jego dobra osobiste. Gazeta ponosi odpowiedzialność cywilną za zniesławienie, której nie możemy przypisywać platformom internetowym.
Jeszcze inaczej jest w sytuacji, gdy treści nieprawdziwe jednocześnie stanowią mowę nienawiści – na przykład pojawia się nieprawdziwy artykuł, mówiący, że lokalni muzułmanie dokonali poważnego przestępstwa. Przeciwko publikacji takich treści może zaprotestować każdy, a organy państwa mogą działać z urzędu. Nadal jednak firma internetowa nie ma obowiązku ich wykrywania i usuwania.
JB: Za kwestie cenzury w przypadku Facebooka odpowiada nie tylko algorytm, lecz także personel, postępujący według określonych wytycznych. Czy istnieje możliwość wywarcia presji społecznej na regulamin w pełni prywatnego serwisu?
Mechanizm reagowania na zgłoszenia samych użytkowników, którzy flagują treści, i działanie algorytmu, który decyduje o tym, co jest nam wyświetlane, to dwa odrębne procesy – różne poziomy realizowania kontroli nad informacją. Zgłoszenia użytkowników, co do zasady, dotyczą treści zniesławiających czy mowy nienawiści, które – właśnie w wyniku takich interwencji – często są przez portal usuwane. Działanie algorytmu nie ma nic wspólnego z systemem zgłoszeń – to narzędzie realizuje własną politykę Facebooka i na podstawie niejawnych kryteriów niektóre treści pozycjonuje wyżej, a inne niżej. Przy czym algorytm bierze pod uwagę tylko te treści, które nie zostały usunięte w wyniku czyjegoś zgłoszenia.
Jeśli rzeczywiście mamy rosnący problem z treściami nieprawdziwymi, możemy się domagać, by portale społecznościowe wprowadziły procedurę ich zgłaszania i flagowania. Taki pomysł stanie się kwestią debaty politycznej. Jednak nie chciałabym, żeby Facebook na podstawie plebiscytu popularności oddzielał prawdę od fałszu i blokował wszystko, co jego użytkownicy uznali za nieprawdziwe. Wolę otworzyć się na konkurencyjne narracje niż zaakceptować arbitralną cenzurę.
* Fot. wykorzystana jako ikona wpisu: Geralt; Źródło: Pixabay.com [CC0]