Aleksandra Sawa: Czy jeśli nawet prezydent Stanów Zjednoczonych nie może pisać na Twitterze tego, co chce, to mamy jeszcze wolność słowa w internecie?

Katarzyna Szymielewicz: Sprawa Donalda Trumpa wyraziście pokazała napięcie, jakie istnieje między użytkownikami internetu, a tymi, którzy mają realną władzę nad treścią, czyli wielkimi platformami internetowymi. Właśnie z władzą tych drugich się dzisiaj mierzymy. Natomiast, czy i w jakim stopniu ich władza oznacza ograniczenie naszej wolności słowa – to już bardziej złożona kwestia.

Dlaczego?

Wolność słowa ma swoje ograniczenia w demokracji i tak być powinno. Sęk w tym, że platformy internetowe swoją „cenzurę” stosują arbitralnie. Niektórym pozwalają na nadużywanie wolności słowa, a innym odbierają ją bardzo pochopnie. Fundacja Panoptykon od dwóch lat sądzi się z Facebookiem o prawo do publikacji treści dla Społecznej Inicjatywy Narkopolityki – organizacji, która poprzez Facebooka chciała pracować z ofiarami uzależnień, wspierać je i edukować. Ta praca została im przez Facebooka de facto uniemożliwiona, ale tak naprawę nie wiadomo dlaczego. I do tego właśnie „nie wiadomo dlaczego” sprowadza się nasz problem.

To jednak nie jest nowa sytuacja. Przed internetem były przecież klasyczne media i zawsze był ktoś, kto decydował. Może nie tyle o tym, co mówimy, ale na pewno o tym, czy to zostanie rozpowszechnione i czy ma szansę stać się opiniotwórcze. To, co robią dziś giganci technologiczni sygnalista Cambridge Analytica Christopher Wylie nazwał „sztucznym wzmacnianiem” niektórych głosów. Czy nie jest ono w gruncie rzeczy tym samym, co kiedyś robił redaktor gazety czy radia? I czy nie jest tak, że nawet pomimo algorytmów stosowanych przez media społecznościowe nasza sfera wolności słowa jest większa?

Zdecydowanie, internet dał nam większą „tubę” do wyrażania własnych poglądów. Ona jest tańsza, a przez to niemal powszechnie dostępna. Ale ta wolność ekspresji nie przekłada się na naszą widzialność dla innych, na prawo dotarcia z przekazem. Skalę naszego zasięgu kształtują algorytmy. Algorytmy, które odzwierciedlają komercyjny interes tworzących je platform. Trudno oceniać tę nierównowagę sił w kategoriach wolności słowa. Trzeba raczej mówić o komercjalizacji słowa.

Platformy nie każdemu z nas dają równe prawo dotarcia do innych, ale w zasadzie dlaczego miałyby to robić? Nie na tym polega istota ich usługi. Jako usługę otrzymujemy dostęp: to, że możemy funkcjonować w pewnym obiegu informacyjnym. W zamian za to musimy funkcjonować na zasadach, które ustalają platformy. I ta obietnica nigdy nie była inna. Platformy zawsze były kuratorami treści.

Czyli obietnica sprowadza się do tego, że dysponujemy spersonalizowanym kanałem informacyjnym? Przecież te platformy, przynajmniej Facebook, powstawały jako narzędzie komunikacji z naszą rodziną, znajomymi…

Usługa, którą platformy nam dostarczają, często jest nazywana „spersonalizowaną”. Ale to błędne określenie, bo zawartość tak zwanych feedów wcale nie jest układana pod nasze preferencje. To, co widzimy, jest specyficzne dla każdego z nas, ale układane pod preferencje reklamodawców. Czyli pod preferencje firm albo innych podmiotów, które mają narzędzia, żeby do nas dotrzeć. Te narzędzia zazwyczaj sprowadzają się do pieniędzy. Na dodatek parę lat temu okazało się, że widoczności sprzyja ładunek emocjonalny, krzykliwość treści i ich prostota. A te parametry nie sprzyjają jakości. Szczególnie jakości debaty politycznej.

Dlatego oskarżenia pod adresem platform internetowych – że ich model biznesowy sprzyja takim zjawiskom, jak fake newsy czy radykalizacja debaty publicznej – są słuszne.

Tak, ale Facebook czy Twitter mogą argumentować, że to nie one stworzyły te trendy. Nasza słabość do treści angażujących emocjonalnie, krzykliwych, polaryzujących – to przecież zjawisko, które zawsze istniało. A oni je tylko monetyzują. Poza tym użytkownicy zgodzili się na pewnego rodzaju transakcję: coś dostają, ale na pewnych warunkach.

Ja z taką logiką mocno polemizuję. Uważam, że nigdy nie zgodziliśmy się na tę transakcję. Co więcej, jej natura nigdy nie była nam wyjawiona. Obietnica, jaką wabiły nas wielkie platformy, była dość enigmatyczna. To była obietnica darmowej usługi, polegającej na dostarczeniu nam czegoś spersonalizowanego. Ale czego dokładnie? To nie było doprecyzowane. Byliśmy kuszeni innowacyjnymi usługami, które wydawały się przyjazne i wygodne. Ale z czasem okazało się, że największą innowacją jest ich zdolność do manipulowania naszymi potrzebami. Zdolność rozgrywania naszych emocji i podsuwania nam treści oraz bodźców, które wciągają nas w pewną spiralę konsumpcji.

Tristan Harris, były etyk projektowania w Google, który założył organizację Humane Tech i ostro krytykuje praktyki największych firm internetowych, porównuje to do uzależnienia od substancji psychoaktywnych. Mechanizm jest bardzo podobny. Jesteśmy wciągani w spiralę konsumpcji treści podobną do spirali konsumpcji alkoholu, papierosów czy narkotyków.

Ale przecież my nie musimy w ogóle z mediów społecznościowych korzystać. Nikt nas nie zmusza.

Oczywiście, ostatecznie tylko od nas zależy, czy w to wejdziemy i czy się uzależnimy. Ale to jest gra nierówna i nieuczciwa, bazująca na naszych podstawowych instynktach i silnych potrzebach. Na lęku przed byciem w izolacji, na potrzebie bycia widzianym i słuchanym, na potrzebie przynależności. Jesteśmy rozgrywani na froncie, który jest dla nas szalenie trudny do racjonalnego zarządzenia. Dlatego oczekiwanie, że użytkownik czy użytkowniczka sami sobie z tym poradzą, wydaje mi się bardzo nie fair.

Na początku naszej rozmowy powiedziała pani, że kluczową niesprawiedliwością jest to, że nie wiemy dlaczego jakaś treść jest widoczna, a inna nie. Tyle że ten algorytm to know-how firmy. Bardzo możliwe, że to właśnie treść algorytmu zapewnia danej firmie przewagę nad konkurencją. Czy zatem powinniśmy go znać? A gdybyśmy nawet go znali, to czy ta wiedza naprawdę mogłaby nam pomóc?

Co innego jest ważne dla przeciętnego użytkownika, a co innego jest potrzebne ekspertom. W Fundacji Panoptykon od dawna domagamy się większej przejrzystości algorytmów, ponieważ wierzymy, że jest ona pierwszym stopniem do poznania problemu. Przejrzystość algorytmów to ważne narzędzie dla tych, którzy działają w imieniu użytkowników – na przykład walczą o lepsze prawo.

Potrzebujemy tej wiedzy, żeby móc rekonstruować, co dokładnie robią platformy, odtwarzać logikę, jaką się posługują i tę logikę kontestować. W tym sensie przejrzystość jest potrzebna i musimy o nią walczyć. Ale jest ona tylko narzędziem.

Dla zwykłego użytkownika najważniejsze jest, żeby platformy i ich algorytmy działały bezpiecznie. Żeby nie naruszały jego godności i autentycznych potrzeb. Z tej perspektywy ważniejsza jest kontrola nad celami, jakie swoim algorytmom wyznaczają wielkie platformy.

Jako użytkownicy powinniśmy móc kwestionować logikę algorytmów. Na przykład powiedzieć: nie, nie chcę być angażowany za wszelką cenę; nie chcę spędzać na portalu więcej niż godzinę w ciągu dnia. No dobrze, może czasem trzy godziny, ale nigdy trzynaście. A przy tym chcę, żeby algorytm dostarczał mi treści określonej jakości albo z pewnej dziedziny wiedzy czy życia społecznego. Ta „rozmowa” między użytkownikiem a algorytmem mogłaby polegać na kwestionowaniu celów, jakie platformy stawiają swoimi algorytmom i wyznaczaniu im innych celów, zgodnych z potrzebami samych użytkowników.

Dochodzimy chyba do momentu, w którym musimy znaleźć model uwzględniający potrzeby wszystkich graczy. Z jednej strony, mamy indywidualnego użytkownika, który potrzebuje ochrony prywatności, ale chce móc powiedzieć wszystko. Z drugiej – musimy zadbać o społeczeństwo, czyli skutecznie przeciwdziałać rozprzestrzenianiu się fake newsów czy polaryzacji i radykalizacji. Ale trzeci, wciąż kluczowy gracz, to właściciel platformy i jego zyski. Czy istnieje model, który może wszystkie te racje zbalansować?

W modelu, który przyjęły największe platformy, za treści płaci reklamodawca. Przestawienie całego mechanizmu na interes użytkownika faktycznie wydaje się niewykonalne bez zmiany modelu biznesowego. Prędzej czy później dojdziemy do tego, że nie da się pogodzić interesu reklamodawcy – który chciałby, żebyśmy klikali, angażowali się w byle jaką treść, oglądali reklamy i robili w internecie zakupy – z interesem człowieka, który chciałby dostawać jak najlepszej jakości informacje lub utrzymywać relacje z bliskimi i nie być rozpraszanym. Dlatego ten model trzeba przebudować.

Jeśli to nie reklamodawca będzie płacił, to kto? 

Istnieją różne modele finansowania treści w internecie. Można myśleć modelem mediów misyjnych, w którym treści są utrzymywane ze środków publicznych. Albo modelem, w którym miejsce reklamodawców zajmują organizacje non-profit.

Nadal mamy też do dyspozycji stary, klasyczny model płacenia za treść przez użytkowników. Kiedyś kupowaliśmy gazetę codzienną. Nie sądzę, żeby teraz nie było nas stać na codzienny strumień wartościowych treści w internecie.

Doszliśmy do momentu, w którym widzimy, że model, w którym to reklamodawca sponsoruje nasze doświadczenie w sieci, nie zdaje już egzaminu. Potrzebujemy nowych rozwiązań.

Czy na szukanie nowych rozwiązań nie jest już za późno? Facebook ma w tym momencie ogromną część globalnego rynku użytkowników. Były już propozycje bardziej etycznych, uspołecznionych alternatyw, na przykład Diaspora, ale one nigdy nie zyskały nawet ułamka popularności czy zasięgu, które mają Facebook i Twitter. 

Nie chodzi o to, żeby zmienić Facebooka na inny portal. Chodzi o to, żeby zmusić Facebooka do otwarcia się na nowe rozwiązania. Potrzebujemy nowej umowy społecznej, jeśli chodzi o korzystanie z naszych danych i kuratelę treści. Natomiast to, czy my tę umowę zawrzemy z Facebookiem czy z innym portalem, jest kwestią wtórną – nieważne, czyje logo będzie na stronie internetowej. Ważny jest model biznesowy, na którym ta strona się opiera.

Myślę, że sam Facebook już widzi, że to nadchodzi, że czeka go zmiana paradygmatu. Zwykli użytkownicy czują, że obecny model działa na ich niekorzyść – zużywa ich czas, wkręca w spiralę konsumpcji, powoduje problemy psychiczne. Widzą to też politycy i regulatorzy. Przecież władza wielkich platform jest wykorzystywana również w grze politycznej.

W Unii Europejskiej wyłonił się już polityczny konsensus, według którego zmiana modelu działania wielkich platform jest konieczna. Pytanie tylko, jak tę zmianę teraz naszkicujemy i przeprowadzimy.

Pierwszą propozycją Komisji Europejskiej jest Digital Markets Act. To dość radykalna w swoich założeniach regulacja, zmierzająca do odebrania platformom takim jak Facebook wyłącznej władzy nad treścią.

Jak to będzie działało?

Mogłoby działać na przykład tak, że Facebook pozostaje hostingodawcą, czyli tym serwerem, na którym publikujemy i „trzymamy” swoje treści, ale to już nie Facebook kontroluje algorytm. Ktoś inny – inna firma – projektuje dla nas algorytm, który decyduje o tym, co zobaczymy na ekranie. Technicznie jest to do przeprowadzenia. Ekonomicznie też jest do obronienia, jeżeli zrezygnujemy z modelu, w którym to reklamodawca płaci za nasze doświadczenie. W praktyce oznaczałoby to „rozwarstwienie” złożonej usługi, jaką jest Facebook. Komisja Europejska jest gotowa zaprojektować takie zasady interoperacyjności, które umożliwią inny podział ról w ramach istniejącej infrastruktury.

Czy ten nowy podział ról – taka demonopolizacja – może być dla Facebooka, Twittera czy Google’a opłacalny? Faktycznie obserwujemy wzmożenie dyskusji, od społeczeństwa i polityków płyną pewne sygnały, ale ludzie wcale nie odchodzą masowo z Facebooka. A tylko zmniejszenie liczby użytkowników byłoby chyba twardym argumentem dla tych firm…

Gdybyśmy mieli polegać na mechanizmach rynkowych – tak. Ale te mechanizmy rynkowe nie działają. Gdyby mogły zadziałać, gdyby mogły doprowadzić do zwiększenia jakości treści i do tego, że my, użytkownicy, jesteśmy w sieci traktowani jak klienci – to już by się to wydarzyło. A więc mechanizmy rynkowe nie są właściwą drogą. Drogą jest regulacja. Ostra regulacja.

Platformy będą musiały się nagiąć do zasad, które im narzucimy. Dochodzimy do momentu, kiedy społeczeństwo może powiedzieć: „dość!”. I zażądać odpowiedzialności za szkody społeczne od tych, którzy do tej pory dość bezkarnie wykorzystywali władzę w sieci dla własnych korzyści. Oczywiście, ta zmiana będzie dla platform niewygodna i kosztowna. Będzie oznaczała rezygnację z części władzy i ograniczenie zysków. Ale w zamian za to będą mogły dalej istnieć.

Czyli można by taką regulację porównać do polityk nakładania dodatkowych opłat na firmy szkodliwe dla środowiska? Te szkody, które one powodują, te koszty zewnętrzne są zbyt duże, żeby społeczeństwo miało je później samo pokrywać?

Tak, sama od lat używam tej analogii. Myślę, że jest bardzo adekwatna, bo, podobnie jak w sferze ekologii, tutaj również problem nie jest namacalny, nie jest widoczny gołym okiem. Potrzeba lat, żeby zobaczyć skalę i szkód ekologicznych, i szkód, które w naszych umysłach, w naszej świadomości, w naszym stylu życia wywołuje model konsumpcji treści, który został nam narzucony w internecie.

Musimy zastanowić się nad tym, co nam to robi emocjonalnie, co to nam robi politycznie, co to nam robi, jeśli chodzi o nasz styl życia i sposób konsumpcji.

To są bardzo złożone problemy i dlatego tak łatwo jest firmom, które je powodują, uchylać się od odpowiedzialności. Nasza złość jest odroczona i rozproszona. Czasem kierujemy ją nie w tę stronę, w którą powinniśmy. Nie złościmy się na Facebooka, tylko złościmy się na Trumpa, bo szerzy mowę nienawiści – a nie myślimy o tym, że on tylko zręcznie używa mechanizmu, którego dostarczyła mu firma, działająca w interesie swoich akcjonariuszy. Nie myślimy o tym, że Trump nie byłby ani tak widzialny, ani tak szkodliwy społecznie, gdyby nie model biznesowy wielkich platform.

Tragiczne jest to, że w sferze ochrony środowiska nadal nie osiągnęliśmy momentu, w którym można by powiedzieć: mamy to, mamy skuteczną, chroniącą ludzi regulację. A przecież debata nad nią toczy się od wielu dekad. Mam nadzieję, że w tym przypadku nie będziemy musieli tak długo czekać na ostrą reakcję regulatora.

Wydaje się, że zmiany legislacyjne mogą faktycznie przyjść szybciej niż w obszarze ochrony środowiska. Premier Morawiecki już zapowiedział plany tworzenia takich regulacji na poziomie krajowym, ale myślę, że to jest zapowiedź, która mogła wiele osób zaniepokoić. Widziałam na przykład takie komentarze: „ja już wolę, żeby decydował Facebook, gdzieś tam w Kalifornii, niż polscy politycy”. Czy takie regulacje na poziomie krajowym nie stworzą nowych, jeszcze innych zagrożeń dla użytkowników?

Myślę, że mamy trzecią drogę, jeśli chodzi o wolność słowa w internecie: niepoleganie na platformach i ich „widzimisię”, a także nieoddawanie władzy politykom – takie posunięcie byłoby rzeczywiście równie, jeśli nie bardziej, szkodliwe. Potrzebujemy raczej sprawiedliwych reguł, tak zwanego due process, którego zadaniem jest chronić użytkowników przed arbitralną cenzurą. Ale nie przesądzać o tym, kto ma rację i czyja prawda powinna być bardziej widoczna w sieci.

Skupiając się na regułach due process nie regulujemy treści, nie decydujemy, co jest dozwolone, tylko regulujemy sposób prowadzenia sporu. Ten spór jest częścią demokratycznej debaty i, jako taki, jest nam potrzebny. Ludzie nigdy nie przestaną się spierać o to, czy dana treść kogoś obraża, czy jest prawdziwa, czy fałszywa, czy nie przekracza zasad wolności słowa – to jest istota demokracji. Nie chodzi o to, aby w internecie regulować, co jest legalne, tylko żeby dobrze zaprojektować proces decydowania o tym, co zostaje, a co wypada z naszej wspólnej przestrzeni.

Jeżeli Unii Europejskiej uda się w ciągu najbliższych trzech lat wprowadzić pakiet Digital Services Act, będziemy mieć całkiem dobre reguły ograniczające cenzurę wielkich platform: zapewniające użytkownikom przejrzystość działania algorytmów, prawo do sprawdzenia, czemu coś zostało zablokowane, i sprawiedliwy proces w przypadku sporu z platformą. Zyskamy więcej narzędzi, żeby tę sferę życia społecznego kontrolować, ale będziemy też musieli wziąć za nią odpowiedzialność.

Na tym właśnie polega ta trzecia droga. Chodzi o to, żeby oddać kwestię kontroli nad treścią społeczeństwu i różnym mechanizmom, które to społeczeństwo wytwarza. Nie jednemu, ale różnym. Nie potrzebujemy żadnego wszechmocnego agenta – czy to platformy, czy rządu – który nam to wszystko „poustawia”. Sami bierzemy sprawy w swoje ręce, a prawo nas w tym wspiera.