Czarna skrzynka algorytmów
Pośrednicy internetowi – a w szczególności media społecznościowe – stworzyli infrastrukturę globalnej debaty publicznej, w której rachunki za prąd zasilający serwery płaci niewielka liczba prywatnych podmiotów. W praktyce oznacza to, że stosunkowo wąskie grono ludzi decyduje o tym, komu w tej globalnej debacie przyznać głos, o czym boleśnie przekonał się Donald Trump. W dyskusji na temat oceny tej arbitralnej decyzji często umyka szerszy kontekst dotyczący warunków, w których funkcjonują media społecznościowe. Warto zadać sobie pytanie, jak znaleźliśmy się w sytuacji, w której odmowa świadczenia usług użytkownikowi prywatnego serwisu ma globalne reperkusje.
Usunięcie Trumpa z mediów społecznościowych wpisuje się w improwizacyjny styl moderowania treściami zamieszczanymi przez użytkowników na portalach internetowych gigantów. Wiele postów czy tweetów naruszających „zasady społeczności” krąży po sieci bez przeszkód ze strony moderatorów. Z drugiej strony, całkowicie legalne informacje, na przykład materiały edukacyjne o Holokauście czy dokumentacja zbrodni wojennych, są arbitralnie usuwane. Jednak improwizacja ma swoje granice. Spektakularne posunięcie, takie jak trwałe usunięcie konta formalnie urzędującego prezydenta Stanów Zjednoczonych, po raz kolejny wywołało debatę o zasadach, na których swoje decyzje opierają pracownicy cyfrowych korporacji.
Negatywne emocje i strach zwiększają zaangażowanie użytkowników i w większym stopniu skupiają ich uwagę, która jest w mediach społecznościowych walutą, dzięki której kręci się biznes reklamowy. | Anna Mazgal
Każda osoba pełniąca funkcję publiczną może liczyć na to, że wielu ludzi będzie zainteresowanych tym, co ma ona do powiedzenia. Jednak między takim naturalnie popularnym nadawcą a jego odbiorcami znajduje się czarna skrzynka algorytmów, które decydują o tym, ile osób zobaczy jego wypowiedzi. Jak wynika z badań nad funkcjonowaniem mediów społecznościowych, kontrowersyjne i negatywnie nacechowane wypowiedzi są promowane i pokazywane potencjalnym odbiorcom w większym stopniu niż te neutralne czy pozytywne.
Mechanizmy te opisuje w książce „Mindfuck” Chris Wylie, sygnalista, który ujawnił światu szczegóły funkcjonowania Cambridge Analityca. Negatywne emocje i strach zwiększają zaangażowanie użytkowników i w większym stopniu skupiają ich uwagę, która jest w mediach społecznościowych walutą. To ona napędza reklamowy biznes. Mamy więc do czynienia z konfliktem interesów: serwisom nie opłaca się usuwanie i algorytmiczne deprecjonowanie kontrowersyjnych i przemocowych treści. Zablokowanie jednego power-usera nie powinno odwrócić naszej uwagi od tego, że media społecznościowe są zależne od toksycznych, czy wręcz nielegalnych treści.
Naiwny mit samoregulacji
Ten i inne problemy z platformami mają charakter globalny. Istotnym krokiem w celu regulacji działalności tych firm było wprowadzenie przez Unię Europejską systemu ochrony danych osobowych w postaci RODO. Jednak przepisy regulujące odpowiedzialność pośredników internetowych za treści zamieszczane przez użytkowników mają z perspektywy postępu technologicznego rodowód prawdziwie przedpotopowy. Dyrektywa e-commerce została uchwalona w 2000 roku, opisuje więc rzeczywistość z czasów, w których Facebook jeszcze nie istniał.
W międzyczasie media społecznościowe stały się narzędziami agitacji politycznej opartej w dużej części na postprawdzie i teoriach spiskowych. Nie ulega wątpliwości, że należy podjąć działania, które zmienią obecny stan rzeczy. Jednak dyskusja pomiędzy legislatorami i internetowymi korporacjami, jak dotąd, nie przyniosła wymiernych rezultatów.
Naiwnie jest oczekiwać, że sektor rynku, którego wartość giełdowa w 2020 roku przekroczyła wartość giełdową całej Unii Europejskiej, wyreguluje się sam, skoro tak bardzo korzysta na stworzonym przez siebie modelu ekonomii uwagi. Zmuszone naciskami legislatorów i opinii publicznej platformy społecznościowe zaczęły stosować algorytmiczne metody wychwytywania potencjalnie nielegalnych lub szkodliwych treści. Tak powstał kolejny problem – na jakiej podstawie te systemy „decydują”, co może zostać udostępnione, a co nie.
Nie bez powodu decyzje o granicy wolności wypowiedzi podejmowane są przez sądy. W komunikacji kontekst jest wszystkim, a precyzyjne zdefiniowanie, czym jest mowa nienawiści czy propagowanie terroryzmu, w przepisach jest niezwykle trudne. Dlatego lepiej, żeby to przygotowany do tego człowiek interpretował przepisy i decydował o ograniczeniu swobody wypowiedzi. Algorytm usuwający z YouTube’a film, który narusza prawo autorskie, nie rozpozna dozwolonego ustawą cytatu, a informacyjne wideo zawierające flagę ISIS nie powinno być usuwane jako materiał propagujący terroryzm. Niestety, obecnie dochodzi do takich sytuacji.
Naiwnie jest oczekiwać, że sektor rynku, którego wartość giełdowa w 2020 roku przekroczyła wartość giełdową całej Unii Europejskiej, wyreguluje się sam, skoro tak bardzo korzysta na stworzonym przez siebie modelu ekonomii uwagi. | Anna Mazgal
Kto decyduje o wolności słowa?
Legislatorzy europejscy uwierzyli w to, że technologie filtrujące treści zapewnią nam nowy, wspaniały internet, mimo że ostatnio same firmy przyznają, że jakość automatycznej moderacji jest daleka od ideału. W unijnych przepisach o prawie autorskim i o zapobieganiu rozprzestrzeniania treści terrorystycznych zaleca się blokowanie treści za pomocą algorytmów. Jednak jak pokazuje praktyka, usuwają one nie tylko całkowicie legalne treści zamieszczone na platformach, ale również blokują je w momencie publikacji. Takie działanie wywraca porządek wolności wypowiedzi, którą można egzekwować tylko w praktyce. Każdy ma prawo napisać i powiedzieć to, co uważa, inni mają prawo do oceny i do krytyki; czasem ponosi się odpowiedzialność za przekroczenie społecznie czy prawnie akceptowalnych granic. Algorytm blokujący pierwszy krok blokuje cały ten cykl.
Skupianie się na tym, co robią i mówią użytkownicy, nie przynosi dobrych efektów. Zarówno w zakresie zautomatyzowanych metody moderacji, jak i w działalności tysięcy nisko opłacanych moderatorów zatrudnionych w Azji do przeglądania zgłoszonych treści, którzy mają 14 sekund na decyzję w sprawie usunięcia lub pozostawienia materiału, często bez znajomości języka i kontekstu. Rzeczywisty problem polega na tym, że w wymiarze globalnym oddaliśmy prawo do decydowania o akceptowalnych granicach wolności słowa prywatnym podmiotom, nie wiedząc niemal nic o tym, jak podejmowane są te decyzje.
Oczywiście w przestrzeni prywatnej to jej właściciel ustala zasady i decyduje, kogo z niej wyprosić. Nie możemy jednak ignorować roli, jaką pełnią te prywatne agory w dostępie do informacji i do życia społecznego. Nie czuję żalu za Donaldem Trumpem, ale co ma powiedzieć szary użytkownik internetu, któremu z nieznanych powodów, w nieznanym procesie decyzyjnym i bez możliwości odwołania odcięty zostaje dostęp do sieci kontaktów i ważnych treści?
W Polsce pomysł na szczególny interwencjonizm państwa w postaci Rady Wolności Słowa zaproponował Zbigniew Ziobro. Budzi to podejrzliwość, zarówno biorąc pod uwagę kontekst historyczny, jak i ostatnie wydarzenia. Czy w kraju, w którym twórczyni tęczowej Madonny ląduje w areszcie, można liczyć na coś więcej niż tylko pozorowane działania takiej instytucji? Mamy już narzędzia do obrony wolności słowa w postaci sądów – czas zacząć ją realnie egzekwować.
Nie czuję żalu za Donaldem Trumpem, ale co ma powiedzieć szary użytkownik internetu, któremu z nieznanych powodów, w nieznanym procesie decyzyjnym i bez możliwości odwołania odcięty zostaje dostęp do sieci kontaktów i ważnych treści? | Anna Mazgal
Platforma na miarę naszych możliwości
Ponadto, nie należy się łudzić, że legislacja krajowa zmieni to, jak funkcjonują globalne korporacje. Do tego może się przyczynić działalność Unii Europejskiej, która dyskutuje właśnie o reformie prawa w tym zakresie. Po pierwsze, należy przestać marnować energię na tworzenie doskonalszych mechanizmów ograniczania swobody użytkowników. Sednem problemu napędzającym patologię jest model biznesowy, w którym klientem mediów społecznościowych nie są ich użytkownicy, a firmy i różnego rodzaju pośrednicy, którzy chcą dostępu do ich uwagi i kart kredytowych. To platformy, które działają zgodnie z tym schematem, powinny zostać poddane szczególnemu nadzorowi. Należy testować różne scenariusze, począwszy od większej przejrzystości tych relacji biznesowych i mechanizmów dostarczania reklam behawioralnych, włącznie z rozważeniem opcji ich zakazu.
Innym problemem jest ekosystem wspierający globalne, ekstraktywistyczne modele, w których nie ma miejsca na etyczne metody i sposoby zarabiania pieniędzy, które nie wymagają cyfrowej inwigilacji użytkowników. Innymi słowy potrzebujemy mniej startupów, z których te osiągające sukces i tak zostają wykupione przez globalne firmy, a więcej „stay-upów”, które rozwijałyby te alternatywne modele. Rolą tak UE, jak i państw członkowskich powinno być wspieranie modeli średniego wzrostu, poprzez inwestycje, zachęty podatkowe i inne metody.
Oczywiście, wielką zaletą globalnych graczy jest ich zasięg, ale i ten problem może być rozwiązany poprzez większą kompatybilność oraz interoperacyjność mniejszych operatorów. Media społecznościowe działają teraz niczym sieci telefoniczne, w których użytkownicy mogą kontaktować się wyłącznie z abonentami własnej sieci. Interoperacyjność jest wielkim przedsięwzięciem technologicznym i wymaga rozwiązania wielu problemów związanych z prywatnością użytkowników, ale im dłużej odkładamy tę dyskusję oraz inwestycje w testowanie rozwiązań, tym więcej tracimy.
Sednem problemu napędzającym patologię jest model biznesowy, w którym klientem mediów społecznościowych nie są ich użytkownicy, a firmy i różnego rodzaju pośrednicy, którzy chcą dostępu do ich uwagi i kart kredytowych. |Anna Mazgal
Obywatelskie media społecznościowe
Dziwi też, że ani UE, ani żadne z państw członkowskich, w których wprowadzono krajowe przepisy regulujące platformy, nie rozważa stworzenia prawdziwie społecznościowego modelu tworzenia przestrzeni publicznej. Dlaczego nie zainwestować w tworzenie publicznych mediów społecznościowych, zarządzanych i utrzymywanych przez użytkowników, którzy awansowaliby z roli paliwa czy waluty napędzającej prywatne zyski do roli twórców tej przestrzeni?
Jakkolwiek utopijny może wydawać się ten eksperyment myślowy, bez niego ciężko będzie znaleźć dobrą odpowiedź na potrzeby ludzi i czasów. Nie wydaje się, żebyśmy mogli obejść się bez wirtualnej przestrzeni publicznej – i to nie tylko dlatego, że pandemia udowodniła nam, jak ważna jest technologia w utrzymywaniu podstawowych kontaktów społecznych. Także dlatego, że prywatni gracze udowodnili, że nie tylko nie pomagają ludzkości we współdziałaniu mimo dzielących nas różnic, ale wręcz te różnice podsycają. Czas na nowe, radykalne pomysły i oddanie internetu ludziom, nie maszynom.