4 stycznia 2021 roku, w przededniu senackich wyborów uzupełniających w Georgii, miasteczko Dalton w północnej części tego stanu odwiedzają zarówno Joe Biden, jak i Donald Trump. Obaj wygłoszą płomienne przemówienia, zachęcając do głosowania na kandydatów swoich ugrupowań, jednak to słowa Donalda Trumpa zostaną zapamiętane na długo: „Odzyskamy to, co nam zabrali 3 listopada [w dniu wyborów – przyp. aut.] […]. Pójdziemy na Kapitol i pokażemy siłę”.
Jak zapowiedzieli, tak zrobili. Atak na Kapitol z 6 stycznia zapisze się jako jedna z ciemniejszych kart w najnowszej historii Stanów Zjednoczonych. W dniu tych wydarzeń Jack Dorsey, prezes Twittera – ulubionego kanału komunikacji Donalda Trumpa – obawiając się eskalacji przemocy, postanowił tymczasowo zawiesić jego konto. Za tą decyzją podążył Facebook, Snapchat, Twitch i tuzin innych firm. Tymczasowy ban w wielu przypadkach stał się permanentny.
Władza absolutna
Blokada Donalda Trumpa ukazuje przede wszystkim naiwność wiary w samoregulację platform cyfrowych. Oto tuzin prezesów internetowych gigantów posiada tak nieskrępowaną władzę, by w niespełna 48 godzin de facto sparaliżować możliwość komunikacji publicznej urzędującego lidera najpotężniejszego państwa świata.
Zastanawiać może arbitralność decyzji – trudno uznać, by styczniowe tweety Donalda Trumpa bezpośrednio nawoływały do przemocy, podczas gdy fraza, której użył, w odpowiedzi na protesty po morderstwie George’a Floyda w maju 2020 („kiedy zaczyna się grabież, zaczyna się strzelanie”) przez dekady funkcjonowała jako puszczenie oka do zbrojnych bojówek. Na decyzji o banie Donalda Trumpa zaważyła nie tyle treść jego wiadomości, co interpretacja ich możliwych konsekwencji. To zaś obnaża fikcję stosowania zasad dotyczących treści [ang. content policies], do których same zobowiązują się platformy. Przykłady tego typu niekonsekwencji można mnożyć – dość powiedzieć, że bana nie doczekała się bezpośrednia instrukcja eliminacji państwa Izrael autorstwa irańskiego ajatollaha Chameneiego.
Nie mam wątpliwości, że w debacie publicznej na wypowiedzi propagujące przemoc nie powinno być miejsca. Ale styczniowe wydarzenia jak w soczewce pokazały szereg konsekwencji pozostawienia kontroli nad obiegiem informacji w rękach prywatnych firm. Do blokady Trumpa dochodzi w ostatnim politycznie opłacalnym dla platform momencie: w serii wyborczych porażek republikanie przegrywali wszystko, co mogli przegrać – prezydenturę, kontrolę nad Izbą Reprezentantów i Senatem. Skoro nie mogą już dłużej zapewniać kryszy platformom i przymykać oka na ich przywary w myśl dominującej doktryny technologicznego wyścigu zbrojeń pomiędzy Stanami Zjednoczonymi a Chinami – przestają być dla tychże platform atrakcyjnym partnerem.
O ile administracja Bidena jest w podobnym stopniu zakładnikiem sukcesu Doliny Krzemowej (na czele z Kamalą Harris czy Andrew Yangiem jako głównymi technooptymistami), to atak na Kapitol wydaje się wystarczająco mocnym wstrząsem, aby w kolejnych latach nie pozwolić na budowanie modeli biznesowych, które opierają się na rozprzestrzenianiu radykalnych treści. Władzę firm technologicznych dobitnie ukazuje to, że nie istnieją skuteczne środki odwoławcze od decyzji dotyczącej Trumpa, a już zdecydowanie nie na gruncie utartych demokratycznych ścieżek. Nie istnieje więc tryb, w którym prezydent Stanów Zjednoczonych mógłby w transparentny sposób przywrócić swoją zdolność komunikacji, inaczej niż na drodze sądowej.
Wreszcie, wydaje się, że dawno już przegapiliśmy moment, w którym istniał jeszcze znaczący globalny obieg informacyjny poza dominującymi platformami. Ta koncentracja władzy będzie największą przeciwnością, która utrudnia wprowadzenie skutecznych regulacji.
To nie jest „platforma”
Czym właściwie są platformy? Media społecznościowe natrętnie używają tego terminu, aby opisać swoją rolę w cyfrowym ekosystemie. Platforma to słowo, które brzmi poziomująco i demokratycznie, tworzy warunki do swobodnej ekspresji, jak w angielskim wyrażeniu to provide a platform. Skojarzenia przywodzą na myśl raczej nieszkodliwą ekscentryczność i nieuporządkowanie anonsów w papierowych gazetach, a nie rygor i selektywność ich pierwszych stron. W wyniku pozycjonowania się jako „platformy”, firmom technologicznym udało się nas przekonać, że same nie tworzą treści, nie ma więc powodu, by były za nie odpowiedzialne.
W gazecie równie ważną decyzją redaktorską jest to, czy dany artykuł pojawi się w druku, jak to, na której stronie się pojawi. Per analogiam, podobnie subiektywną decyzją jest pozycjonowanie treści na platformach – tu również ich usytuowanie jest elementem (biznesowej) kalkulacji. W odróżnieniu jednak od tradycyjnej prasy, „redaktorzy” podejmujący te strategiczne decyzje nie są nam znani, w większości wypadków są nimi bowiem algorytmy rekomendacyjne, przeprowadzające miliony transakcji w każdej sekundzie, handlując z reklamodawcami naszą uwagą – i decydując o tym, co wyświetlić użytkownikowi, aby utrzymać jego zaangażowanie jak najdłużej.
Mit neutralności
Brak przejrzystości w sposobie działania platformy tłumaczą tajemnicą handlową. W konsekwencji odmawiają zarówno użytkownikom, jak i badaczom wglądu w architekturę systemów rekomendujących czy dostępu do danych, na których zostały wytrenowane. Bez dostępu do tych informacji platformom łatwo jest propagować mit o neutralności i naukowej wręcz obiektywności ich systemów. Pomimo braku dostępu do pełnych danych, ostatnie kilka lat zmobilizowało międzynarodową społeczność akademicką do bliższego przyjrzenia się etyce algorytmów i powodowanych przez nie krzywd (tego dotyczyła między innymi książka „Weapons of Math Destruction” autorstwa Cathy O’Neill czy niedawny film dokumentalny „Coded Bias”). Dzięki temu wiemy, że neutralność platform jest fikcją, wykorzystywane przez platformy modele dystrybuowania treści podsycają przemoc od Niemiec aż po Birmę, a wybiórcze i uznaniowe stosowanie zasad dotyczących treści miało wpływ na wynik amerykańskich wyborów prezydenckich w 2016 roku.
Mit o neutralności platform nie jest jedynym, który towarzyszy nam w dyskusjach o internecie. Sam fakt, że mówimy o „cyberprzestrzeni”, „chmurze” czy „sieci” kieruje nas w stronę pojęć adekwatnych do świata przyrody, który – jak wiemy – „rządzi się własnymi prawami”. Metafory te skutecznie zafałszowują nasze wyobrażenia o internecie. W rzeczywistości internet to tysiące kilometrów kabli i hektary serwerowni, które działają dzięki własności intelektualnej i ludzkiej pracy. Jest to zatem absolutnie realna infrastruktura, której własność w przypadku platform jest dość skoncentrowana.
Mit o wyjątkowości „sieci” idzie ręka w rękę z dominującymi narracjami technosolucjonizmu i futuroesencjalizmu, według których nawet najbardziej złożony problem społeczny można rozwiązać za pomocą technologii, a przyszłość jest linearna, jednoznaczna i nieunikniona. Przystać na taką wersję wydarzeń to zgodzić się na dalszą erozję sektora publicznego, falę dezinformacji, podważanie procesów demokratycznych i przemoc.
Kogo regulować?
Nie było jeszcze momentu w historii internetu, w którym uporządkowanie działania platform byłoby tak politycznie pożądane po obu stronach Atlantyku. Komisja Europejska Ursuli von der Leyen w rekordowym tempie wypracowała założenia nowej megaregulacji, a administracja Joe Bidena zapowiada radykalne, choć bliżej niesprecyzowane ruchy.
Nie znikają jednak problemy, z którymi dotychczas borykali się prawodawcy. „Platformy” to określenie nieprecyzyjne, które może obejmować zarówno media społecznościowe, jak i inne firmy technologiczne organizujące relacje społeczne (na przykład Airbnb czy Uber). Z kolei przestrzeń regulacyjna jest rozproszona pomiędzy firmy budujące infrastrukturę online, jej użytkowników i rządy, których rolą jest tworzyć ramy jej funkcjonowania. Wreszcie, regulacja platform to wyzwanie, które przecina na wskroś tak różnorodne i osobne zagadnienia, jak wolność słowa, prywatność, prawo telekomunikacyjne, reklama czy zasady konkurencji.
Jak regulować?
Konkretne rozwiązania zależą od kilku podstawowych kwestii, a konkretne odpowiedzi zależą od kontekstu społeczno-kulturowego i specyfiki prawnej.
Po pierwsze, co jest dozwolone online? O ile istnieje konsensus dotyczący zachowań jawnie przemocowych, zwłaszcza wobec nieletnich, co jest dobrze opisane w innych gałęziach prawodawstwa, o tyle wyzwaniem okazuje się precyzyjne uchwycenie zasad odpowiedzialności za pełen katalog „krzywd” – od trollingu i cybernękania po wabienie przyszłych terrorystów i dezinformację. Problem ujawnia się, zwłaszcza gdy za działaniami tymi stoją dziesiątki tysięcy zautomatyzowanych profili, których własność ciężko ustalić, jak było w przypadku amerykańskich wyborów prezydenckich. Prym w refleksji prawnej wiodą tu Niemcy, którzy sfrustrowani niesubordynacją i brakiem responsywności platform wprowadzili surowe zasady odpowiedzialności za treści, a także Wielka Brytania z niedawno ogłoszonym rządowym raportem o internetowych krzywdach.
Po drugie, kto podejmuje decyzje o tym, co jest dozwolone – i w jakim trybie te zasady są ustalane? Tu głównym zarzutem wobec platform jest bycie cenzorem, który tłamsi wolność ekspresji w arbitralny sposób. I choć argument dotyczący wolności słowa jest zazwyczaj zasłoną dla próby normalizacji radykalnie prawicowych zachowań, nie powinny dziwić próby zmiany obecnego stanu rzeczy, w tym autorstwa polskiego Ministerstwa Sprawiedliwości. Elementem składowym tego pytania jest oczekiwany poziom transparentności związany z podejmowaniem decyzji w sprawie działalności platform.
Po trzecie, jaka jest droga odwoławcza? W jakim trybie (i gdzie?) zaskarżyć niesłuszne zawieszenie konta, lub wręcz odwrotnie – jak skutecznie usunąć niepożądane treści na własny temat? (Vide wprawiająca w osłupienie wymiana z udziałem posła Marka Suskiego.) Czy zawsze za decyzje edytorskie może odpowiadać algorytm, pomimo tego, co wiemy na temat ich roli w propagowaniu antysemityzmu czy dyskryminacji rasowej? A z drugiej strony, czy nie jest nieludzkie oczekiwać, by to „cyfrowi śmieciarze” – najczęściej nisko opłacani pracownicy z krajów rozwijających się – spędzali setki godzin, starając się odróżnić wideorelacje z terrorystycznych egzekucji od amatorskich skeczów komediowych?
Wreszcie, ile władzy to zbyt wiele? W pewnym momencie koncentracja rynku staje się zagrożeniem dla uczciwej konkurencji – pomimo wprowadzenia sensownych zasad dotyczących swobodnego przenoszenia danych w poprzedniej unijnej megaregulacji (art. 20 RODO), nie zaistniały warunki do powstania alternatywnych platform. Społeczny koszt porzucenia swojego cyfrowego środowiska często jest zbyt duży (a pozostają jeszcze przekonujące argumenty związane z interoperacyjnością). Testem dla prawdziwych relacji władzy pomiędzy sektorem publicznym a cyfrowymi gigantami będą nadchodzące potyczki regulacyjne – zwłaszcza w Europie.
Najważniejsze bitwy najbliższych lat
Lata pacholęce mediów społecznościowych dobiegają końca. Wydaje się oczywiste, że dla przyszłości zdrowego internetu nie wystarczy przestrzegać zasad netykiety. Widoczna dziś gołym okiem kompromitacja samoregulacji platform będzie miała daleko idące konsekwencje dla globalnego obiegu informacji.
Sami prezesi technologicznych firm czują, że zmiana jest niezbędna. Zachowują się przy tym jak powieściowy Tancredi, który oznajmia głównemu bohaterowi „Lamparta” pomysł dołączenia do garibaldczyków: „Jeśli nas tam nie będzie, oni ogłoszą republikę!”. Szeroki strumień pieniędzy płynie więc do uniwersytetów – za co liczy się na przychylność w badaniu etyki algorytmów. A na stole pojawiają się kolejne coraz to bardziej absurdalne propozycje regulacyjne, takie jakblockchain. Jednak prawdziwa zmiana musi oznaczać podzielenie się władzą – a to nie w smak każdemu autokracie.
Nadzieja płynie z Europy
W połowie grudnia 2020 roku Komisja Europejska ogłosiła długo wyczekiwany pakiet ustaw o rynku cyfrowym (Digital Services Act oraz Digital Market Act) – przekrojową propozycję wprowadzającą ścisłe zasady odpowiedzialności (również finansowej) za wykorzystywanie dominującej pozycji na rynku czy publikowanie nielegalnych treści, standardy przejrzystości dotyczące algorytmów i publikowanych reklam, a także narzędzia koordynacji działań pomiędzy UE a rządami państw członkowskich.
O ile ostateczny kształt regulacji wykuje się w trybie wielomiesięcznych uzgodnień pomiędzy instytucjami unijnymi, to sama zapowiedź spotkała się już z bezprecedensową mobilizacją lobbystów, którzy podejmą próbę, by stępić jej zęby.
Z kolei, wskutek ostatnich wydarzeń na Kapitolu, po drugiej stronie oceanu nowych akolitów zyskuje tocząca się od wielu lat debata o reformie Sekcji 230 – podglebiu dzisiejszego kształtu internetu. Amerykańskie przywiązanie do pierwszej poprawki do Konstytucji, gwarantującej wyjątkowo szeroki zakres wolności ekspresji, nie gwarantuje powodzenia reformie. Ale proponowane przez UE zasady, w tym zwłaszcza wymóg transparentności algorytmów rekomendujących i zakaz monetyzowania treści niezgodnych z prawem, pomogą osiągnąć podobny efekt.
Tymczasem platformy będą nadal symulować samoregulację – na przykład tworząc umiarkowanie skuteczne ciała doradcze i odwoławcze, a jednocześnie uszczelniając własne zasady moderowania treści i banując co bardziej radykalne grupy. Doprowadzi to do powstawania nowych, mniejszych baniek informacyjnych i ognisk radykalizacji – zwiększając koncentrację niepożądanych postaw, ale hamując możliwość ich monitorowania i rozlewanie się do mainstreamu. Pod presją opinii publicznej i polityków, platformy będą stopniowo odsłaniać i jednocześnie modyfikować własne systemy rekomendujące, umożliwiając ograniczony audyt środowiskom naukowym. To styk akademii i ruchów pracowniczych gwarantuje presję na technologicznych gigantów od wewnątrz i od dołu – niedawny skandal po zwolnieniu z Google’a wpływowej badaczki dr Timnit Gebru wyraźnie pokazał, że problemy etyczne nie dotyczą jedynie technologii, a rosnące niezadowolenie ze strategicznych decyzji książąt Doliny Krzemowej (na przykład zbyt bliskie związki z kompleksem militarno-przemysłowym) skłania ich pracowników do masowego dołączania do związków zawodowych.
Wszystkie te czynniki dają nadzieję, że platformy zbliżą się do tego, czym powinny być – budzącą zaufanie publiczną infrastrukturą o przejrzystych zasadach funkcjonowania i nadzoru. By jednak to się stało, musimy porzucić wiarę w siłę samoregulacji i – jak trudne by to nie było – obawy wobec przemyślanej interwencji państwa.
Ikona wpisu: Prateek Katyal, źródło: Pexels.