0000398695
close
W walce o demokrację nie robimy sobie przerw! Przekaż 1,5% na Fundację Kultura Liberalna WSPIERAM
close
Kultura Liberalna solidarnie z Ukrainą

PRZEKAŻ
1,5%
PODATKU
close

W walce o demokrację

nie robimy sobie przerw!

Przekaż 1,5% na Fundację
Kultura Liberalna

Przekaż 1,5%
na Fundację Kultura Liberalna
forward
close

KULTURA LIBERALNA > Temat tygodnia > Szykuje się starcie...

Szykuje się starcie gigantów. Polecam przygotować popkorn

Z Katarzyną Szymielewicz rozmawia Tomasz Sawczuk

„Nie ma znaczenia, czy mówimy o TikToku, czy YouTubie. Chodzi o to, żeby algorytmy przestały żerować na naszych słabościach” – o tym, czy Komisja Europejska powinna zakazać TikToka, i o zasadach dla lepszych mediów społecznościowych opowiada Katarzyna Szymielewicz.

Tomasz Sawczuk: Czy należy zakazać TikToka? 

Katarzyna Szymielewicz: To decyzja polityczna. Z tego, co rozumiem, dyskusja wokół TikToka nie skupia się obecnie na prawach konsumenta – na tym, czy konkretna aplikacja uzależnia nas, profiluje i robi wodę z mózgu skuteczniej niż inne media społecznościowe. O zakazie dyskutuje się w związku z tym, że narasta napięcie między NATO a Chinami. W tym kontekście TikTok może się jawić jako chiński koń trojański w świecie Zachodu. Na ile jest to realne zagrożenie – czy należy zakładać współdziałanie TikToka z chińskimi służbami i czy dane zbierane przez tę aplikację mogą posłużyć w cyberwojnie – nie potrafię i nie chcę oceniać. To zadanie dla NATO i odpowiednich służb.

Mogę powiedzieć tyle: zgodnie z polskim i europejskim prawem każde ograniczenie wolności człowieka powinno być uzasadnione celami publicznymi, takimi jak bezpieczeństwo. Gdyby tego rodzaju zakaz pojawił się w wyniku arbitralnej decyzji polskiego rządu, byłby to niebezpieczny precedens. Oznaczałoby to, że można zablokować każde narzędzie komunikacji między ludźmi, powołując się na napiętą sytuację międzynarodową. 

Jeśli natomiast powodem blokady miałoby być to, że aplikacja TikToka jest szkodliwa dla konsumentów albo narusza RODO – na przykład zbiera więcej danych niż to konieczne albo przekazuje dane poza granice UE – właściwym ciałem do podjęcia decyzji jest Komisja Europejska. Digital Services Act (DSA), czyli nowe rozporządzenie dotyczące wielkich platform internetowych, zawiera między innymi obowiązek oceny ryzyka ich działania ze względu na prawa człowieka i prawa konsumentów. Komisja Europejska ma teraz mocne narzędzia, które pozwalają jej zbadać działanie aplikacji i nakazać zmianę funkcji, które naruszają prawo. Może ona nie tylko nakładać wysokie kary na firmy, które się do tych nakazów nie zastosują, ale ostatecznie zakazać im świadczenia usług na terenie Unii Europejskiej. 

W sprawie TikToka mamy dwa główne punkty debaty. Jeden dotyczy bezpieczeństwa narodowego – ponieważ właścicielem serwisu jest chińskiego pochodzenia spółka ByteDance. Drugi temat to prawa człowieka, czyli kwestie takie jak prywatność albo wpływ aplikacji na zdrowie psychiczne. Jakie wątpliwości istnieją w tym drugim obszarze i na ile są one poważne? 

W tym drugim kontekście trudno postawić wyraźną granicę między TikTokiem a innymi platformami społecznościowymi. Wszystkie największe korzystają z tego samego modelu biznesowego, czyli zarabiają pieniądze na rzecz reklamodawców kosztem naszej prywatności i dobrostanu cyfrowego. Ludzi nazywają „użytkownikami”. 

To słowo – user – dobrze oddaje naszą kondycję w sieci. Jesteśmy coraz częściej uzależnieni od aplikacji i urządzeń, a także zmanipulowani przez algorytmy, które prowadzą nas w stronę szybkiej i płytkiej konsumpcji treści. Tak naprawdę nie decydujemy o swoim doświadczeniu w sieci. Nie wchodzimy tam po wartościowe informacje ani autentyczne relacje, ale po strzał dopaminy. Mamy na ten temat ocean badań i dość dowodów, żeby uznać ten model angażowania naszej uwagi za szkodliwy. 

Media społecznościowe nie robią tego, co chcemy? Mówi się przecież, że wręcz odgadują nasze potrzeby. 

Właśnie: potrzeby – i to najczęściej te głęboko ukryte, z których do tej pory nie zdawaliśmy sobie sprawy albo wręcz im zaprzeczaliśmy. Algorytmy mediów społecznościowych wykorzystują nasze lęki, pragnienia, słabe punkty i proste automatyzmy. W efekcie klikamy w treści, których sami byśmy nie zamówili, których racjonalnie nie chcemy konsumować, ale przecież nas stymulują: intrygują, straszą, denerwują. Algorytm podbija je wyłącznie dlatego, że skutecznie angażują naszą uwagę. Ten mechanizm opiera na profilowaniu behawioralnym, którego również nie zamawialiśmy. 

Czy TikTok jest pod tym względem gorszy niż inne platformy? 

Jeszcze tego nie wiemy. Nie mając dostępu do rzetelnych danych „ze środka”, musimy polegać na anegdotycznych dowodach. One wskazują, że algorytm TikToka rzeczywiście wciąga szybciej i skuteczniej, szczególnie młodych ludzi. Firma sama chwali się tym, że przebija konkurencję pod względem czasu, jaki ludzie spędzają, scrollując treści. Jeżeli przyjmiemy, że to jest problem sam w sobie – bo bezpośrednio wiąże się z ryzykiem uzależnienia i ekspozycji na szkodliwe treści – to model serowania treści przez TikToka powinien nas niepokoić.

Mówi się, że TikTok jest trochę jak telewizja – nie tyle szukamy tam treści, które nas interesują, tylko treści wyświetlają się bez przerwy i same nas znajdują. 

Telewizja na sterydach. To jest dla mnie fascynujące, bo myślałam, że odchodzimy od formatu, w którym nasze zmysły atakuje content, którego nie zamawialiśmy. Ta cecha wyróżnia TikToka i może się okazać, że właśnie dlatego ta aplikacja szkodzi nam bardziej. Żeby to ocenić, potrzebujemy jednak twardych danych. Do tej pory ich nie było, bo dominujące platformy nie dopuszczały niezależnych badań. To się zmieni właśnie dzięki DSA. Pojawią się publicznie dostępne raporty opisujące ryzyka, jakie powodują ich usługi, zewnętrzne audyty i możliwość wnioskowania o dostęp do surowych danych dla badaczy, którzy wykażą interes społeczny.

Oczywiście, wszystkie te firmy już teraz badają wpływ swoich algorytmów i interfejsów na ludzi, ponieważ ta wiedza pozwala im „ulepszać usługę”. Takie informacje wyciekły na przykład z Facebooka, dzięki sygnalistce Frances Haugen. Chodzi o to, żeby skutecznie monetyzować uwagę, ale też nie przesadzić z dokręcaniem śruby, czyli nie narażać ludzi na szkody psychiczne, które mogłyby ich odciąć od platformy. Teraz się przekonamy, czy pod wpływem obowiązkowych ocen ryzyka platformy wprowadzą dodatkowe bezpieczniki. 

Istnieją jednak głosy, że takie dobrowolne działania to za mało – i na przykład należy ograniczyć dostęp do TikToka dzieciom i nastolatkom, choćby z powodów zdrowia psychicznego. Jak to rozumieć? 

Formalnie trzeba mieć 13 lat, żeby wejść na platformę. I to jest dobra reguła. Być może wystarczyłoby, żeby platformy jej przestrzegały. W kolejnym kroku można różnicować doświadczenie na platformie zależnie od wieku użytkownika. Jednak im bliżej będziemy tej magicznej osiemnastki, tym trudniej uzasadnić arbitralne ograniczenia. Dorośli ludzie lubią czuć się wolni, nawet jeśli ryzykują własnym zdrowiem.

Dlatego większy sens ma wyeliminowanie z platformy funkcji, które zagrażają zdrowiu publicznemu albo powodują inne szkody. Jeśli Komisja Europejska stwierdzi na podstawie procedury przewidzianych w DSA, że zasada działania konkretnego algorytmu podbija szkodliwe treści albo zwiększa ryzyko uzależnienia od aplikacji, może wymusić jego zmianę. A jeśli platforma takiej zmiany nie wprowadzi, może wylecieć z europejskiego rynku. 

TikTok jest w awangardzie projektowania interfejsów i algorytmów rekomendujących treści. Ale to przecież nie jest problem jednej aplikacji. Podobne techniki będą się pojawiać na wszystkich platformach, których zysk zależy od tego, jak skutecznie angażują użytkowników – czyli na ile są w stanie kontrolować ich cykl dopaminowy. 

Przyjmijmy, że DSA to krok w dobrą stronę. A co dalej? Do jakiego celu powinniśmy zmierzać? 

Nie można tego powiedzieć jednym zdaniem. W Fundacji Panoptykon pracujemy nad zmianą, która ma kilka warstw. 

Po pierwsze, potrzebna jest większa przejrzystość. Nie taka pozorna, drobnym drukiem w regulaminie, tylko dobrze zaprojektowany dialog z człowiekiem, który korzysta z danej usługi. Ludzie powinni rozumieć, z czym mają do czynienia i jakie problemy mogą dla nich z tego wyniknąć. Na przykład przy próbie zmiany ustawień aplikacja mogłaby informować: „Ta funkcja ma potencjał uzależniający”. A system rekomendujący treści mógłby wyświetlać ostrzeżenia dla ludzi, którzy przez dłuższy czas scrollują treści na ten sam temat i zagłębiają się w internetowe królicze nory. 

Podobnie jak ostrzeżenia na papierosach?

Tak, coś w tym rodzaju. Ale mówimy o bardzo złożonych systemach, dlatego nie ma jednej formułki opisującej, co to znaczy „przejrzystość”. Nie chodzi jedynie o ostrzeżenia i podstawowe informacje dla średnio zainteresowanych. Chodzi również o dane i pogłębione raporty dla profesjonalistów, takich jak organizacje społeczne i niezależni badacze. W naszej bańce od lat toczy się dyskusja o tym, jakie metryki, parametry i wskaźniki byłyby użyteczne w kontrolowaniu algorytmów. Teraz wielkie platformy internetowe będą musiały ujawniać niektóre z nich, bo tego wymaga od nich DSA.

A poza przejrzystością?

Drugi poziom to zmiana paradygmatu w projektowaniu: z takiego, które ludźmi manipuluje, na takie, które jest dla nich bezpieczne. Tę zmianę w naszym żargonie określamy jako safe default. Po prostu: domyślna wersja każdej aplikacji powinna być bezpieczna dla ludzi.

Bezpieczna, czyli jaka? 

Nie prowadzi nas w kierunku decyzji, które są niekorzystne z konsumenckiego punktu widzenia – na przykład do „zgadzania się” na inwazyjne formy śledzenia tego, co robimy w sieci. Nie stymuluje cyklu dopaminowego po to, żeby zatrzymać nas jak najdłużej. Nie udaje czegoś, czym nie jest. W języku osób, które projektują tak zwane user experience (UX design) oznacza to zakaz korzystania z dark patterns, czyli nieetycznych praktyk w projektowaniu interfejsów i ustawień użytkownika. 

Jak to zrobić, nie jest wiedzą tajemną. Mamy do dyspozycji całe katalogi szkodliwych praktyk. Na przykład: endless scrolling, czyli niekończący się feed. Prosta technika zatrzymująca ludzi przy ekranie, którą można łatwo wyeliminować. Przy czym każdy taki przykład to czubek góry lodowej. Cały ten ekosystem usług internetowych rozwijał się bowiem w oparciu o założenie, że człowiek nie jest w nim podmiotem, ale przedmiotem komercyjnych transakcji. Trzeba go zatem przebudować kawałek po kawałku. I to na pewno da się zrobić, ale mamy przed sobą maraton. To trochę jak rozmowa o ekologii pięćdziesiąt lat temu. Oczywiście, najprościej byłoby przestać korzystać z najbardziej toksycznych usług…

Jest takie hasło: natychmiast skasuj konta w mediach społecznościowych. 

Ale to by była rewolucja, na którą jako społeczeństwo nie jesteśmy gotowi. W pewnej mierze z powodu mechanizmu uzależnienia – jemy ten cukier od tak dawna, że trudno nam się będzie przestawić na zdrowszą internetową dietę. A nawet, kiedy już czujemy się źle – wpadamy w stany depresyjne czy kompulsywnie sięgamy po telefon, żeby odciąć się od emocji – nie dostrzegamy powiązania między tym, co się dzieje w telefonie i naszym stanem psychicznym. Właśnie po to, żeby przerwać to błędne koło, potrzebujemy, żeby popularne aplikacje same się przestawiły w tryb safe default

A jak już mamy podstawowe bezpieczeństwo? 

Trzeci poziom to propozycja dla zaawansowanych. Dla ludzi aktywnych i świadomych, którzy chcą chodzić po sieci swoimi ścieżkami. Nie chcą rezygnować z mediów społecznościowych, ale wiedzą, że to, co dostają na wejście, jest bezwartościową papką. I dlatego są gotowi zainwestować swój czas, a może i trochę pieniędzy, w inne ustawienie algorytmów. 

Dla nich wymyślamy ustawienia, które pozwalają własnoręcznie zmieniać skład tego, co jest nam serwowane w strumieniu aktualności. Modyfikować swój profil, wybierać wiarygodne źródła, odfiltrowywać treści, które uważamy za bezwartościowe i tak dalej. To, że do tej pory wszystkie media społecznościowe oferowały nam podobne doświadczenie, nie wynika z braku fantazji w ich działach R&D, ale z prostej biznesowej kalkulacji. Na tym polu ogranicza nas tylko wyobraźnia, bo w świecie uczących się algorytmów naprawdę wszystko jest „do pomyślenia”.

Jakie to pomysły? 

Na przykład moglibyśmy zażądać rozwarstwienia platformy: chcę nadal odbierać treści serwowane na TikToku, ale przez interfejs, który sama wybiorę, bo ufam, że mną nie manipuluje – dajmy na to rozwinięty na platformie Mastodon. Albo załóżmy, że jestem użytkowniczką, którą triggeruje określony typ treści i nie chcę być na nie eksponowana – nadal mogę zostać tam, gdzie są moi znajomi i odbierać ten sam co wcześniej strumień aktualności, ale dołożyć zewnętrzny filtr, który będzie dla mnie – i tylko dla mnie! – odrzucał niechciane treści. 

Czyli możemy mieć nakładki, które dostosowują media społecznościowe indywidualnie do naszych potrzeb?

Tak, ten trzeci poziom to właśnie obietnica autentycznego wyboru. Dzięki zaawansowanym ustawieniom, których nie kontroluje jedna firma, mogę mieć taki serwis, jakiego szukam. Teraz jest tak, że domyślnie dostajemy więcej cukru, niż zamawialiśmy. 

I jest jeszcze czwarty poziom. Bo co się stanie, jeśli nawet ci zaawansowani użytkownicy wybiorą „więcej cukru”, skoro tak do niego przywykli? Czy możemy jakoś „skorygować” dietę informacyjną ludzi, których światopogląd kształtują dziś media społecznościowe? Czwarty poziom to właśnie nasze pomysły na promowanie jakościowych i rzetelnych treści. Korekta modelu biznesowego narzucona przez europejskiego regulatora. 

Oczywiście, przepis na lepszą dietę informacyjną nie jest prosty i może się to przerodzić w zabawę ogniem. Dlatego ostro debatujemy nad pomysłami. Jednym z rozwiązań mogłoby być ustalenie wskaźnika treści pochodzących z jakościowych, wiarygodnych mediów w „miksie informacyjnym” algorytmów mediów społecznościowych. Coś w tym duchu udało się w czasie pandemii, gdy na dominujących platformach były promowane zweryfikowane informacje o covid-19. 

Łącznie rzecz biorąc, to byłby nowy krajobraz mediów społecznościowych. I kiedy tak będzie? 

Wielkie platformy mają czas do września tego roku, żeby dostosować się do przepisów DSA. Ich ludzie od public affairs bardzo aktywnie uczestniczyli w pracach legislacyjnych i teraz też nie siedzą z założonymi rękami. Od miesięcy trwa nieformalny dialog z Komisją Europejską, w którym platformy testują swoje pomysły. A TikTok nawet publicznie zapowiada zmiany w swojej aplikacji i otwarcie przyjmuje krytykę. 

Bo nie chce, żeby go zamknęli. 

Myślę, że w ciągu roku zobaczymy, czy największe platformy potraktowały swoje nowe obowiązki poważnie. Tym razem byłabym zdziwiona, gdyby za ich retoryką nie poszły żadne realne zmiany. Ale jakie one będą – dopiero się przekonamy. A potem wejdziemy w kolejny cykl walki o lepszy internet, czyli sprawdzanie, krytykowanie, nagłaśnianie błędów i korygowanie tam, gdzie się da. W najlepszym razie mówimy więc o nadchodzących 2–3 latach, w najgorszym – jeśli okaże się, że platformy idą w zaparte, a następny skład Komisji Europejskiej ma inne priorytety – o naprawdę długim maratonie. 

Jestem jednak dobrej myśli. Wreszcie mamy odpowiednie narzędzia prawne. Do tego Unia Europejska stworzyła w tym obszarze kompetentną i zdeterminowaną administrację. Komisja zatrudnia najlepszych ludzi, mają odpowiedni budżet i rozbudowane zaplecze badawcze, między innymi nowe centrum, które będzie się specjalizować w rozliczalności algorytmów. A ci wszyscy ludzie mają swoje ambicje. 

Ale jest jeszcze pytanie, które może zadawać sobie zwykły użytkownik TikToka: a dlaczego jacyś europejscy urzędnicy mają mi to wszystko regulować? Jak na to odpowiadasz? 

To jest ważne pytanie. Dlatego w naszych propozycjach pojawia się ten trzeci poziom, w którym chodzi o potrzeby i autentyczny wybór każdego człowieka. Jeśli ktoś sobie życzy w dalszym ciągu konsumować cukier, to jest jego decyzja. 

Dopiero od pewnego stopnia zaczyna się problem z obszaru zdrowia publicznego albo interesu społecznego. Negocjacje zaczynają się tam, gdzie konsekwencje ponosi całe społeczeństwo – na przykład dzieciaki na niespotykaną wcześniej skalę lądują w szpitalach psychiatrycznych. Wtedy ma prawo wkroczyć regulator i skorygować rynek, jak to czyni w innych sferach życia społecznego. Wolno grać na giełdzie, ale bank nie może proponować niewykształconemu konsumentowi produktu, którego ten nie rozumie. Nadal można jeść kiełbasę i piersi z kurczaka, ale producenci mięsa nie mogą nam serwować w składzie toksycznych substancji. 

Internet to ciągle rozrastająca się galaktyka kontentu. Czy twoją pasją są filmiki z kotami, czy brutalne relacje wojenne albo teorie spiskowe – jeśli czegoś szukasz, znajdziesz to. Dlatego zakazy nakładane na określone typy treści są mało skuteczne. I my w żadnym razie nie proponujemy usuwania z sieci tego, co legalne. Korekta rynku, na którą liczymy w związku z DSA, dotyczy tego, w jaki sposób różne treści są nam serwowane: chodzi o techniki manipulowania naszą uwagą, dobre i złe praktyki w projektowaniu. Chodzi o to, żeby algorytmy przestały żerować na naszych słabościach i wciągać nas w konsumowanie bezwartościowych treści. W tym sensie nie ma znaczenia, czy mówimy o TikToku, czy YouTubie. 

Bez wątpienia to nie będzie łatwa dyskusja. Szykuje się starcie gigantów – Komisji Europejskiej z całym jej zapleczem oraz najbogatszych firm internetowych z ich tabunami prawników. Polecam przygotować popkorn.

Skoro tu jesteś...

...mamy do Ciebie małą prośbę. Żyjemy w dobie poważnych zagrożeń dla pluralizmu polskich mediów. W Kulturze Liberalnej jesteśmy przekonani, że każdy zasługuje na bezpłatny dostęp do najwyższej jakości dziennikarstwa

Każdy i każda z nas ma prawo do dobrych mediów. Warto na nie wydać nawet drobną kwotę. Nawet jeśli przeznaczysz na naszą działalność 10 złotych miesięcznie, to jeśli podobnie zrobią inni, wspólnie zapewnimy działanie portalowi, który broni wolności, praworządności i różnorodności.

Prosimy Cię, abyś tworzył lub tworzyła Kulturę Liberalną z nami. Dołącz do grona naszych Darczyńców!

SKOMENTUJ

Nr 745

(16/2023)
18 kwietnia 2023

PRZECZYTAJ INNE Z TEGO NUMERU

PRZECZYTAJ INNE Z TEGO NUMERU

KOMENTARZE



WAŻNE TEMATY:

TEMATY TYGODNIA

drukuj