Co najmniej kilku polskich youtuberów wysyłało trzynasto- i czternastoletnim dziewczynkom wiadomości o seksualnym podtekście, niechciane dick picki i zachęcali je do przesyłania nagich zdjęć. Sprawą zainteresowali się nawet Mateusz Morawiecki, Zbigniew Ziobro i Donald Tusk. Do polskiej polityki wróciło pytanie: jak zapewnić dzieciom bezpieczeństwo w internecie?
W natłoku informacji wokół wyborów parlamentarnych i youtuberskiego #metoo, polskim mediom niemal umknęła sprawa jednej z najbardziej kontrowersyjnych regulacji obecnie przygotowywanych przez Komisję Europejską.
Projekt przepisów dotyczy zwalczania i zapobiegania niegodziwemu traktowaniu dzieci w celach seksualnych (w skrócie „Rozporządzenie CSAM”, od Child Sexual Abuse Materials). W maju 2022 zaproponowała go szwedzka komisarz Ylva Johansson. Od początku wzbudził on wątpliwości akademii, organizacji pozarządowych, ofiar przemocy oraz ekspertów od cyberbezpieczeństwa i ochrony danych.
Nawet Signal nie będzie bezpieczny
Wbrew proprywatnościowej narracji reprezentowanej przez Komisję, w praktyce rozporządzenie CSAM zakłada rezygnację z szyfrowania internetowych czatów w celach skanowania wiadomości w poszukiwaniu treści pedofilskich.
Projekt zakłada możliwość wezwania właściwie każdego dostawcy usług cyfrowych – w tym platform internetowych i komunikatorów takich jak WhatsApp czy Signal – do monitorowania treści przesyłanych pomiędzy użytkownikami.
Co więcej, nakazy obejmowałyby nie tylko wykrywanie „znanych”, lecz także wyszukiwanie „nowych” materiałów pedofilskich i komunikatów mogących świadczyć o groomingu. Do ich wykrycia niezbędna byłaby sztuczna inteligencja.
Tak daleko idący program monitoringu musiałyby objąć całość prowadzonej korespondencji i dotyczyć wszystkich użytkowników – nie tylko tych podejrzanych o czyny pedofilskie. To wiąże się z ryzykiem z błędów i fałszywych oskarżeń wobec niewinnych osób.
Rubikon prywatności
Projekt zakłada olbrzymią i niespotykaną do tej pory w Unii Europejskiej skalę inwigilacji obywateli. Europejski Rzecznik Ochrony Danych Osobowych stwierdził, że nie ma dowodów na to, że przepisy doprowadzą do poprawy ochrony dzieci. Porównał je wręcz do „przekroczenia Rubikonu” w obszarze internetu i komunikacji cyfrowej.
Paweł Lewandowski, podsekretarz stanu w Ministerstwie Cyfryzacji, nazwał rozporządzenie „niepotrzebnym” i „nieproporcjonalnym”. Z kolei, Microsoft, Meta, Mozilla i Google wzywają do sprecyzowania zakresu rozporządzenia i alarmują o możliwości istnienia bardzo dużego marginesu błędu.
Dodatkowo, organizacje zaangażowane w pomoc ofiarom przemocy seksualnej dowodzą, że szyfrowanie treści jest niezbędnym środkiem zapewnienia bezpieczeństwa dzieciom w internecie. Chronią dzieci przed sprawcami włamującymi się na ich konta w poszukiwaniu zdjęć. Także ofiary korzystają z komunikatorów w celu poszukiwania pomocy.
Lobbyści w przebraniu aktywistów
Do najgłośniejszych zwolenników rozporządzenia należą organizacje pozarządowe zrzeszone w ramach koalicji ECLAG (European Child Sexual Abuse Legislation Advocacy Group). Prowadzi ona coś, co z pozoru wygląda na oddolną kampanię aktywistyczną pod hasłem ochrony bezpieczeństwa dzieci.
Koalicja zorganizowała nawet w Brukseli demonstrację aktywistów pod hasłem „Oczyszczania internetu z seksualnych przestępców i ochrony dzieci”. Pod listem otwartym, popierającym jej działania, podpisały się między innymi Maja Staśko czy Ewa Farna.
I choć organizacje zrzeszone w ECLAG zgodnie przekonują, że mają na uwadze bezpieczeństwo i interes dzieci, trudno nie wspomnieć, że oprócz działalności „aktywistycznej” wszystkie te podmioty prowadzą start-upy technologiczne. To przede wszystkim one zyskałyby na wprowadzeniu regulacji.
Amerykański Thorn — najbardziej znany zwolennik rozporządzenia „dla dobra nieletnich” — w unijnej bazie lobbystów twierdzi, że prowadzi „działalność charytatywną”. Jednocześnie jednak jest światowym liderem w produkcji technologii AI umożliwiającej skanowanie czatów w poszukiwaniu nieodpowiednich treści. Z produktów firmy korzystali między innymi Departament Bezpieczeństwa Wewnętrznego Stanów Zjednoczonych, Open AI rozwijająca Chat GPT, Vimeo czy Flickr.
Współzałożycielem i twarzą Thorn był do niedawna aktor Ashton Kutcher, który zrezygnował ze stanowiska po ujawnieniu, że uczestniczył w uciszaniu ofiary przemocy seksualnej. Przed odejściem zdążył jednak wystąpić w Parlamencie Europejskim, gdzie przekonywał polityków do przyjęcia rozporządzenia w imię bezpieczeństwa dzieci.
Nieograniczona inwigilacja Europejczyków
Niedawne śledztwo dziennikarskie wykazało także związki personalne między przedstawicielami Thorn a pracownikami Komisji Europejskiej i Europolu, czyli unijnej agencji zajmującej się egzekwowaniem prawa. Przedstawiciele start-upów takich jak Thorn i innych firm technologicznych wielokrotnie spotykali się z komisarz Ylvą Johansson, a także z samą przewodniczącą KE Ursulą von der Leyen. Organizacjom pozarządowym nie udało się to ani razu.
Śledztwo potwierdziło także intuicje części krytyków rozporządzenia CSAM, którzy obawiali się rozszerzenia jego zastosowania poza zapobieganie przemocy seksualnej wobec dzieci.
Ujawnione notatki ze spotkań Komisji i Europolu wykazały, że Europol żądał poszerzenia zakresu rozporządzenia o każdą kategorię przestępstwa. W praktyce oznaczałoby to nieograniczony dostęp agencji do danych Europejczyków.
Ochrona dzieci a rezygnacja z prywatności
Dyskusja wokół tego, jak dbać o bezpieczeństwo dzieci w internecie, trwa od początku jego istnienia. Choć RODO wprowadza dodatkowe obostrzenia, takie jak obowiązek weryfikacji wieku czy wyrażenia zgody na przetwarzanie danych dziecka przez opiekuna prawnego, w praktyce ich egzekwowanie okazało się niemożliwe.
Dzieci podają fałszywe informacje o swoim wieku, a w przypadku żądania podania konta e-mail rodzica posługują się kontami, którymi same dysponują. Bez większego problemu uzyskują więc dostęp do treści nieprzeznaczonych dla nich. Skalę tego zjawiska pokazywał również skandal z polskimi youtuberami.
Pomysły takie jak wymaganie przy rejestracji konta dowodu osobistego lub jego elektronicznej wersji czy korzystanie z technologii rozpoznawania twarzy budzą poważne wątpliwości z zakresu proporcjonalności, inkluzywności i inwazyjności środków.
Z kolei wprowadzenie kontroli rodzicielskiej na przykład poprzez połączenie adresów e-mail dziecka i rodzica może doprowadzić do sytuacji, w której dziecko będące ofiarą przemocy domowej zostanie pozbawione jedynej możliwości szukania pomocy. Może także rodzić ryzyko błędów w mechanizmie weryfikacji tego, kto ma dostęp do konta dziecka, i czy aby na pewno jest to jego opiekun prawny.
Między innymi właśnie za niewłaściwe ustawienia family pairing i nieefektywną metodę weryfikowania wieku TikTok otrzymał niedawno karę w wysokości 345 milionów euro od irlandzkiego urzędu ochrony danych osobowych.
Dobro dziecka czy startupu
Mimo licznych głosów wypowiadanych przeciwko rozporządzeniu CSAM, unijna procedura legislacyjna nadal się toczy, a Komisja Europejska finansowała na platformie X (wcześniej Twitter) reklamy mikrotargetujące obywateli państw niechętnych przyjęciu rozporządzenia. Na 25 października zapowiedziano w Parlamencie Europejskim kolejne posiedzenie komisji LIBE.
W międzyczasie organizacje pozarządowe zajmujące się prawami cyfrowymi oraz prawami dziecka, instytucje publiczne i politycy kontynuują rozmowy nad właściwym rozwiązaniem. Takim, które na pierwszym miejscu będą stawiać dobro dziecka, a nie interesy firm technologicznych.
This article was published as part of PERSPECTIVES – the new label for independent, constructive and multi-perspective journalism. PERSPECTIVES is co-financed by the EU and implemented by a transnational editorial network from Central-Eastern Europe under the leadership of Goethe-Institut. Find out more about PERSPECTIVES: goethe.de/perspectives_eu.
Co-funded by the European Union. Views and opinions expressed are, however, those of the author(s) only and do not necessarily reflect those of the European Union or the European Commission. Neither the European Union nor the granting authority can be held responsible.