Projekt zmiany ustawy o świadczeniu usług drogą elektroniczną ma zostać poddany konsultacjom, ale już na obecnym etapie wzbudza niepokój. Chodzi o przepisy mające podporządkować międzynarodowe portale polskiemu prawu. Największe światowe serwisy internetowe od dawna uwzględniają uwarunkowania lokalnego prawa, możliwe jest również – co pokazuje przykład niemieckiej ustawy o zwalczaniu mowy nienawiści – nakłonienie ich do usuwania treści sprzecznych z prawem danego państwa w ciągu 24 godzin. Propozycja Ministerstwa Cyfryzacji nie zmierza jednak w kierunku przyśpieszenia procedury usuwania mowy nienawiści. Wprost przeciwnie – jej zapisy sugerują, że skutkiem będzie większa ekspozycja na różne rodzaje mowy nienawiści, a w skrajnym przypadku wręcz uniemożliwienie usuwania tego typu treści.

Niebezpieczeństwo wynika z art. 4a, w którym dostawcy treści, tj. portale, mają zakaz ograniczania lub utrudniania „w jakikolwiek inny sposób” dostępu do świadczonych przez siebie usług. Obejmuje to również prawo do umieszczania przez użytkowników treści z powodu „linii programowej [danego medium], treści albo regulaminem świadczenia tych usług”.
W praktyce oznacza to np. zniesienie zakazu umieszczania treści mających charakter homofobiczny, seksistowski lub obrażających przedstawicieli różnych grup społecznych. Utrudnione będzie również usuwanie treści zgodnych z prawem, ale łamiących zasady tzw. netykiety, czyli np. komentarze podpadające pod trolling. Autorzy tego typu treści będą mogli od razu uruchamiać procedurę sądową, a administratorzy portali będą zasypywani pozwami do sądów 24-godzinnych. Jeżeli komentarze nie będą łamać przepisów polskiego prawa, sądy nakażą ich przywrócenie.

Sam pomysł rozstrzygania spraw w ciągu 24 godzin przez sądy okręgowe wzbudza konsternację. Polski wymiar sprawiedliwości już teraz oceniany jest jako niewydolny. Czy w obecnej sytuacji dysponujemy odpowiednimi zasobami kadrowymi, aby wdrożyć tak ambitne przedsięwzięcie? W najlepszym wypadku nowe przepisy pozostaną martwym prawem, a portale będą zmuszane do usuwania komentarzy na tyle późno, że nie będą obawiać się tego robić. Przewlekłe procedury zniechęcą również do zgłaszania treści, mających charakter trollingu.

A nie tędy droga. Rozwiązania prawne powinny zmierzać w kierunku wymuszania poczucia odpowiedzialności za komentarze umieszczane przez użytkowników portali. Z gigantami mediów społecznościowych można się dogadać – ale raczej podążając przykładem Niemiec, które wymuszają pilne usuwanie treści niezgodnych z prawem. Jest to absolutne minimum wymagane od administratorów portali, niewykluczające reagowania na inne treści.

Rozwiązania proponowane przez Ministerstwo Cyfryzacji nie odpowiadają również jasno na takie kwestie jak odpowiedzialność osób administrujących stronami na Facebooku czy użytkownikami Twittera, blokującymi dostęp do swoich kont określonym osobom lub tworzącym zamknięte profile. Formalnie nie są oni dostawcami treści. Czy administratorzy mają obowiązek uniemożliwić im usuwanie treści, blokowanie osób lub ograniczania widoczności profili? Czy będziemy zmuszeni upubliczniać wszystkie treści publikowane przez nas na Facebooku, żeby nikt nie oskarżył portalu o pomoc w utrudnianiu dostępu do treści?

Tak naprawdę ustawa nie uderzy jednak w międzynarodowe koncerny. Możemy wyobrazić sobie sytuację, w której posłuży ona za pretekst do odcięcia dostępu do Facebooka czy Twittera. Byłoby to jednak posunięcie głęboko nieopłacalne dla samej władzy. Bardziej realistyczna jest groźba sprawowania kontroli nad portalami zarejestrowanymi w Polsce. W przypadku mniejszych portali, np. lokalnych (którym zdarza się popadać w konflikty z władzą, mieliśmy już przypadki skazywania ich dziennikarzy na karę więzienia) wystarczyłoby przeprowadzenie skoordynowanej akcji umieszczania spamerskich komentarzy i obciążanie administratorów kosztami postępowań o ich usuwanie.

Ustawa nie odpowiada ponadto na problem fake newsów. Swoje rozwiązania wprowadza w tym zakresie Facebook. Ustawa nie wnosi w tym zakresie nowych standardów, a wręcz może je obniżać. Nie wiadomo, co oznacza określenie „społecznych mechanizmów weryfikacji” treści pod względem ich prawdziwości czy rzetelności. Czy mówimy tu o jakiejś formie plebiscytu? Co miałoby wynikać z ignorowania opinii głosujących? Problem jest istotny, ale nie może sprowadzać się do „minusowania” treści, z którymi ktoś się nie zgadza. Istotą problemu nie jest różnorodność opinii, ale rozpowszechnianie informacji nieprawdziwych, czasem trudnych do szybkiego zweryfikowania.

Projekt ustawy zmierza w niebezpiecznym kierunku. Liczymy na szerokie konsultacje i głęboką zmianę kierunku, w którym podąża. Problem jest istotny, a proponowanie obecnie rozwiązania mogą go tylko pogłębić.

 

Fot. wykorzystana jako ikona wpisu: Max Pixel