Porozumienie między Komisją Europejską a największymi dostawcami usług w sieci nakłada na tych drugich konieczność szybkiego usunięcia mowy nienawiści z sieci. Wypełnianie unijnych postanowień przebiega coraz sprawniej, nadal jednak daleko do ich pełnej realizacji. Od czasu opublikowania ostatniego tekstu na ten temat nie zmieniło się wiele. Cały czas decyzje podejmowane przez portale nie są jasno komunikowane, zarówno osobom zgłaszającym, jak i tym, których treści są usuwane. Mamy jednak przykład pokazujący, że władze państwowe mogą wpływać na standardy usuwania treści.

Niemcy postrzegane są jako kraj, który poradził sobie z rasizmem i nienawiścią na tle etnicznym. Nie oznacza to jednak, że nie występują tam niepokojące nastroje społeczne. Niedawno głośno było o neonazistowskim spisku wewnątrz niemieckiej armii, a ze środowiskami skrajnej prawicy związana jest populistyczna Alternatywa dla Niemiec (AfD). Niemieckie prawo ostro penalizuje wszelkie przejawy mowy nienawiści oraz symbole używane przez organizacje radykalne – nie tylko swastykę, lecz także krzyże celtyckie i inne „zamienniki”. Do niedawna w internecie autorzy podobnych wpisów często pozostawali jednak bezkarni – niemieckie prawo miało luki.

Sytuacja zmieniła się po wprowadzeniu ustawy wymuszającej na dostawcach internetu usuwanie treści sprzecznych z niemieckim prawem oraz takich, które są postrzegane jako niebezpieczne społecznie. Chodzi tu przede wszystkim o mowę nienawiści, pornografię dziecięcą, fałszywe informacje i promowanie terroryzmu.

Zasady są proste – treści jawnie sprzeczne z prawem portale mają obowiązek usunąć w ciągu 24 godzin od otrzymania zgłoszenia od użytkownika. W przypadku treści, które wymagają analizy, czas ten przedłużony jest do siedmiu dni. Jednocześnie na administracji portali spoczywa obowiązek archiwizacji materiału na użytek procesu. Portale muszą również dołożyć wszelkich starań, by usuwać wszystkie kopie usuniętego materiału oraz informować użytkowników o podejmowanych decyzjach, co jest standardem nawet w bardzo podstawowym zakresie w większości europejskich państw.

Odpowiednie instytucje mają prawo kontrolować realizację prawa i nakładać kary w wysokości nawet 50 mln euro w przypadku niewywiązywania się z przepisów ustawy. Kary te nakładane mają być jednak tylko w przypadku systemowych zaniedbań i ewidentnych naruszeń prawa.

Wiemy, że największe portale dysponują zbyt małymi zasobami, by monitorować wszystkie pojawiające się na nich treści. Facebook zadeklarował, że zatrudnił dwa tysiące nowych moderatorów, zajmujących się głównie usuwaniem najbardziej drastycznych treści. Ujawnione przez „The Guardian” materiały wewnętrzne pokazują, skąd mogą się brać nieporozumienia. Zakazane jest nawoływanie do nienawiści wobec ludzi, ale nie wobec idei czy orientacji seksualnej. Stąd np. zakazane jest głoszenie nienawiści do gejów czy lesbijek, lecz dozwolone jest istnienie grup deklarujących sprzeciw wobec homoseksualizmu czy promujących tezę o homoseksualizmie jako chorobie – nawet jeśli ich zawartość to przede wszystkim nawoływanie do nienawiści.

W teorii zasada jest dobra. W praktyce nastręcza wielu wątpliwości. Rasizm można łatwo uzasadnić przez odwołanie do innej kultury jako gorszej. Niewątpliwie krytyka przesłania Koranu czy elementów doktryny szariatu nie jest tożsama z nienawiścią wobec muzułmanów. Często jednak jest to wykorzystywane jako pretekst do uzasadniania nienawiści, a nawet przemocy wobec muzułmanów. Wybiórcze cytowanie Koranu ma na celu wskazanie nie tyle problemów związanych z islamem, co zła kryjącego się w samych muzułmanach, czy nawet osobach niereligijnych, ale wychowanych w kręgu kulturowym z dominującą rolą islamu.

Powołując się na zasadę przyzwolenia na większą swobodę w treściach satyrycznych, Facebook dopuszcza obrazki przedstawiające wyznawców islamu jako zoofilii. W praktyce skuteczne usuwanie mowy nienawiści wymaga nie tylko wytyczenia ogólnych kierunków, lecz także znajomości tematu i wyczucia kontekstu wypowiedzi – osoba zastanawiająca się nad usunięciem danej treści powinna na przykład mieć na uwadze, czy jest to rzeczywista opinia, czy parodia danego poglądu. Czasem jest to bardzo trudne nawet po długim namyśle, a moderator portalu najczęściej ma na to kilkanaście sekund.

Facebook uznaje również, że klasy społeczne nie są kategorią chronioną. Tymczasem można spotkać się z mową nienawiści wobec osób bezdomnych, ubogich lub rodzin wielodzietnych często utożsamianych z ubóstwem. Przyczyny są podobne jak w przypadku osób homoseksualnych – to odstępstwa od przyjętej normy, w tym wypadku właściwej klasie średniej, w modelu rodziny nuklearnej. W przypadku imigrantów dopuszczalne jest na przykład używanie określeń poniżających, o ile nie są one dehumanizujące. Można np. przedstawiać imigrantów jako gwałcicieli lub złodziei, choć oczywiste jest, że takie uproszczenia tworzą wrogą atmosferę.

Korporacje międzynarodowe, takie jak Facebook, przyzwyczaiły się do ignorowania państwowych przepisów. Tworzy to sytuacje, w których paradoksalnie można poszerzać zakres wolności słowa, na przykład pomagając w działalności opozycji w państwach autorytarnych. Jednocześnie korporacja kieruje się często niejasnymi kryteriami, ustalanymi w atmosferze tajemnicy. Odwołanie od decyzji anonimowego organu jest w praktyce niemożliwe. Ale też współpraca z władzami kraju może być korzystna, stąd na przykład skuteczność w egzekwowaniu prawa przez Niemców. Czy możemy wdrożyć podobne mechanizmy w Polsce?

Podstawowym problemem jest oczywiście wola polityczna. Przyjęte rozwiązania umożliwiałyby na przykład usuwanie treści nawołujących do nienawiści wobec chrześcijan czy przemocy wobec zwolenników partii, bo takie treści są w polskim prawie penalizowane. Tego rodzaju treści to jednak margines w zalewie hejtu, który władzy jest na rękę – treści antymuzułmańskich czy nawołujących do przemocy wobec sympatyków opozycyjnych partii. Jesienią 2016 r. temat nieśmiało podjęła minister Anna Streżyńska, po tym jak przedstawiciele środowisk narodowych zorganizowali protesty przeciwko usuwaniu swoich stron. Nic dalej się w tej kwestii jednak nie zadziało.

Gdyby miały to być działania, których celem byłoby chronienie osób zamieszczających treści ekstremistyczne – może nawet lepiej, że skończyło się na jednej wypowiedzi. Brak woli politycznej nie oznacza jednak, że nie możemy podjąć prac nad polskim wariantem prawa zobowiązującego administratorów portali do poważnego potraktowania problemu mowy nienawiści i innych przestępstw internetowych. To nasz wspólny interes, by treści te były usuwane szybko i w sposób transparentny. Nie zrobimy tego bez skłonienia administratorów do większej współpracy ze stroną społeczną.

Fot. Ashley Marinaccio, Flickr.com, CC BY-NC-SA 2.0.