Tylko 60 proc. mowy nienawiści znika z sieci. „Jest gorzej”
7 października 2021Komisja Europejska opublikowała w czwartek (07.10.21) doroczny raport oceniający, jak firmy IT radzą sobie z usuwaniem mowy nienawiści z sieci. W ramach tzw. kodeksu postępowania, czyli dobrowolnego porozumienia zawartego między przedsiębiorstwami a Komisją Europejską w maju 2016 r., branża zobowiązała się do bezzwłocznego reagowania w czasie krótszym niż 24h na powiadomienia o treściach nawołujących do nienawiści w internecie oraz, jeśli okazałoby się to uzasadnione, usuwania takich materiałów.
Zgodnie z przepisami ramowymi Rady UE o walce z rasizmem i homofobią, mowa nienawiści (ang. hate speech) czyli publiczne nawoływanie do przemocy lub nienawiści wobec jakiejś osoby lub grupy osób np. z powodów religijnych, rasowych czy ze względu na przynależność osoby do danej grupy etnicznej, uznawane jest w UE za przestępstwo. Niezależnie od tego, czy występuje w rzeczywistości, czy w internecie. Do przestrzegania unijnego kodeksu zobowiązało się dotychczas 11 firm, w tym: Facebook, Microsoft, Twitter, YouTube, Instagram, Google+, Snapchat, Dailymotion, Jeuxvideo.com, LinkedIn i TikTok.
Hejterzy chcą mordować
Tymczasem w najnowszym raporcie Komisja Europejska alarmuje, że branża radzi sobie coraz gorzej z usuwaniem mowy nienawiści. W tym roku platformy zareagowały w ciągu umownej doby jedynie na 81 proc. zgłoszeń; rok temu na 90,4 proc. Kolejne 10 proc. rozpatrzonych zostało w ciągu 48 godzin, 8 proc. w ciągu siedmiu dni, a 0,8 proc. powiadomień czekało na swoją kolej dłużej niż tydzień. Ostatecznie zadecydowano o usunięciu 62,5 proc. zgłoszonych treści. I tu statystyki były znowu gorsze niż w latach poprzednich, bo jak podaje Komisja Europejska, w 2019 i 2020 r. z sieci znikało średnio 71 proc. materiałów nawołujących do nienawiści.
Platformy tłumaczą, że decyzje o usunięciu lub zablokowaniu materiałów podejmowane były zależnie od tego, jak poważne było naruszenie. I tak, wśród usuniętych najwięcej (69 proc.) było treści nawołujących do mordów i przemocy wobec określonych grup społecznych, na drugim miejscu (55 proc.) znalazły się materiały, w tym wpisy, zdjęcia i filmy, zniesławiające i obrażające wybrane grupy.
Z raportu KE wynika, że nienawiść w sieci najczęściej wymierzona była w osoby o innej orientacji seksualnej lub miała charakter ksenofobiczny, zaobserwowano też rosnącą liczbę ataków wobec osób o pochodzeniu romskim (12,5 proc.). Ponad 9 proc. powiadomień dotyczyło antysemityzmu, 8,5 proc. mowy nienawiści wobec muzułmanów, 5 proc. wobec kobiet. Jeśli chodzi o skuteczność usuwania szkodliwych treści, to różnice widać nie tylko między platformami, gdzie w tym roku bezapelacyjne rekordy bił TikTok z 80 proc. skutecznością, ale także na poziomie państw członkowskich. Najwięcej, bo aż 96 proc. wpisów z mową nienawiści usuniętych zostało z niemieckich stron, a znacznie mniej, bo zaledwie 34,5 proc. ze stron polskich.
– Platformy nie mogą sobie pozwolić na samozadowolenie. To, że w ubiegłych latach miały świetne wyniki nie oznacza, że powinny podchodzić mniej poważnie do problemu mowy nienawiści w sieci. Przeciwnie, powinny reagować bezzwłocznie – powiedział w czwartek komisarz UE ds. sprawiedliwości Didier Reynders.
Dżentelmeńska umowa to za mało
Zgłaszać nielegalne treści mogą zarówno sami internauci jak i organizacje pozarządowe monitorujące sieć. W Polsce są to na przykład: Hej Stop i Never Again Association, w Niemczech: Jugendschutz.net.
Platformy internetowe mają obowiązek informować użytkownika lub instytucję zgłaszającą podejrzenie przestępstwa o dalszych krokach w sprawie oraz powiadomić o mowie nienawiści odpowiednie służby. W praktyce nie zawsze tak się dzieje. Jak ustaliła Komisja Europejska, firmy udzieliły informacji zwrotnej odnośnie zgłoszeń w 60 proc. przypadków – to mniej niż rok temu, kiedy odsetek ten wyniósł 67 proc. Najlepiej pod tym względem radzi sobie Facebook, gdzie informację zwrotną otrzymuje średnio 9 na 10 zgłaszających, nagorzej YouTube, który odpowiedział tylko na 7 proc. powiadomień.
Chcesz skomentować ten artykuł? Zrób to na facebooku! >>
Komisja zauważyła, że częściej usuwane są materiały zgłaszane platformom za pośrednictwem oficjalnych kanałów, np. przez organizacje pozarządowe, niż przez pojedynczych internautów. Może to sugerować, że powiadomienia od prywatnych osób traktowane są przez platformy jako mniej wiarygodne. Autorzy raportu zaznaczyli natomiast, że po raz pierwszy firmy IT ujawniły, jakie konkretnie działania podjęły, żeby walczyć z mową nienawiści, w tym z jakiej technologii korzystały przy automatycznym filtrowaniu treści.
Komisja Europejska pracuje nad przepisami, które zamienią dotychczasowe dobrowolne zobowiązania firm w prawny obowiązek usuwania szkodliwych treści. Miałby to regulować akt o usługach cyfrowych (ang. Digital Services Act, DSA) poprzez nałożenie na platformy obowiązku usuwania nielegalnych oraz szkodliwych treści.
– Mowa nienawiści online może prowadzić do przemocy w świecie rzeczywistym, przecież nienawiść często zaczyna się od słów. Dotychczasowy kod postępowania przyniósł dobre rezultaty, ale dżentelmeńska umowa już nie wystarczy – powiedziała wiceprzewodnicząca KE Vera Jourova.