Zawiadomienie i działanie
Zawiadomienie i działanie to mechanizm umożliwiający użytkownikom zgłaszanie nielegalnych lub szkodliwych treści platformom internetowym i innym dostawcom usług hostingowych. Gdy platforma otrzyma ważne zawiadomienie o problematycznej treści, musi przeanalizować zgłoszenie i podjąć odpowiednie działania, takie jak usunięcie treści lub zablokowanie do niej dostępu, jeśli narusza ona przepisy prawa lub zasady platformy.
Podstawa prawna
„Dostawcy usług hostingowych ustanawiają mechanizmy umożliwiające każdej osobie fizycznej lub podmiotowi zawiadomienie ich o obecności w ich usłudze konkretnych pozycji informacji, które ta osoba fizyczna lub podmiot uznaje za treści nielegalne. Mechanizmy te są łatwo dostępne i przyjazne dla użytkownika oraz umożliwiają składanie zawiadomień wyłącznie środkami elektronicznymi."
— Artykuł 16 ust. 1, Rozporządzenie (UE) 2022/2065 (Akt o usługach cyfrowych)
Dlaczego to jest ważne
Mechanizmy zawiadomienia i działania są niezbędne dla utrzymania odpowiedzialności na platformach cyfrowych przy jednoczesnym zachowaniu równowagi między wolnością wypowiedzi a zgodnością z przepisami prawa. Dla użytkowników oznacza to posiadanie jasnego, dostępnego sposobu zgłaszania treści, które ich zdaniem naruszają przepisy prawa — od mowy nienawiści i zniesławienia po naruszenia praw autorskich lub treści terrorystyczne.
Dla platform zawiadomienie i działanie tworzy obowiązki prawne dotyczące szybkiego i sprawiedliwego rozpatrywania zgłoszeń. Zgodnie z Aktem o usługach cyfrowych platformy muszą działać niezwłocznie po otrzymaniu zawiadomień zawierających wystarczające szczegóły i muszą informować zarówno zgłaszającego, jak i dostawcę treści o swojej decyzji. Tworzy to uporządkowany proces, który chroni użytkowników przed nielegalnymi treściami, zapewniając jednocześnie twórcom treści przejrzystość i możliwość odwołania.
W kontekście reklamy politycznej na mocy rozporządzenia 2024/900 zawiadomienie i działanie pomaga egzekwować wymogi dotyczące przejrzystości. Użytkownicy mogą zgłaszać reklamy polityczne, którym brakuje odpowiedniego oznakowania, które nie ujawniają sponsorów lub naruszają zasady targetowania, pomagając organom regulacyjnym i platformom w utrzymaniu uczciwych procesów wyborczych.
Kluczowe punkty
- Wzmocnienie pozycji użytkowników: Każda osoba fizyczna lub organizacja może składać zawiadomienia o treściach, które uważa za nielegalne, tworząc demokratyczny mechanizm moderacji treści
- Obowiązki platform: Usługi hostingowe muszą zapewniać łatwo dostępne mechanizmy zgłaszania i rozpatrywać zawiadomienia w sposób terminowy i obiektywny
- Wymogi dotyczące przejrzystości: Platformy muszą wyjaśnić swoje decyzje zarówno osobie, która złożyła zawiadomienie, jak i osobie, która opublikowała treść
- Ochrona prawna: Ważne zawiadomienia mogą wpływać na zwolnienia z odpowiedzialności platformy — platformy, które ignorują wyraźne zawiadomienia o nielegalnych treściach, mogą utracić ochronę prawną
- Zaufani sygnaliści: Niektóre organizacje o udokumentowanej wiedzy specjalistycznej otrzymują priorytetowe traktowanie swoich zawiadomień na mocy Aktu o usługach cyfrowych
- Zabezpieczenia: Proces obejmuje zabezpieczenia przed nadużyciami, takie jak wymagania dotyczące wystarczających szczegółów w zawiadomieniach oraz konsekwencje dla jawnie bezzasadnych zgłoszeń
Zawiadomienie i działanie a moderacja treści
Podczas gdy zawiadomienie i działanie to specyficzny mechanizm uruchamiany przez zgłoszenia użytkowników, moderacja treści to szerszy zestaw działań, które platformy stosują w celu egzekwowania swoich zasad i obowiązków prawnych. Moderacja treści obejmuje środki proaktywne, takie jak automatyczne filtrowanie, zespoły weryfikacji ludzkiej i algorytmiczne systemy wykrywania, które działają niezależnie od zgłoszeń użytkowników.
Zawiadomienie i działanie ma charakter reaktywny — zależy od tego, czy ktoś zidentyfikuje i zgłosi problematyczną treść. Moderacja treści może być zarówno reaktywna, jak i proaktywna. Platforma może usunąć treść poprzez zawiadomienie i działanie po otrzymaniu skargi lub poprzez proaktywną moderację, zanim ktokolwiek ją zgłosi.
Zgodnie z prawem UE zawiadomienie i działanie jest obowiązkowe dla wszystkich usług hostingowych, podczas gdy dodatkowe proaktywne środki moderacyjne są wymagane głównie dla bardzo dużych platform internetowych (VLOP), które stwarzają ryzyko systemowe.