Notificare și acțiune
Notificarea și acțiunea reprezintă un mecanism care permite utilizatorilor să raporteze conținut ilegal sau dăunător către platformele online și alți furnizori de servicii de găzduire. Când o platformă primește o notificare validă privind conținut problematic, aceasta trebuie să examineze raportul și să ia măsurile adecvate, cum ar fi eliminarea sau dezactivarea accesului la conținut dacă acesta încalcă legile sau politicile platformei.
Temei juridic
„Furnizorii de servicii de găzduire pun în aplicare mecanisme care să permită oricărei persoane fizice sau entități să le notifice cu privire la prezența în serviciul lor a unor elemente specifice de informații pe care persoana fizică sau entitatea le consideră conținut ilegal. Aceste mecanisme sunt ușor accesibile și ușor de utilizat și permit transmiterea notificărilor exclusiv prin mijloace electronice."
— Articolul 16 alineatul (1), Regulamentul (UE) 2022/2065 (Legea serviciilor digitale)
De ce contează
Mecanismele de notificare și acțiune sunt esențiale pentru menținerea responsabilității pe platformele digitale, echilibrând în același timp libertatea de exprimare cu conformitatea legală. Pentru utilizatori, aceasta înseamnă a avea o modalitate clară și accesibilă de a semnala conținut despre care consideră că încalcă legile—de la discursul instigator la ură și defăimare până la încălcarea drepturilor de autor sau conținut terorist.
Pentru platforme, notificarea și acțiunea creează obligații legale de a procesa rapoartele prompt și echitabil. Conform Legii serviciilor digitale, platformele trebuie să acționeze cu celeritate atunci când primesc notificări care conțin detalii suficiente și trebuie să informeze atât persoana care a raportat, cât și furnizorul de conținut cu privire la decizia lor. Acest lucru creează un proces structurat care protejează utilizatorii de conținut ilegal, asigurând în același timp transparență și recurs pentru creatorii de conținut.
În contextul publicității politice conform Regulamentului 2024/900, notificarea și acțiunea ajută la aplicarea cerințelor de transparență. Utilizatorii pot raporta reclame politice care nu au etichetare corespunzătoare, nu divulgă sponsorii sau încalcă regulile de direcționare, ajutând autoritățile de reglementare și platformele să mențină procese electorale echitabile.
Puncte cheie
- Împuternicirea utilizatorilor: Orice persoană fizică sau organizație poate trimite notificări privind conținutul pe care îl consideră ilegal, creând un mecanism democratic pentru moderarea conținutului
- Obligațiile platformelor: Serviciile de găzduire trebuie să furnizeze mecanisme de raportare ușor accesibile și să proceseze notificările într-o manieră opportună și obiectivă
- Cerințe de transparență: Platformele trebuie să explice deciziile lor atât persoanei care a trimis notificarea, cât și persoanei care a postat conținutul
- Protecție juridică: Notificările valide pot afecta scutirile de răspundere ale unei platforme—platformele care ignoră notificări clare despre conținut ilegal pot pierde protecțiile juridice
- Semnalatori de încredere: Anumite organizații cu expertiză dovedită primesc tratament prioritar pentru notificările lor conform Legii serviciilor digitale
- Garanții: Procesul include protecții împotriva abuzurilor, cum ar fi cerințe pentru detalii suficiente în notificări și consecințe pentru rapoarte în mod manifest nefondate
Notificare și acțiune vs. Moderarea conținutului
Deși notificarea și acțiunea este un mecanism specific declanșat de rapoartele utilizatorilor, moderarea conținutului este ansamblul mai larg de activități pe care platformele le folosesc pentru a-și aplica regulile și obligațiile legale. Moderarea conținutului include măsuri proactive precum filtrarea automată, echipe de evaluare umană și sisteme de detecție algoritmică care funcționează independent de rapoartele utilizatorilor.
Notificarea și acțiunea este reactivă—depinde de identificarea și raportarea conținutului problematic de către cineva. Moderarea conținutului poate fi atât reactivă, cât și proactivă. O platformă ar putea elimina conținut prin notificare și acțiune după primirea unei plângeri sau prin moderare proactivă înainte ca cineva să îl raporteze.
Conform legislației UE, notificarea și acțiunea este obligatorie pentru toate serviciile de găzduire, în timp ce măsuri suplimentare de moderare proactivă sunt cerute în principal pentru platformele online foarte mari (VLOP) care prezintă riscuri sistemice.