Notifica e azione
La notifica e azione è un meccanismo che consente agli utenti di segnalare alle piattaforme online e ad altri fornitori di servizi di hosting contenuti illegali o dannosi. Quando una piattaforma riceve una notifica valida relativa a contenuti problematici, deve esaminare la segnalazione e adottare misure appropriate, come rimuovere o disabilitare l'accesso ai contenuti se questi violano le leggi o le politiche della piattaforma.
Base giuridica
"I prestatori di servizi di hosting mettono in atto meccanismi che consentano a qualsiasi persona fisica o giuridica di notificare loro la presenza sul loro servizio di specifici elementi di informazione che la persona fisica o giuridica ritiene costituiscano contenuti illegali. Tali meccanismi sono facilmente accessibili e di uso intuitivo e consentono la presentazione di notifiche esclusivamente con mezzi elettronici."
— Articolo 16, paragrafo 1, Regolamento (UE) 2022/2065 (Legge sui servizi digitali)
Perché è importante
I meccanismi di notifica e azione sono essenziali per mantenere la responsabilità sulle piattaforme digitali, bilanciando al contempo la libertà di espressione con il rispetto della normativa. Per gli utenti, ciò significa disporre di un modo chiaro e accessibile per segnalare contenuti che ritengono violino le leggi, dall'incitamento all'odio e dalla diffamazione alla violazione del diritto d'autore o ai contenuti terroristici.
Per le piattaforme, la notifica e azione crea obblighi giuridici di trattare le segnalazioni in modo tempestivo ed equo. Ai sensi della Legge sui servizi digitali, le piattaforme devono agire con sollecitudine quando ricevono notifiche contenenti sufficienti dettagli e devono informare sia il segnalante sia il fornitore del contenuto in merito alla loro decisione. Ciò crea un processo strutturato che protegge gli utenti da contenuti illegali, garantendo al contempo trasparenza e possibilità di ricorso ai creatori di contenuti.
Nel contesto della pubblicità politica ai sensi del Regolamento 2024/900, la notifica e azione contribuisce a far rispettare i requisiti di trasparenza. Gli utenti possono segnalare annunci politici privi di un'etichettatura adeguata, che non divulgano gli sponsor o che violano le norme sul targeting, aiutando le autorità di regolamentazione e le piattaforme a mantenere processi elettorali equi.
Punti chiave
- Empowerment degli utenti: qualsiasi persona fisica o organizzazione può presentare notifiche relative a contenuti che ritiene illegali, creando un meccanismo democratico per la moderazione dei contenuti
- Obblighi delle piattaforme: i servizi di hosting devono fornire meccanismi di segnalazione facilmente accessibili e trattare le notifiche in modo tempestivo e obiettivo
- Requisiti di trasparenza: le piattaforme devono spiegare le loro decisioni sia alla persona che ha presentato la notifica sia alla persona che ha pubblicato il contenuto
- Tutela giuridica: le notifiche valide possono incidere sulle esenzioni di responsabilità di una piattaforma: le piattaforme che ignorano notifiche chiare relative a contenuti illegali possono perdere le tutele giuridiche
- Segnalatori attendibili: alcune organizzazioni con comprovata competenza ricevono un trattamento prioritario per le loro notifiche ai sensi della Legge sui servizi digitali
- Garanzie: il processo prevede tutele contro gli abusi, quali requisiti relativi a dettagli sufficienti nelle notifiche e conseguenze per le segnalazioni manifestamente infondate
Notifica e azione vs. Moderazione dei contenuti
Mentre la notifica e azione è un meccanismo specifico attivato da segnalazioni degli utenti, la moderazione dei contenuti è l'insieme più ampio di attività che le piattaforme utilizzano per far rispettare le proprie regole e gli obblighi giuridici. La moderazione dei contenuti include misure proattive come il filtraggio automatizzato, i team di revisione umana e i sistemi di rilevamento algoritmico che operano indipendentemente dalle segnalazioni degli utenti.
La notifica e azione è reattiva: dipende dall'identificazione e segnalazione di contenuti problematici da parte di qualcuno. La moderazione dei contenuti può essere sia reattiva sia proattiva. Una piattaforma può rimuovere contenuti tramite notifica e azione dopo aver ricevuto un reclamo, oppure tramite moderazione proattiva prima che qualcuno li segnali.
Ai sensi del diritto dell'UE, la notifica e azione è obbligatoria per tutti i servizi di hosting, mentre misure aggiuntive di moderazione proattiva sono richieste principalmente alle piattaforme online di dimensioni molto grandi (VLOP) che presentano rischi sistemici.