L’occhio dell’UE su contenuti e falsi: 5 cose da sapere sul Digital Services Act
L’accordo politico fra Consiglio UE e Parlamento Europeo è stato raggiunto a stretto giro dopo quello sul provvedimento gemello, il Digital Markets Act. E nei prossimi mesi si passerà all’approvazione formale. Stavolta dal piano della concorrenza e dell’accesso ai mercati si passa a quello dei contenuti e delle garanzie nei confronti degli utenti-consumatori. Il Digital Services Act è infatti una delle due proposte di regolamento con cui, come avevamo visto in un altro servizio dedicato ai nuovi capisaldi della legislazione UE sul web, Bruxelles sta riformando l’ecosistema digitale.
“L’accordo odierno sul Dsa è storico. Le nostre nuove regole proteggeranno gli utenti online, garantiranno libertà di espressione e opportunità per le imprese” ha spiegato la presidente della Commissione Ue, Ursula von der Leyen, in un tweet dello scorso 23 aprile. Concludendo che “ciò che è illegale offline sarà effettivamente illegale online nell’Ue. Un segnale forte per persone, aziende e paesi in tutto il mondo”. DMA e DSA chiuderanno, al più tardi entro il primo gennaio 2024, il perimetro generale inaugurato nel 2018 con l’entrata in vigore del GDPR, il Regolamento generale europeo per la protezione dei dati personali.
Che cos’è e a chi si applica il DSA
Ma che cos’è esattamente il Dsa? Si tratta di un provvedimento che propone una serie di regole intorno alla gestione e moderazione dei contenuti che transitano sulle piattaforme digitali, sul modo in cui questi vengono esposti e pubblicizzati, sugli algoritmi che ne sovrintendono il traffico, sulle garanzie per gli utenti che acquistano, per i bambini e per l’audience pubblicitaria online. Si applica a tutte le imprese operanti all’interno dell’Unione Europea. Limiti più stringenti vengono tuttavia imposti a quelli che il DMA chiama “gatekeeper”, insomma ai colossi che gestiscono piattaforme con più di 45 milioni di utenti attivi nell’Unione. Meta, Apple, Amazon, Google, TikTok e così via. Ma gli obblighi saranno modulati in base alla natura dei servizi proposti e al numero degli utenti coinvolti: norme più o meno severe a seconda della posizione e delle dimensioni dell’operatore a cui si applicano.
Cosa dovranno fare le aziende sui contenuti
Sul fronte dei contenuti, le aziende tecnologiche dovranno prendere di petto il cosiddetto “hate speech” e implementare, nel caso non lo abbiano già fatto, strumenti semplici e immediati per segnalare contenuti illeciti: falsi, violenti, fuori legge, strumentali. Allo stesso modo, altrettanto facili da individuare e utilizzare dovranno essere i meccanismi per appellarsi in modo trasparente e immediato contro le rimozioni decise dalla piattaforma – ciò che Facebook fa, ma solo a campione, col suo “oversight board” dovrà essere sempre a disposizione di tutti. Gli utenti business, che vendono sulle piattaforme come Amazon ed eBay, dovranno essere tracciati e garantiti. Nel complesso, “ogni autorità nazionale sarà in grado di richiedere la rimozione di contenuti illegali, indipendentemente da dove si trovi la sede europea della piattaforma” ha precisato il commissario europeo per il mercato interno Thierry Breton.
Cosa dovranno fare le aziende sugli algoritmi, sulla pubblicità e sui “dark pattern”
Anche in merito al funzionamento dei loro motori di ricerca, dei newsfeed e delle raccomandazioni le società dovranno puntare alla massima trasparenza, di fatto portando il più possibile alla luce del sole i segreti degli algoritmi, “formule magiche” del loro Dna. Sul fronte pubblicitario, e in linea con quanto previsto dal GDPR, dovranno essere in larga misura abbandonate le inserzioni basate su informazioni sensibili come l’etnia, l’orientamento sessuale o le preferenze politiche. Proibite in modo ancor più forte di oggi le pubblicità rivolte ai bambini e i contenuti dannosi. E addio ai cosiddetti “dark pattern”, layout o impostazioni grafiche che rendono molto semplice concludere una procedura ma assai complicato annullarla o tornare sui propri passi, come eliminare un articolo dal cestino di un e-commerce.
Lo scivoloso punto dell’intervento nel caso di eventi critici
I player più grandi dovranno adottare, su indicazione della Commissione Europea, procedure che consentano loro di intervenire rapidamente in caso di eventi critici per la salute o la sicurezza pubblica. Un punto piuttosto scottante e scivoloso, questo, sorto all’indomani dell’invasione russa dell’Ucraina (ma in qualche modo anche durante la pandemia) e che secondo i più critici – fra cui non mancano gruppi di pressione che rappresentano gli stessi colossi che sarebbero chiamati a eseguire quelle indicazioni – finirà per mettere troppo potere nelle mani di un organismo distante molti passaggi da un pieno riconoscimento popolare. Il punto centrale è che non si capisce bene cosa possa o non possa imporre la Commissione alle piattaforme. Questa misura dovrebbe comunque durare al massimo tre mesi, rinnovabili da un consiglio ad hoc composto dai rappresentanti di ogni Stato. Non è neanche ben chiaro se e come le piattaforme potranno essere sanzionate nel caso non intendano dare seguito alle prescrizioni e ai consigli della Commissione.
Chi controlla i colossi?
Contrariamente ad altre misure come il GDPR, non saranno le differenti autorità nazionali competenti a vigilare sull’applicazione ma, come è accaduto finora con le questioni legate alla concorrenza e come accadrà in futuro, se ne occuperà la Commissione con un ufficio dedicato (che includerà all’inizio 230 persone, forse poche rispetto alla mole di lavoro che su di loro si abbatterà). Le sanzioni sono salate: fino al 6% del fatturato – e non degli utili – dell’anno precedente in caso di inadempienze più o meno gravi.