Come combattere in maniera adeguata fenomeni come il revenge porn, la disinformazione, i discorsi di odio o la vendita di prodotti pericolosi in rete? Come tutelare i minori dalle maglie degli algoritmi specializzate in pubblicità mirate? Come eliminare pratiche abusive ed anti concorrenziali, sempre più diffuse online? Sono questi alcuni dei temi affrontati nel pacchetto normativo in discussione oggi a Bruxelles, dove i paesi della Ue sono vicini ad un compromesso politico per l’approvazione di due nuovi pacchetti (Digital Service Act e Digital Market Act) per rendere più sicura la rete responsabilizzando le grandi piattaforme del web.
Leggi anche: Digital Services Act, accordo sulle nuove regole Ue possibile entro giugno
La bozza normativa fa parte appunto di questi due nuovi disegni di legge presentati a dicembre 2020 dalla commissaria alla Concorrenza Margrethe Vestager e dal commissario al Mercato Thierry Breton.
Il primo provvedimento, il regolamento sui mercati digitali o Digital Markets Act (DMA) destinato a vietare le tante pratiche anticoncorrenziali che si vedono in rete, è stato già concluso e approvato a fine marzo.
“Ci siamo preparati per questo” accordo, “c’è una forte volontà politica” di raggiungerlo, ha detto la vicepresidente della Commissione europea, Margrethe Vestager, intervenendo al vertice AI e Tech della testata europea Politico, precisando che i co-legislatori arriveranno al round negoziale domani ancora con “alcune questioni aperte”.
Arrived and ready for the negotiation on the #DSA today! We may take a big step today for a safe and accountable online environment: What is illegal offline, should also be seen and treated as illegal online! #bridgebuilding pic.twitter.com/hYBejsuYb1
— Margrethe Vestager (@vestager) April 22, 2022
DSA al rush finale
Il secondo, Digital Services Act (DSA), aggiorna la direttiva eCommerce, nata 20 anni fa, quando le grandi piattaforme come Amazon o Facebook ancora non c’erano. Obiettivo: mettere fine a zone di non diritto e agli abusi in rete. “Ciò che è illegale offline deve essere illegale anche online”, ha detto Thierry Breton.
Quella legge antitrust (il DMA) potrebbe essere integrata domani con la DSA, se, come previsto dalle istituzioni dell’UE, l’ultimo incontro a tre programmato a tal fine si chiuderà con successo.
La nuova normativa prevede la possibilità che le piattaforme debbano rimuovere rapidamente i contenuti illegali quando lo rilevano, ma forniscono anche alle autorità l’accesso agli algoritmi che utilizzano per determinare ciò che ogni utente vede, in base al suo profilo.
Today might be D-Day for the Digital Services Act!
— Thierry Breton (@ThierryBreton) April 22, 2022
Together with the European Parliament & Council, the Commission has worked in record time to protect 🇪🇺 citizens online.
Here are the 10 things you need to know about the #DSA ahead of our (hopefully) final trilogue.
🧵⤵️ pic.twitter.com/emiTEbgIsJ
I segreti commerciali sono impugnabili?
Resta da vedere se le aziende potranno invocare segreti commerciali per non fornire determinate informazioni e anche se le PMI saranno escluse da determinati obblighi.
Una questione specifica che dovrebbe essere inclusa in questa legge (si è già tentato di includerla nella direttiva quadro sulle acque) è il veto sulla pubblicità personalizzata rivolta ai minori.
Una delle principali questioni in sospeso per i negoziatori dell’Ue è come verrà applicata la legge, se l’ultima parola sulla conformità delle aziende tecnologiche sarà lasciata alle autorità di regolamentazione di ciascuno Stato membro o alla Commissione europea.
Stoppare l’Irlanda
La posizione del Consiglio è che la Commissione Europea dovrebbe essere responsabile, per impedire all’Irlanda, che ospita la sede di queste società, di ritardare le indagini.
Il Community Executive ritiene che non sia suo compito ordinare alle piattaforme di rimuovere i contenuti, ma chiedere loro trasparenza.
Di fronte a contenuti presumibilmente illegali, le piattaforme devono attuare misure di mitigazione ed effettuare un audit interno per valutare se i rischi sono stati adeguatamente valutati e se altri rischi sono stati identificati e mitigati.
Se tale audit è insufficiente, la Commissione può intervenire e adottare misure regolamentari, poiché la mancata correzione della situazione violerebbe l’DSA e potrebbero essere imposte azioni esecutive.
Consumatori chiedono di non annacquare la normativa
Da parte sua, l’associazione europea dei consumatori, BEUC, ha chiesto oggi in una dichiarazione ai legislatori europei di essere “solidi” per non “annacquare” la nuova norma.
In particolare, hanno esortato a vietare l’uso di “dark patterns”, che portano gli utenti a fare click involontariamente sui contenuti sul web – trucchi progettati per ingannare e manipolare i consumatori affinché prendano decisioni probabilmente contrarie ai loro interessi – a tutti i fornitori di servizi digitali e non solo alle piattaforme, data la diffusione di tali pratiche.
Includere anche l’obbligo per i mercati online di verificare chi sono i commercianti che utilizzano la loro piattaforma ed eseguire controlli casuali sui beni e servizi disponibili su di essa, in quanto attualmente “afflitti da prodotti non sicuri e illegali”.
Infine, sottolinea la necessità di vietare l’utilizzo dei dati dei minori e dei dati sensibili per la pubblicità online personalizzata da parte di tutti i fornitori di servizi digitali, non solo delle grandi piattaforme.
eCommerce, l’identità dei fornitori andrà controllata
Il nuovo regolamento obbligherà le reti sociali a sospendere gli utenti che pubblicano spesso contenuti illegali, in base alle leggi nazionali ed europee.
Inoltre, obbligherà i siti di vendita online a controllare l’identità dei loro fornitori prima di proporre i loro prodotti.
Al cuore del progetto, dei nuovi obblighi imposti alle piattaforme molto grandi con più di 45 milioni di utilizzatori, vale a dire circa una ventina d’imprese di cui la lista resta ancora da definire, ma che includerà certamente i Gafam (Google, Apple, Facebook, Amazon, Microsoft), così come Twitter, e probabilmente TikTok, Zalando o Booking.
Responsabilizzare le Big Tech
Questi soggetti dovranno essi stessi in prima persona valutare i rischi legati ai servizi che offrono e mettere in atto gli strumenti appropriati per ritirare contenuti illegali. Di certo nei loro confronti sarà esercitato un controllo molto più serrato sulla trasparenza dei loro dati e dei loro algoritmi di raccomandazione.
Una volta all’anno saranno chiamati a testimoniare da parte di organismi indipendenti e messi sotto scrutinio dalla Commissione Europea. Che potrà infliggere delle sanzioni fino al 55 del loro fatturato globale giornaliero e fino al 6% del loro giro d’affari annuo.