Digital Services Act (DSA) è il nuovo regolamento sui servizi digitali proposto e approvato dall’Unione Europea con lo scopo di regolamentare i servizi digitali all’interno del mercato unico. Fa parte di una strategia più ampia messa in campo dall’UE per modernizzare il quadro normativo esistente relativo ai servizi digitali e regolamentarne il corretto funzionamento, affrontando le nuove sfide poste dalla crescente importanza delle piattaforme online e dei servizi digitali.
A chi si rivolge il DSA?
Il nuovo regolamento UE, che a differenza della precedente direttiva, si applicherà allo stesso modo in tutta l’Unione Europea, permettendo agli utenti di avere gli stessi diritti ovunque e alle aziende di non doversi confrontare con 27 leggi diverse tra loro, si applica a tutti gli intermediari online, siano essi social network, motori di ricerca, marketplace, servizi di hosting ma copre anche le piattaforme, anche quelle che fungono da intermediari tra aziende e consumatori. A differenza del passato, non saranno però trattati allo stesso modo e, difatti mentre alcune disposizioni si applicano a tutte le piattaforme digitali, altre, molto più stringenti, sono specificamente indirizzate alle cosiddette “gatekeeper”, ovvero le grandi piattaforme che detengono un potere di mercato significativo: VLOP (very large online platforms) e le VLOSE (very large online search engines), ovvero quelle piattaforme e motori di ricerca che superano i 45 milioni di utenti mensili attivi in Europa, il 10% della popolazione dell’Unione, questo il criterio quantitativo scelto per indirizzare le piattaforme che hanno un maggior impatto sui cittadini europei.
Quali sono gli obiettivi del DSA?
Partendo dal principio: “ciò che è illegale offline dovrebbe essere illegale anche online”, il DSA ha come obiettivi principali:
- Garantire un Internet più sicuro e aperto per gli utenti;
- Stabilire regole chiare e trasparenti per la moderazione dei contenuti contrastando la diffusione di contenuti illegali e la disinformazione;
- Fornire un meccanismo efficace per la rimozione di contenuti illegali;
- Potenziare tracciabilità e controlli degli operatori commerciali online;
- Armonizzare le normative tra gli Stati membri dell’UE per facilitare il commercio transfrontaliero.
Quali sono gli obblighi per le piattaforme?
Le piattaforme digitali avranno vari obblighi da assolvere entro 4 mesi dall’assegnazione proporzionati al tipo di servizio offerto e al numero di fruitori, tra cui:
- Rimozione rapida di contenuti illegali;
- Trasparenza sugli algoritmi utilizzati per la classificazione e la distribuzione dei contenuti;
- Fornire un “diritto di spiegazione” per le decisioni algoritmiche che influenzano gli utenti;
- Implementazione di meccanismi di segnalazione e risoluzione delle controversie;
- Adozione di misure specifiche per combattere la disinformazione.
Inoltre le cosiddette “gatekeeper”, presentando rischi più elevati, dovranno attenersi ad obblighi più rigorosi. Nel dettaglio:
- Fornitura di dati fondamentali e algoritmi alle entità autorizzate, quali autorità competenti e ricercatori, per monitorare i rischi emergenti nel mondo digitale;
- Cooperazione in interventi per situazioni di emergenza;
- Mitigazione dei rischi a livello sistemico, come la propagazione di contenuti illeciti o che impattano negativamente su diritti umani fondamentali, elezioni, violenza basata sul genere e benessere psicologico;
- Impegno a sottostare a verifiche indipendenti, inclusa la revisione dei dati finanziari e delle procedure implementate;
- Consentire agli utenti di disattivare i “suggerimenti” che si basano sulla profilazione individuale.
Focus Algoritmi di I.A. e Digital Service Act
Uno degli aspetti più rilevanti del Digital Services Act (DSA) riguarda il livello di trasparenza degli algoritmi utilizzati dalle piattaforme digitali. Difatti queste ultime dovranno fornire dettagli su come funzionano i loro algoritmi, in particolare quando si tratta di un algoritmo di classificazione e/o raccomandazione di contenuti esplicitando come le informazioni vengono filtrate e presentate online all’utente finale.
Diritto di Spiegazione
Uno degli elementi chiave è il “diritto di spiegazione”, che permette agli utenti di richiedere spiegazioni sulle decisioni algoritmiche che li riguardano. Questo è particolarmente rilevante quando si utilizzano algoritmi di intelligenza artificiale (IA) per personalizzare i contenuti, le pubblicità o i servizi. Gli utenti avranno cosi il diritto di sapere come le decisioni sono prese e su quali dati sono basate usufruendo di una trasparenza massima dei sistemi di suggerimento e delle pubblicità online a loro rivolte.
Responsabilità e Accountability
È posta un’enfasi crescente anche sulle responsabilità delle piattaforme digitali, soprattutto quando utilizzano algoritmi di IA per moderare i contenuti o per prendere decisioni che hanno un impatto diretto sugli utenti. Queste ultime infatti potrebbero essere tenute a condurre valutazioni d’impatto e audit esterniper assicurare che i loro algoritmi siano equi, trasparenti e non discriminatori.
La non conformità con le norme del DSA potrebbe portare a severe sanzioni, specialmente per quelle che agiscono come “gatekeeper”. L’obiettivo è quello di generare un impatto significativo sullo sviluppo e l’implementazione di algoritmi di IA, spingendo le aziende ad adottare approcci più etici e trasparenti. Inoltre il DSA potrebbe anche avere in futuro un effetto cascata su altri servizi che utilizzano l’intelligenza artificiale ma che non sono classificati come piattaforme digitali. Difatti, anche se il focus primario è sulle piattaforme, l’attenzione crescente sulla regolamentazione dell’IA potrebbe portare in un secondo momento a normative più ampie che riguardano vari tipi di applicazioni di intelligenza artificiale.
Il fine ultimo è quello di introdurre una serie di requisiti che puntano a rendere l’utilizzo dell’Intelligenza Artificiale più trasparente, equo e responsabile, influenzando così sia le aziende che gli utenti finali.
Da un punto di vista pratico, piena libertà è stata lasciata dalla Commissione Europea alle aziende interessate di sviluppare una soluzione che sia adatta e customizzata alle proprie esigenze purché si assicuri trasparenza e si forniscano nuovi strumenti per governare situazioni complesse ad oggi non gestite.
In conclusione, da sottolineare come questo tentativo di regolamentare i contenuti online sia già stato messo in atto circa due anni fa in Cina adottando un regolamento per la trasparenza degli algoritmi utilizzati mentre negli Stati Uniti si sta pensando ad una modifica dell’attuale regolamento “Sezione 230 del Communications Decency Act (CDA) del 1996” che offre attualmente alle piattaforme online una sorta di “immunità” dalla responsabilità legale per i contenuti generati dagli utenti. (La Sezione 230 è stata spesso descritta come la legge che “ha creato Internet” perché ha permesso alle piattaforme online di crescere e prosperare senza il timore di azioni legali per i contenuti pubblicati dagli utenti).
Comments are closed.