Privacy, intelligenza artificiale, raccolta e sicurezza dei dati nell’era cookieless sono, come sappiamo, temi caldi sui tavoli di manager, player del mondo adtech e martech, istituzioni, ormai già da molto tempo.
Il 2023, in particolare, è stato un anno ricco di novità in materia normativa per tutto ciò che concerne la tutela e la protezione dei dati personali. Molto di quello che si è scritto e normato avrà ricadute già nel 2024.
Ripercorriamo insieme le principali novità normative introdotte.
- AI ACT: l’Europa apripista sulla legislazione in materia di Intelligenza Artificiale
- Digital Service Act (DSA): al via l’adeguamento completo
AI ACT: l’Europa apripista sulla legislazione in materia di Intelligenza Artificiale
13 Marzo 2024, una data da scolpire. Con 523 voti favorevoli, 46 contrari e 49 astenuti, il Parlamento Europeo approva l’AI ACT e dota i paesi europei della prima legislazione al mondo in materia di intelligenza artificiale.
Da molti definita come la legge che assicura che i diritti e le libertà degli individui siano al centro degli sviluppi dell’Intelligenza Artificiale, garantendo un giusto bilanciamento tra innovazione e protezione, l’AI ACT adotta un approccio risk-based: maggiore è il rischio imputato ad un sistema di intelligenza artificiale, maggiori saranno le responsabilità di coloro che utilizzano e/o sviluppano tale sistema.
Si passa dal riconoscimento di rischio elevato per tutti gli utilizzi di IA che possono potenzialmente compromettere sicurezza e diritti fondamentali, a quelli a rischio limitato.
In questo contesto vengono anche definiti a rischio inaccettabile tutti gli utilizzi che comportano la manipolazione comportamentale cognitiva di persone o gruppi vulnerabili, la classificazione sociale ed infine l’identificazione biometrica in tempo reale e a distanza.
L’obiettivo prioritario del Parlamento Europeo è quello di assicurarsi che i sistemi di IA utilizzati negli stati membri siano trasparenti, sicuri, tracciabili, non discriminatori, rispettosi dell’ambiente ed, infine, supervisionati da persone per prevenire conseguenze dannose.
Misure di governance, anche a sostegno dell’innovazione, ed un sistema di sanzioni basato sul fatturato completano il quadro di una regolamentazione destinata a diventare l’esempio anche per molti altri paesi.
Digital Service Act (DSA): al via l’adeguamento completo
Aprire la scatola magica degli algoritmi e andare oltre per avere maggiore trasparenza sulla profilazione e sul funzionamento delle piattaforme: il Digital Service Act, approvato dal Parlamento Europeo nel luglio 2022, è definitivamente entrato in vigore lo scorso 17 febbraio, riguardando non solo i player dominanti del mercato (leggi , Meta, Google, TikTok, YouTube, Bing, Pinterest, solo per citarne alcuni), ma anche tutte le realtà più piccole con meno di 45 milioni di utenti attivi al mese ed, in generale, tutti i soggetti intermediari in rete come fornitori di cloud e hosting, motori di ricerca, ecommerce e servizi online.
Responsabilizzazione e protezione degli utenti online attraverso la mitigazione dei “rischi sistemici” e l’applicazione di “solidi strumenti di moderazione dei contenuti: l’impianto normativo del Digital Service Act ruota ancora una volta, attorno ai concetti di trasparenza, informazione e, soprattutto, responsabilità.
Il Digital Service Act nasce con l’obiettivo primario di permettere una migliore moderazione dei contenuti sulle piattaforme, in modo particolare social media.
Oltre a questo, però, la normativa introduce un’ampia serie di nuovi obblighi sulle piattaforme, compresi alcuni che mirano a rivelare alle autorità di regolamentazione come funzionano i loro algoritmi.
Il DSA introduce, infatti, alcune limitazioni come, ad esempio, l’obbligo di trasparenza in merito ai dati raccolti, quello di informare l’utente in merito alla moderazione dei contenuti, senza dimenticare quello di fornire l’opzione di non ricevere suggerimenti in base alla profilazione, solo per citarne alcuni.
Tali obblighi rientrano in un quadro più complesso di obiettivi che spaziano dalla protezione dei diritti dei consumatori, al controllo sulla diffusione di contenuti illegali, fino a quelli legati alla possibilità di offrire al consumatore una scelta più ampia di servizi digitali e di istituire un quadro normativo chiaro nell’ambito della trasparenza e della responsabilità delle piattaforme online.
Tutto ciò si traduce per gli utenti utilizzatori delle piattaforme nella possibilità di ricevere informazioni chiare sui dati raccolti, nonché sul diritto di rinunciare a contenuti e modalità di personalizzazione degli stessi basati sulla profilazione.
Altro aspetto da non sottovalutare è anche quello legato agli annunci pubblicitari che non potranno più essere basati su dati sensibili.
Informazioni sugli annunci e sulle aziende promotrici fanno poi da corredo e alle piattaforme che erogano contenuti pubblicitari alle quali viene richiesta la possibilità di elaborare segnalazioni dei contenuti illegali mediante apposito meccanismo.
Norme e regolamentazioni, ma non solo: si rende noto che sempre dal 17 febbraio scorso è infatti definitivamente attiva un’architettura di vigilanza paneuropea che pur facendo capo alla Commissione, unica autorità competente per la vigilanza sulle piattaforme e sui motori di ricerca, di fatto lavorerà in stretta collaborazione con le autorità nazionali.
Il mondo tech legato si sta evolvendo rapidamente, istituzioni e organismi di controllo stanno cercando di tenere il passo, ma trovare un equilibrio è spesso complesso di fronte a normative stratificate e complesse.
L’obiettivo sempre più cruciale rimane quello relativo alla protezione dei dati personali e la sfida si gioca sempre più sulla sottile linea che separa data protection ed innovazione nel segno della personalizzazione.