Il trilogo è durato complessivamente 36 ore e si è esteso su tre giorni. Ma alla fine, poco prima della mezzanotte di venerdì, i negoziati tra Parlamento e Consiglio mediati dalla Commissione si sono sbloccati e l’accordo è stato raggiunto. L’Ue si è dotata della prima legge al mondo sull’intelligenza artificiale, proponendosi così come modello di regolazione globale. Un motivo di orgoglio per i relatori dell’Artificial Intelligence (AI) Act, gli eurodeputati Brando Benifei (Pd/S&d) e Dragos Tudorache (Renew Europe), oltre che per il commissario Thierry Breton e ai vertici istituzionali come Metsola e Von der Leyen che l’hanno definito un accordo fondamentale nella definizione dell’agenda digitale europea.
L’intento fondamentale della nuova legge è quello di garantire che i sistemi di intelligenza artificiale che circolano nel mercato europeo rispettino i valori fondamentali Ue.
A questo scopo, i sistemi vanno regolamentati sulla base della capacità di causare danni alla società, secondo un approccio basato sul rischio, con un crescendo di regole al crescere del rischio: dal minimo o nullo al limitato, elevato, fino all’inaccettabile.
Deal!#AIAct pic.twitter.com/UwNoqmEHt5
— Thierry Breton (@ThierryBreton) December 8, 2023
Così lontani, così vicini
In partenza, le posizioni di Parlamento e Consiglio rispetto al testo presentato dalla Commissione erano distanti su due punti chiave: i cosiddetti “modelli fondativi” – ovvero l’intelligenza artificiale generativa come quella per testi (ChatGpt) o immagini – e le regole di sorveglianza biometrica. Nel primo caso, gli europarlamentari chiedevano che tali modelli fossero regolati dalla legge, molti governi invece volevano escluderli. Secondo l’approccio basato sul rischio, la legge definisce i modelli di fondazione “ad alto impatto”, ovvero tali da richiedere l’applicazione di regole stringenti di sicurezza informatica e trasparenza dei processi di auto-addestramento. Questi vincoli che venivano considerati da alcuni governi nazionali come un potenziale freno per lo sviluppo delle aziende europee del settore, come la tedesca Aleph Alpha o la francese Mistral.
Un secondo motivo dello scontro era quello della sicurezza. L’europarlamento si era schierato a maggioranza per vietare – pur con alcune eccezioni in casi di emergenza – l’uso dell’AI per funzioni di polizia, mentre il Consiglio non voleva cedere sull’uso dei dati per identificare persone attraverso il riconoscimento biometrico, come anche sull’utilizzo di funzioni di polizia predittiva. Risolto il negoziato sui modelli fondativi con il via libera alla regolazione (ma con diverse esenzioni, come quelle per favorire l’innovazione attraverso i regulatory sandbox ovvero test liberi da vincoli), lo scoglio incontrato dalla presidenza di turno spagnola è stato soprattutto riguardo al tema della sicurezza. Per superarlo, è stato necessario il secondo round di venerdì, durato dalle 9 di mattina sino quasi a mezzanotte.
Già in partenza la direttiva prevedeva una serie di divieti all’uso dell’IA classificati sotto la categoria del rischio inaccettabile, come ad esempio il punteggio sociale. La trattativa ha dato il via libera ad alcuni punti essenziali per il Parlamento, come il divieto dei software di polizia predittiva e il bando della ricognizione facciale in luoghi di lavoro, ospedali, scuole e università. Vietato poi il riconoscimento biometrico in tempo reale, ma i governi sono riusciti ad inserirlo in caso di prevenzione di un attacco terroristico, di localizzazione di vittime o sospetti e di repressione di una serie predefinita di crimini gravi.
Le reazioni
«Sono orgoglioso di poter dire che i durissimi negoziati dei giorni scorsi hanno permesso di ribaltare l’approccio securitario che avrebbe voluto permettere ai governi e ai privati di usare queste tecnologie per il riconoscimento emotivo nei luoghi di lavoro, per l’identificazione su base etnica e delle opinioni politiche, per la predizione di chi commetterà un crimine», ha commentato il relatore Brando Benifei.
«Rischi distopici che abbiamo bloccato con divieti stringenti e l’uso del riconoscimento biometrico negli spazi pubblici limitato alla ricerca di terroristi e per pochi gravissimi crimini».
Ulteriore elemento di questa articolata legislazione consiste nell’aver imposto trasparenza sul diritto d’autore e la riconoscibilità dei contenuti generati dall’AI, in linea con quanto avevano chiesto alla vigilia del Trilogo diverse associazioni e industrie culturali e creative italiane come i Cento Autori o la Federazione italiana editori giornali (Fieg). Pesanti invece le critiche da parte di Amnesty International, che parla di “precedente globale devastante” nella decisione di non aver messo al bando la sorveglianza pubblica di massa.
«Le tre istituzioni Ue hanno dato luce verde un sistema di sorveglianza digitale distopica nei 27 Paesi membri», accusa l’organizzazione internazionale.
Ora che è diventato legge, le regole dell’AI Act dovranno essere implementate entro due anni, mentre i divieti andranno rispettati in un tempo non più lungo di sei mesi. Che tra l’altro cade esattamente a ridosso del voto per le elezioni europee del prossimo giugno.
?#AIAct: EU’s decision to not ban public mass surveillance sets a devastating global precedent.
The three EU institutions have greenlighted dystopian digital surveillance in the 27 EU Member States.
This is disappointing.https://t.co/pthpyI3wq9
— Amnesty Tech (@AmnestyTech) December 9, 2023