Solo dieci anni fa, il film Her di Spike Jonze – vincitore del premio Oscar come migliore sceneggiatura – ci poneva di fronte al dilemma dello sviluppo dell’intelligenza artificiale: cosa succederà quando sarà diventata simil-umana, anzi troppo umana, così da essere quasi indistinguibile da quella che artificiale non è, ovvero la nostra? La distopia della pellicola hollywoodiana è divenuta in breve una realtà a portata di smartphone, come ha dimostrato l’arrivo di ChatGPT, che genera testi sulla base delle domande dell’utilizzatore. Non è solo la cosiddetta intelligenza artificiale generativa (chatGpT appunto) a far paura e a creare dibattito. L’intelligenza artificiale nel suo complesso ha sviluppato in tempi brevissimi dispositivi per il riconoscimento facciale, biometrico con implicazioni sotto il profilo del controllo e della sorveglianza delle persone.
È opportuno porre un argine a questo pervasivo e sofisticato Grande Fratello? E come si fa a stabilire un criterio regolatore, decidendo dove è giusto intervenire e dove no nel libero e caotico sviluppo della tecnologia?
Guarda il trailer di “Her”
L’intelligenza artificiale nel Parlamento europeo
È quanto si sono chiesti i parlamentari europei che la settimana scorsa hanno dato il via libera (499 sì, 28 no, 93 astensioni) ad un pacchetto legislativo volto a regolare l’uso dell’intelligenza artificiale.
«È la prima legislazione al mondo, che stabilirà standard globali per gli anni a venire. Gestiremo i rischi dell’IA sulla base della privacy e il rispetto dei diritti fondamentali Ue» come la democrazia e lo Stato di Diritto.
Così ha dichiarato la presidente del Parlamento Roberta Metsola durante la conferenza stampa tenutasi a Strasburgo a margine del voto. La presidente ha ringraziato per il “grande lavoro” i relatori lì presenti, l’eurodeputato italiano Brando Benifei (Pd/Socialisti e democratici) e il romeno Dragos Tudorache (Renew Europe) che hanno emendato il testo originario della Commissione, apportando le modifiche approvato dall’Eurocamera. La Commissione Ue aveva da tempo formulato una proposta legislativa articolata in base ai livelli di rischio, dall’inaccettabile, all’alto al limitato. Nessun dubbio per il divieto di punteggio personale, che classifica i cittadini in base al comportamento sociale come già accade in Cina. Gli eurodeputati hanno integrato la proposta originaria includendo nel divieto una serie di pratiche che non rispettano i diritti fondamentali dei cittadini. Tra queste, i sistemi di categorizzazione biometrica basati su caratteristiche sensibili – genere, etnia, cittadinanza, religione, orientamento politico -, o quelli che possono essere usati dalla polizia grazie a informazioni come i comportamenti criminali passati. Sul lato dell’intelligenza artificiale generativa, la legge prevede la necessità di trasparenza verso gli utenti: bisognerà chiarire se si tratta di un testo generato da IA, o un’immagine deepfake, e fornire i riferimenti ai dati coperti da copyright utilizzati.
Sicurezza o repressione?
Bocciato dall’Aula l’emendamento di tipo ‘securitario’ avanzato dal Partito Popolare e votato da tutta la destra che proponeva la possibilità di riconoscimento biometrico in tempo reale in base a dati rilevati in luoghi pubblici. Sul fronte opposto, la Sinistra europea (Gue) lamenta una definizione troppo poco rigorosa di software ad ‘alto rischio’, che lascia margine nell’uso di software con finalità repressive da parte delle forze dell’ordine. Ad esempio nel controllo delle frontiere esterne Ue. Ora l’iter prevede che il testo licenziato dal Parlamento venga negoziato con i rappresentanti del governo e con la Commissione, pratica che nel gergo Ue viene definita “trilogo”. È probabile che il testo definitivo del regolamento – applicabile in tutti i Paesi Ue senza richiedere ulteriori passaggi – venga licenziato entro la fine dell’anno. Ma per la sua entrata in vigore, i tempi sono molto più lunghi, anche per permettere alle aziende di adeguarsi e agli Stati di costituire le singole autorità nazionali di controllo, che in caso di infrazione prevedono multe anche salate. «Di sicuro, la legge non entrerà in vigore prima delle prossime elezioni europee (fissate il 9 giugno 2024 ndr)» ha specificato Tudorache.
Il futuro tra velocità, controllo e discriminazione
Nel dare alla luce per la prima volta a livello mondiale una legge sull’IA, l’Unione Europea si propone di fare due cose: da un lato regolare sulla base dei propri principi, dall’altro non strozzare l’evoluzione tecnologica – e di conseguenza anche un settore industriale e commerciale in grande espansione. L’equilibrio da trovare è difficile, ma è necessario. Non solo per la paura diffusa che l’IA possa portare all’estinzione dell’umanità. A questo allarme, rilanciato anche da esperti del settore scientifico e tecnologico, ha risposto la commissaria Ue alla concorrenza Margrethe Vestager, affermando che il vero rischio è quello della discriminazione. «Pensiamo ad una banca che deve decidere se posso ottenere o meno il mutuo, o alle decisioni che devono prendere i servizi sociali del tuo comune» ha affermato in un’intervista alla Bbc.
«L’IA può amplificare pregiudizi e discriminazioni» attingendo ai dati presenti nella rete.
In secondo luogo, l’anarchia non può certo aiutare un settore tecnologico a crescere bene. Come ha ricordato un altro commissario, quello al Mercato Interno Thierry Breton nel corso di un’intervista a Politico.eu, anche le automobili alla loro comparsa non avevano regole, ma nessuno (o quasi) oggi penserebbe che i limiti di velocità che salvano vite umane siano un deterrente all’industria automobilistica. Il futuro immaginato da Her è diventato realtà nel giro di pochi anni. Se riusciamo a non estinguerci nei prossimi per via di ChatGPT, il vero problema con cui le regole Ue devono fare i conti è che la tecnologia va più veloce di quanto si immagina.
https://www.instagram.com/reel/CtrbHGvrAlY/?utm_source=ig_web_copy_link&igshid=MzRlODBiNWFlZA==