Se frenare l’avanzare dell’Intelligenza Artificiale è un’idea impossibile – e secondo qualcuno alquanto dannosa, visti i benefici collettivi che potrà portare – regolarla è invece giusto, corretto e perfino lecito, così la pensa la UE.
In un’intervista rilasciata al Corriere della Sera”, Alberto Barachini, sottosegretario alla Presidenza del Consiglio con delega all’editoria commenta la legge appena approvata dal Parlamento UE, con l’obiettivo dichiarato di proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale, promuovendo l'innovazione e assicurando al Vecchio continente un ruolo guida nel settore.
“È un fenomeno che non va frenato ma governato. Non bisogna spaventare le persone, ma formarle e informarle mostrando l’intelligenza artificiale in chiave positiva. Penso al mondo dell’informazione, studiando come possa accompagnare il lavoro giornalistico. Ma è comunque una vera rivoluzione: il voto del Parlamento UE della prima legge sull’IA è molto importante e mostra come la risposta dell’Europa sia efficace e rapida. In Italia, il governo è al lavoro su un DDL che arriverà entro un paio di settimane e probabilmente introdurrà il reato di deep fake contro chi crea un danno con informazioni manipolate. Per quel che mi compete, ho presentato il lavoro della Commissione AI per l’informazione che dal novembre scorso sta lavorando sulle linee d’azione per affrontare questo fenomeno”.
L’Europa quindi, è il primo continente al mondo a dotarsi leggi, norme e regole perché l’IA rispetti i diritti e sia uno strumento utile. Nel dettaglio, il Parlamento di Strasburgo ha scelto di bandire alcune applicazioni dell’IA considerate fra le più rischiose per i cittadini europei, a cominciare dai sistemi di categorizzazione biometrica basati sulle caratteristiche sensibili, estraibili dalle telecamere a circuito chiuso o le immagini postate sui canali social. Al bando anche i sistemi di riconoscimento delle emozioni sul luogo di lavoro e nelle scuole, quelli di credito sociale e la polizia predittiva se basate sulla profilazione, e per finire i sistemi che manipolano il comportamento umano o sfruttano le vulnerabilità umana.
Fanno eccezione le forze dell’ordine, a cui è concesso l’uso dei sistemi di identificazione biometrica solo in situazioni specifiche e di particolare gravità come attacchi terroristici o la ricerca di persone scomparse, ma solo a patto di rispettare regole come l’uso limitato nel tempo e comunque sempre con l’avallo di un’autorizzazione giudiziaria, che a sua volta dovrà essere sempre collegata ad un reato.
Gli obblighi e le limitazioni toccano anche altri sistemi di IA considerata ad alto rischio, che potrebbero arrecare danni a salute, sicurezza, diritti, ambiente, democrazia e Stato di diritto, come nel caso degli usi legati a infrastrutture critiche, istruzione e formazione professionale, occupazione, servizi pubblici e privati di base, sistemi di contrasto, migrazione e gestione delle frontiere, giustizia e processi democratici, come nel caso di sistemi usati da tempo per tentare di influenzare le elezioni. Ai cittadini europei è riconosciuto il diritto di presentare reclami sui sistemi di IA e ricevere spiegazioni sulle decisioni basate su sistemi ad alto rischio che possano incidere sui loro diritti.
Per concludere, i sistemi dovranno soddisfare precisi requisiti di trasparenza e rispettare le norme UE sul diritto d’autore durante le fasi training dei vari modelli, e le immagini e i contenuti audio o video artificiali o manipolati (i “deepfake”) dovranno essere chiaramente etichettati e riconoscibili.
Il regolamento dev’essere sottoposto alla verifica dei giuristi per poi essere adottato definitivamente prima della fine della legislatura: entrerà in vigore 20 giorni dopo la pubblicazione nella Gazzetta ufficiale dell'UE e sarà operativa 24 mesi dopo l'entrata in vigore, salvo per i divieti sulle pratiche vietate, che si applicheranno sei mesi dopo l’entrata in vigore, i codici di buone pratiche, previsti nove mesi dopo e le norme sui sistemi di IA per finalità generali, mentre saranno 36 i mesi gli obblighi per i sistemi ad alto rischio.
© FISCAL FOCUS Informati S.r.l. – Riproduzione Riservata