Rispetto al passato, con l’implementazione dei nuovi sistemi di intelligenza artificiale, la realtà che viene percepita è sempre più diversa. Il capitale umano è sempre più a contatto con sistemi intelligenti che necessitano di accurata legislazione, al fine di garantire il rispetto e la protezione della salute, della sicurezza e dei diritti fondamentali sanciti dalla Carta dei diritti fondamentali dell’Unione europea. Su queste basi si dà il via al Regolamento UE 13 giugno 2024, n. 2024/1689, meglio conosciuto come “AI ACT”, il quale, entrerà in vigore a partire dal prossimo 1° agosto.
Insieme alla nascita di diversi organi di controllo, entro due anni diventeranno obbligatorie una serie di norme e regole molto stringenti sulle possibili applicazioni e derive dell’Intelligenza Artificiale (si veda “
UE, via libera alla prima legge al mondo sull’Intelligenza Artificiale” del 27 maggio 2024).
Le nuove regole, parte integrante della strategia digitale dell’UE, rappresentano una serie di obblighi imposti a fornitori e sviluppatori di sistemi IA basati su diversi livelli di rischio che diventeranno obbligatori entro due anni dall’entrata in vigore, con esclusione dei divieti che, al contrario, entro sei mesi per i controlli sulle finalità, entro un anno per la Governance ed entro 36 mesi per i sistemi considerati ad alto impatto.
I sistemi di IA ad alto rischio – si sottolinea nel regolamento – sono progettati e sviluppati, anche con strumenti di interfaccia uomo-macchina adeguati, in modo tale da poter essere efficacemente supervisionati da persone fisiche durante il periodo in cui sono in uso.
Dal punto di vista normativo, si segue un approccio che si basa sul rischio: più alto è l’impatto che si può avere sulla società, più le regole diventano stringenti. Come prerequisito, infatti, l’IA dovrebbe essere una tecnologia antropocentrica, dovrebbe fungere da strumento per le persone, con il fine ultimo di migliorare il benessere degli esseri umani.
I rischi, si suddividono in: inaccettabile, elevato, limitato, minimo o nullo. La scala viene stabilita partendo da rischio “inaccettabile” ossia tutti quei sistemi che ledono la dignità umana, la democrazia e lo stato di diritto, per poi passare ai sistemi di rischio elevato ossia quelli che possono avere un effetto significativo sui diritti fondamentali e la sicurezza delle persone (per esempio sistemi di reclutamento del personale, ammissione all’istruzione, erogazione di servizi sanitari e assistenziali). Si aggiungono i sistemi a rischio limitato che possono influenzare i diritti o le decisioni degli utenti per poi finire con quelli a rischio minimo o nullo che non hanno alcun impatto sui diritti fondamentali o sulla sicurezza (sistemi per scopi ludici o estetici).
L’implementazione di nuovi sistemi di intelligenza artificiale comporta – senza dubbio – l’obbligo per le aziende di integrare nuovi documenti che delineano nuove strategie. Le nuove regole infatti, interessano fornitori e utilizzatori dei sistemi AI, i quali, dovranno adeguarsi nel migliore dei modi alle nuove regole, monitorando e supervisionando i diversi contesti, dai processi produttivi all’utilizzo degli strumenti da parte del personale.