Home / Rassegna LCG / È stato approvato l’AI Act: cosa prevede la prima regolamentazione al mondo sull’intelligenza artificiale

È stato approvato l’AI Act: cosa prevede la prima regolamentazione al mondo sull’intelligenza artificiale

 
L'AI Act, approvato il 13 marzo, stabilisce le regole per l'utilizzo equo e trasparente dell'intelligenza artificiale. Il Regolamento riconosce la centralità dei rischi caratterizzanti ciascuna applicazione, classificando le stesse in relazione all'impatto sulla privacy e i diritti fondamentali e vietando quelle considerate inaccettabili, e del settore sanitario, introducendo specifiche disposizioni al riguardo.

Lo scorso 13 marzo il Parlamento Europeo ha approvato definitivamente, con ampia maggioranza, l’Artificial Intelligence Act (di seguito, “AI Act”). 
Il Regolamento, che sarà pienamente applicabile dopo 24 mesi dalla sua pubblicazione nella Gazzetta Ufficiale dell’UE – ad esclusione di alcune specifiche disposizioni – si applica nella misura in cui i sistemi di AI interessano persone situate nel territorio dell’Unione Europea.
Dunque, il Regolamento interessa i fornitori di sistemi di AI indipendentemente dalla loro ubicazione nell’Unione o in un paese terzo. 
Il Regolamento non si applica, invece, ai sistemi di AI con scopi militari, di difesa o di sicurezza nazionale, né ai sistemi di AI utilizzati esclusivamente per scopi di ricerca e innovazione e alle persone che utilizzano l’AI per scopi non professionali. 

In questo contesto, l’Unione si pone l’obiettivo di garantire che i sistemi di intelligenza artificiale immessi sul mercato siano equi, trasparenti, tracciabili e soggetti ad un adeguato livello di controllo umano. Infatti, nell’ottica di trovare un equilibrio tra i benefici apportati dalle nuove tecnologie e i rischi connessi all’utilizzo delle stesse dal punto di vista della privacy e della tutela dei diritti fondamentali, il Regolamento prevede che le applicazioni dell’AI siano classificate in base a quattro livelli di rischio: minimo, limitato, elevato e inaccettabile. Gli strumenti di AI che comportano un «rischio inaccettabile», quali i sistemi di social scoring e quelli di categorizzazione biometrica, saranno vietati. 

In questo quadro, assume una certa rilevanza il settore sanitario, il quale già da tempo beneficia delle implicazioni di queste nuove tecnologie, che coadiuvano e supportano il lavoro dei medici migliorando le diagnosi e rivoluzionando la ricerca sanitaria in Europa.

Pioniera in questo campo è Agenas, Agenzia nazionale per i servizi sanitari regionali, la quale, con decreto-legge del 27 gennaio 2022 n. 4, ha assunto anche il ruolo di Agenzia nazionale per la sanità digitale (Asd), con l’obiettivo di guidare e assicurare il potenziamento della digitalizzazione dei servizi e dei processi in sanità. 
In particolare, nel corso del 2024, l’Agenzia si occuperà di implementare, in vista di una futura attivazione, la piattaforma nazionale di telemedicina, un importante strumento ampiamente supportato dall’intelligenza artificiale, fondamentale per raggiungere alti livelli nel campo della medicina personalizzata.

A fronte dei rapidi progressi tecnologici e dell’incremento dei dati che possono essere utilizzati per inferire lo stato di salute individuale, l’AI Act contiene specifiche disposizioni volte a tutelare i dati sanitari trattati, tra cui: limitare la raccolta e l’elaborazione dei dati sanitari solamente a quanto strettamente necessario per scopi specifici come diagnosi, cura o ricerca medica nonché prevedere l’onere, per le strutture sanitarie, di adottare misure di sicurezza volte a proteggere i dati sanitari da accessi non autorizzati, perdite o utilizzi impropri.