Pulsantiera di navigazione Home Page
Pagina Facebook Pagina Linkedin Canale Youtube Versione italiana
Notizie
Notizie legali

INFORMATION TECHNOLOGY

Il Parlamento UE adotta il testo definitivo dell'AI Act.

Il regolamento, concordato nei negoziati con gli Stati membri nel dicembre 2023, è stato approvato dai deputati con 523 voti a favore, 46 contrari e 49 astensioni.

Mira a proteggere i diritti fondamentali, la democrazia, lo Stato di diritto e la sostenibilità ambientale dall'IA ad alto rischio, promuovendo nel contempo l'innovazione e facendo dell'Europa un leader nel settore. Il regolamento stabilisce obblighi per l'IA in base ai suoi potenziali rischi e al livello di impatto.

Applicazioni vietate.

Le nuove norme vietano alcune applicazioni di IA che minacciano i diritti dei cittadini, compresi i sistemi di categorizzazione biometrica basati su caratteristiche sensibili e lo scraping non mirato di immagini facciali da Internet o filmati di telecamere a circuito chiuso per creare database di riconoscimento facciale. Saranno vietati anche il riconoscimento delle emozioni sul posto di lavoro e nelle scuole, il punteggio sociale, la polizia predittiva (quando si basa esclusivamente sulla profilazione di una persona o sulla valutazione delle sue caratteristiche) e l'intelligenza artificiale che manipola il comportamento umano o sfrutta le vulnerabilità delle persone.

Esenzioni per le forze dell'ordine.

L'uso di sistemi di identificazione biometrica (RBI) da parte delle forze dell'ordine è vietato in linea di principio, tranne che in situazioni elencate in modo esaustivo e definite in modo restrittivo. La RBI "in tempo reale" può essere utilizzata solo se sono soddisfatte rigorose garanzie, ad esempio il suo uso è limitato nel tempo e nell'ambito geografico e soggetto a specifica autorizzazione giudiziaria o amministrativa preventiva. Tali usi possono includere, ad esempio, la ricerca mirata di una persona scomparsa o la prevenzione di un attacco terroristico. L'utilizzo di tali sistemi post-facto ("RBI post-remoto") è considerato un caso d'uso ad alto rischio, che richiede l'autorizzazione giudiziaria in quanto collegato a un reato.

Obblighi per i sistemi ad alto rischio.

Sono previsti obblighi chiari anche per altri sistemi di IA ad alto rischio (a causa del loro potenziale danno significativo alla salute, alla sicurezza, ai diritti fondamentali, all'ambiente, alla democrazia e allo Stato di diritto). Esempi di usi dell'IA ad alto rischio includono le infrastrutture critiche, l'istruzione e la formazione professionale, l'occupazione, i servizi pubblici e privati essenziali (ad esempio l'assistenza sanitaria, le banche), alcuni sistemi di contrasto, la migrazione e la gestione delle frontiere, la giustizia e i processi democratici (ad esempio l'influenza sulle elezioni). Tali sistemi devono valutare e ridurre i rischi, mantenere i registri di utilizzo, essere trasparenti e accurati e garantire la supervisione umana. I cittadini avranno il diritto di presentare reclami sui sistemi di IA e di ricevere spiegazioni sulle decisioni basate su sistemi di IA ad alto rischio che incidono sui loro diritti.

Requisiti di trasparenza.

I sistemi di IA generici (GPAI) e i modelli GPAI su cui si basano devono soddisfare determinati requisiti di trasparenza, tra cui la conformità alla legge dell'UE sul diritto d'autore e la pubblicazione di sintesi dettagliate dei contenuti utilizzati per la formazione. I modelli GPAI più potenti che potrebbero comportare rischi sistemici dovranno affrontare requisiti aggiuntivi, tra cui l'esecuzione di valutazioni dei modelli, la valutazione e la mitigazione dei rischi sistemici e la segnalazione degli incidenti.
Inoltre, le immagini, i contenuti audio o video artificiali o manipolati ("deepfake") devono essere chiaramente etichettati come tali.

Misure a sostegno dell'innovazione e delle PMI.

A livello nazionale dovranno essere istituiti spazi di sperimentazione normativa e sperimentati nel mondo reale, resi accessibili alle PMI e alle start-up, per sviluppare e formare un'IA innovativa prima della sua immissione sul mercato.

Passaggi successivi.

Il regolamento è ancora soggetto a un controllo finale da parte del giurista-linguista e dovrebbe essere adottato in via definitiva prima della fine della legislatura (attraverso la cosiddetta procedura di rettifica). La legge deve anche essere formalmente approvata dal Consiglio.
Entrerà in vigore venti giorni dopo la pubblicazione nella Gazzetta ufficiale e sarà pienamente applicabile 24 mesi dopo la sua entrata in vigore, ad eccezione di: divieti di pratiche vietate, che si applicheranno sei mesi dopo la data di entrata in vigore; codici di condotta (nove mesi dopo l'entrata in vigore); norme generali sull'IA, compresa la governance (12 mesi dopo l'entrata in vigore); e gli obblighi per i sistemi ad alto rischio (36 mesi).
 
Stampa la pagina