Lunedì, 15 aprile 2024 - ore 07.38

Il nuovo regolamento europeo sull'Intelligenza Artificiale, l'AI Act | Brando Benifei (S&D)

Vogliamo un’intelligenza artificiale rispettosa delle persone ed è per questo che ci stiamo impegnando al massimo

| Scritto da Redazione
 Il nuovo regolamento europeo sull'Intelligenza Artificiale, l'AI Act  | Brando Benifei (S&D)

I sistemi di intelligenza artificiale con un livello di rischio inaccettabile per la sicurezza delle persone sono severamente vietati, compresi i sistemi che impiegano tecniche subliminali o intenzionalmente manipolative, quelli che sfruttano le vulnerabilità delle persone o sono utilizzati per il punteggio sociale, il riconoscimento facciale in tempo reale, il riconoscimento delle emozioni nei contesti più sensibili, la categorizzazione biometrica etc. In pratica il divieto scatta quando viene riconosciuto un certo livello di rischiosità per la salute, la sicurezza e, soprattutto, i diritti fondamentali.

L'obiettivo per il grosso dei sistemi regolati, ossia quelli ad alto rischio, è quello di prevenire e mitigare i rischi, attraverso procedure di certificazione per verificare l’adempimento dei requisiti, tra cui governance dei dati, controllo umano, specifiche tecniche e altro, incrementando le potenzialità per consumatori e imprese, per creare sviluppo e opportunità.

Su due punti al Parlamento europeo abbiamo fatto modifiche sostanziali alla proposta originaria della Commissione europea: la fortissima limitazione del riconoscimento biometrico da parte delle forze dell'ordine per la sorveglianza dei luoghi pubblici, che nella bozza prevedeva eccezioni troppo estese.

Viene vietato il riconoscimento biometrico in tempo reale ed è previsto che ci sia una possibilità di utilizzo molto limitato dalle autorità di polizia solo in caso di utilizzo differito e per reati già compiuti, e solo previa autorizzazione giudiziaria. Sono talmente tanti gli errori di questa tecnologia che il rischio di fermare degli innocenti partendo da immagini confuse e non definite è troppo alto.

Su questo registriamo le maggiori differenze con chi ha una visione securitaria e meno attenta alle libertà civili, come il ministro Piantedosi che ha auspicato un maggiore utilizzo dei sistemi di riconoscimento facciale per aumentare la sicurezza. Per fortuna al momento esiste una moratoria in Italia, promossa dal Partito Democratico e in particolare dal parlamentare Filippo Sensi.

Inoltre, nel testo votato a Strasburgo c'è la previsione di una valutazione d'impatto sui diritti fondamentali per le AI ad alto rischio, una misura che ho inserito io stesso perché la considero di cruciale importanza nell’uso dell’intelligenza artificiale in ambiti più rischiosi. Inoltre abbiamo inserito delle misure sull'IA generativa, del tipo di ChatGPT o MidJourney, che quando abbiamo iniziato il nostro lavoro ancora non era accessibile al grande pubblico né potente quanto è ora. In questo caso la parola chiave è trasparenza, perché i risultati che sfornano ChatGPT e altri sistemi simili sono determinati dalla base delle montagne di dati su cui sono stati addestrati.

Ma non si tratta di porre solo limiti e divieti. Regolare l'intelligenza artificiale significa anche permettere l'innovazione e cogliere le opportunità che questa offre. Questo sarà possibile solo se le nostre norme saranno sufficientemente tempestive ed efficaci da costruire una società basata sulla fiducia, piuttosto che sulla paura e sul rigetto del cambiamento. Per promuovere l'innovazione dell'IA, quindi, abbiamo aggiunto esenzioni a queste regole per le attività di ricerca e per i componenti dei sistemi di intelligenza artificiale forniti con licenze open source.

La nuova legge promuove inoltre le cosiddette “sandbox”, o spazi di sperimentazione normativa, ambienti controllati istituiti dalle autorità pubbliche per testare l'intelligenza artificiale prima della sua implementazione. Essere i primi al mondo a disciplinare una terra inesplorata come quella dell'intelligenza artificiale significa che non ci sono mappe su cui è possibile fare affidamento per orientarsi e per questo è più importante che mai avere ben chiara la bussola dei propri valori.

Su questo tema emergono tutte le differenze tra la visione “umanocentrica” e attenta ai diritti e alle libertà civili dell'Unione europea e del suo modello sociale, e quella delle autocrazie o dei sistemi dove le esigenze dell'economia prevalgono su quelle della società; tra chi da noi promuove l'Europa nazionalista, completamente indifesa su temi così globali, e chi crede dell'unità e quindi nella forza dell'Unione europea; tra chi ha una tradizione politica attenta alla vulnerabilità degli individui e dei gruppi sociali più svantaggiati e chi dà la priorità alla sicurezza o al mercato senza regole; tra chi vede le opportunità nel cambiamento e chi rifiuta in blocco la modernità.

Ora dobbiamo completare rapidamente il lavoro perché vogliamo che non accada più, ad esempio, che i curriculum delle donne e delle persone non bianche vengano scartati a priori in una selezione perché il sistema di intelligenza artificiale è stato allenato con dati che perpetuano le discriminazioni, né vogliamo che a un migrante alla frontiera venga negato l'asilo perché secondo l'IA risulta nervoso e quindi potenzialmente sospetto.

Vogliamo un’intelligenza artificiale rispettosa delle persone ed è per questo che ci stiamo impegnando al massimo.

Brando Benifei

1348 visite

Articoli correlati

Petizioni online
Sondaggi online