Giovedì, 18 aprile 2024 - ore 19.30

DAL PARLAMENTO EUROPEO LE LINEE GUIDA PER L’USO DELL’INTELLIGENZA ARTIFICIALE IN CAMPO MILITARE E CIVILE

| Scritto da Redazione
DAL PARLAMENTO EUROPEO LE LINEE GUIDA PER L’USO DELL’INTELLIGENZA ARTIFICIALE IN CAMPO MILITARE E CIVILE

 L'intelligenza artificiale deve essere soggetta al controllo umano, in modo da essere corretta o disabilitata in caso di comportamenti imprevisti. Ad affermarlo è il Parlamento europeo che ieri ha approvato una risoluzione in cui sottolinea la necessità di un quadro giuridico comunitario sull’IA con definizioni e principi etici, che coprano anche il suo impiego in campo militare.

Nella risoluzione – adottata con 364 voti favorevoli, 274 contrari e 52 astensioni – gli eurodeputati chiedono all’UE e agli Stati membri di garantire che l’IA e le tecnologie ad essa correlate siano incentrate sull’uomo (ovvero destinate al servizio dell’umanità e del bene comune).

Uso militare e controllo umano

I deputati sottolineano che la dignità umana e i diritti dell’uomo devono essere rispettati in tutte le attività UE nel campo della difesa. I sistemi abilitati all’IA devono permettere agli esseri umani di esercitare un controllo significativo, in modo da esserne i responsabili dell’utilizzo.

L'uso di sistemi d'arma autonomi e letali (LAWS, Lethal Autonomous Weapon System) solleva questioni etiche e legali fondamentali. I deputati ribadiscono la richiesta di una strategia UE che li proibisca e la messa al bando dei cosiddetti "robot assassini". La decisione di selezionare un bersaglio e di compiere un'azione letale utilizzando un sistema d'arma autonomo deve sempre essere presa da un essere umano con adeguato livello di controllo e giudizio, in linea con i principi di proporzionalità e necessità.

L'Unione deve inoltre assumere un ruolo guida nella creazione e nella promozione di un quadro globale che regoli l'uso militare dell'IA, a fianco dell'ONU e della comunità internazionale.

L’IA nel settore pubblico

L'aumento dell'uso dei sistemi di IA nei servizi pubblici, specialmente nella sanità e nella giustizia, non dovrebbe sostituire il contatto umano o generare discriminazioni. Le persone dovrebbero essere sempre informate allorché sono soggette a una decisione basata sull'IA e dovrebbero avere la possibilità di fare ricorso.

Quando l'IA viene utilizzata nell’ambito della salute pubblica (ad esempio, chirurgia assistita da robot, protesi intelligenti, medicina preventiva), i dati personali dei pazienti devono essere protetti e il principio della parità di trattamento deve essere rispettato. Nel settore della giustizia, invece, l'uso delle tecnologie dell'IA può contribuire ad accelerare i procedimenti e a prendere decisioni più razionali, ma le decisioni finali dei tribunali devono essere prese da esseri umani, rigorosamente verificate da una persona e sottoposte ad un giusto processo.

Sorveglianza di massa e deepfake

Il testo richiama, inoltre, l’attenzione sulle minacce ai diritti umani fondamentali e alla sovranità dello Stato derivanti dall'uso delle tecnologie di IA nella sorveglianza civile e militare di massa. Il PE chiede che alle autorità pubbliche sia vietato l'uso di "applicazioni altamente invasive di punteggio sociale" (per il monitoraggio e la valutazione dei cittadini). I deputati sono anche preoccupati dalle tecnologie di deepfake, in quanto hanno il potenziale di "destabilizzare i paesi, diffondere la disinformazione e influenzare le consultazioni elettorali". I creatori dovrebbero essere obbligati ad etichettare tale materiale come "non originale" e si dovrebbe fare più ricerca sulle tecnologie in grado di contrastare questo fenomeno. (aise) 

673 visite
Petizioni online
Sondaggi online

Articoli della stessa categoria