Venerdì, 19 aprile 2024 - ore 17.27

E se l’intelligenza artificiale diventasse cattiva?

Due ricercatori, in uno studio cofinanziato da Elon Musk, hanno esaminato cosa accadrebbe in uno scenario in cui l’intelligenza artificiale fosse usata per scopi malvagi.

| Scritto da Redazione
E se l’intelligenza artificiale diventasse cattiva?

È uno dei cliché più diffusi della letteratura e del cinema di fantascienza. L’avverarsi di uno scenario distopico in cui l’intelligenza artificiale – macchine, robot, computer pensanti – prenda il sopravvento su quella naturale e sottometta la razza umana. Senza andare così in là, la scienza si è oggi espressa in proposito, analizzando cosa potrebbe succedere se gli esseri umani costruissero deliberatamente macchine intelligenti votate alla malvagità. Lo studio, a firma Federico Pistono e Roman V. Yampolskiy e in parte finanziato dal magnate Elon Musk, è stato caricato su ArXiv con il titolo “Ricerca non etica: come creare un’intelligenza artificiale malevola”.

Nel loro articolo, Pistono e Yampolskiy stilano anzitutto una lista dei malintenzionati potenzialmente essere interessati allo sviluppo di intelligenze artificiali cattive: anzitutto istituzioni militari (nel campo delle cyber-armi o di soldati robot, per esempio), ma anche governi (che potrebbero servirsi dell’intelligenza artificiale per stabilire un’egemonia, controllare le masse o mettere a tacere gli oppositori), corporazioni (con lo scopo di ottenere monopoli e sbaragliare illegalmente la  concorrenza). Per non parlare di organizzazioni criminali, spie e malintenzionati di vario tipo.

In uno scenario particolarmente nefasto, per esempio, gli autori immaginano un mondo in cui un sistema di intelligenza artificiale scatena una guerra di propaganda globale che pone governi e popolazioni gli uni contro gli altri, alimentando “una macchina da caos planetario”. Le preoccupazioni di Pistono e Yampolskiy, comunque, come sottolinea il New Scientist, non sono condivise: Mark Bishop, della Goldsmiths University of London, sostiene per esempio che si tratti di paure esagerate. E Andrew Ng, ricercatore per conto di Baidu (colosso cinese del web), ha rincarato la dose, affermando che “preoccuparsi per l’avvento di robot killer equivale a preoccuparsi per la sovrappopolazione di Marte”. Dal canto suo, Yampolskiy ha citato l’incidente recentemente accaduto a Tay, il chatbot di Twitter messo a punto da Microsoft, silenziato in tutta fretta dopo aver pubblicato diversi contenuti razzisti: “L’incidente ha reso evidente quanto questi sistemi siano ancora imprevedibili: i creatori del bot non si aspettavano questo risultato. Mi piacerebbe che si generasse un dibattito in cui, insieme alle proposte per sistemi di sicurezza migliori, si iniziasse a discutere anche di come sorpassarli”.

 

(Sandro Iannaccone, Wired.it cc-by-nc-nd)

1180 visite

Articoli correlati

Petizioni online
Sondaggi online