E se l’intelligenza artificiale diventasse cattiva?

ITALIA – È uno dei cliché più diffusi della letteratura e del cinema difantascienza. L’avverarsi di uno scenario distopico in cui l’intelligenza artificiale – macchine, robot, computer pensanti – prenda il sopravvento su quella naturale e sottometta la razza umana. Senza andare così in là, la scienza si è oggi espressa in proposito, analizzando cosa potrebbe succedere se gli esseri umani costruissero deliberatamente macchine intelligenti votate alla malvagità. Lo studio, a firma Federico Pistono e Roman V. Yampolskiy e in parte finanziato dal magnate Elon Musk, è statocaricato su ArXiv con il titolo Ricerca non etica: come creare un’intelligenza artificiale malevola.

intelligienza artificialeNel loro articolo, Pistono e Yampolskiy stilano anzitutto una lista dei malintenzionati potenzialmente essere interessati allo sviluppo di intelligenze artificiali cattive: anzitutto istituzioni militari (nel campo delle cyber-armi o di soldati robot, per esempio), ma anche governi (che potrebbero servirsi dell’intelligenza artificiale per stabilire un’egemonia, controllare le masse o mettere a tacere gli oppositori), corporazioni (con lo scopo di ottenere monopoli e sbaragliare illegalmente la  concorrenza). Per non parlare di organizzazioni criminali, spie emalintenzionati di vario tipo.

In uno scenario particolarmente nefasto, per esempio, gli autori immaginano un mondo in cui un sistema di intelligenza artificiale scatena una guerra di propaganda globale che pone governi e popolazioni gli uni contro gli altri, alimentando “una macchina dacaos planetario. Le preoccupazioni di Pistono e Yampolskiy, comunque, come sottolinea il New Scientist, non sono condivise:Mark Bishop, della Goldsmiths University of London, sostiene per esempio che si tratti di paure esagerate. E Andrew Ng, ricercatore per conto di Baidu (colosso cinese del web), ha rincarato la dose, affermando che “preoccuparsi per l’avvento di robot killer equivale a preoccuparsi per la sovrappopolazione di Marte. Dal canto suo, Yampolskiy ha citato l’incidente recentemente accaduto a Tay, il chatbot di Twitter messo a punto da Microsoft,silenziato in tutta fretta dopo aver pubblicato diversi contenuti razzisti: “L’incidente ha reso evidente quanto questi sistemi siano ancora imprevedibili: i creatori del bot non si aspettavano questo risultato. Mi piacerebbe che si generasse un dibattito in cui, insieme alle proposte per sistemi di sicurezza migliori, si iniziasse a discutere anche di come sorpassarli”.