QR code per la pagina originale

IA e armamenti: appello di Hawking e Musk

Un'altra lettera aperta del Future of Life institute sui pericoli dell'intelligenza artificiale, stavolta concentrata sulla corsa agli armamenti.

,

Stephen Hawking ed Elon Musk hanno scritto e firmato insieme ad oltre mille ricercatori di intelligenza artificiale e robotica una lettera per vietare da subito l’applicazione di questa tecnologia agli armamenti militari: il rischio, secondo loro, è la distruzione dell’umanità per mano di armi autonome. Siamo davvero a un passo dall’incubo del “giorno del giudizio” di Skynet?

La lettera aperta è stata presentata ieri in occasione della Conferenza internazionale sulla Intelligenza Artificiale a Buenos Aires, in Argentina, e sta già rimbalzando in tutto il mondo. Sarà per le due firme celebri, l’astrofisico e il geniale manager di Tesla, oppure l’inquietudine in salsa pop dell’allarme lanciato su una possibile guerra tra umani e robot – trama di migliaia di film e romanzi – ma quando TechCrunch e il New York Times si dedicano in modo approfondito al testo significa che l’argomento è da prendere sul serio. La lettera è l’ultima di una serie di appelli del Future of Life Institute, che compongono una vera e propria litania di timori tecnologici, non granché ascoltati.

Secondo Stephen Hawking ed Elon Musk l’impiego di robot dotati di un altissimo grado di predittività finalizzati ad uccidere gli umani è questione di pochi anni e non decenni. Se non verranno impediti gli investimenti in questo settore, è solo una questione di tempo prima che queste armi finiscano nelle mani dei terroristi e i signori della guerra. Con almeno due vantaggi per i cattivi: a differenza dei droni, che richiedono un pilota umano che prende decisioni da remoto, queste armi sarebbero autonome nell’ingaggiare dei bersagli per conto proprio; a differenza delle armi nucleari, queste armi possono essere realizzate con materie prime facilmente trovabili sul mercato.

La conseguenza forse evitabile di questa traiettoria tecnologica è che le armi autonome diventino il kalashnikov di domani. Riteniamo che una corsa agli armamenti AI non sarebbe vantaggiosa per l’umanità. Ci sono molti modi in cui l’intelligenza artificiale può rendere più sicuri i campi di battaglia per gli esseri umani, in particolare i civili, senza creare nuovi strumenti per uccidere la gente. Proprio come la maggior parte dei chimici e biologi non ha alcun interesse nella costruzione di armi chimiche o biologiche, la maggior parte dei ricercatori di intelligenza artificiale non ha alcun interesse nella costruzione di armi intelligenti.

Musk, a capo della SpaceX, ha in passato già avvertito circa l’intelligenza artificiale definendola «la minaccia esistenziale più grande». Hawking, dal canto suo, ha sostenuto più volte che lo sviluppo dell’intelligenza artificiale potrebbe essere il più grande evento nella storia umana «ma potrebbe anche essere l’ultimo». Non mancano altri firmatari notevoli alla lettera, tra i quali Steve Wozniak, Noam Chomsky, linguista e filosofo, e Demis Hassabis, l’amministratore delegato della società di intelligenza artificiale di Google DeepMind.

Una società che delega agli algoritmi

Il problema che sta sorgendo è molto complesso, ma si può sintetizzare con il confronto tra la predizione e l’intelligenza. Molti commentatori tendono a sottovalutare gli allarmi sull’intelligenza artificiale perché considerano il livello attuale di sviluppo troppo lontano da questi scenari, e questo è corretto: l’intelligenza artificiale in sé, una coscienza autonoma fatta di microchip, è lontana quanto Kepler-452b. Al contrario, la combinazione e raffinazione degli strumenti algoritmici verso i quali si tenderà sempre di più ad affidare i processi decisionali – il traffico, la salute pubblica, l’istruzione – assomiglia in modo inquietante a una intelligenza, anche se non lo è. In pratica la società degli algoritmi delega a prendere decisioni, ma nel solco delle decisioni che l’uomo sceglie di delegare, mentre l’intelligenza artificiale è quando una macchina prende una decisione che non è prevista, ma è creata dal nulla. Quando però le decisioni delegate al deep learning sono così tante da essere vitali, la distanza si assottiglia pericolosamente.

Se a ciò si aggiungono i progressi dell’intelligenza artificiale, le preoccupazioni dell’istituto e dei ricercatori non sembrano più soltanto fantascienza.

Fonte: Techcrunch • Notizie su: