QR code per la pagina originale

Google-DeepMind: un pulsante d’emergenza per la IA

L'evoluzione dei sistemi di intelligenza artificiale potrebbe arrivare, un giorno non troppo lontano, a costituire un pericolo per il genere umano.

,

La creazione di forme di intelligenza artificiale sempre più complesse ed evolute porterà alla nascita di prodotti e servizi fino a qualche tempo fa impensabili, con ovvi benefici per chi andrà a fruirne. Uno sviluppo incontrollato, però, potrebbe sfociare nella generazione di macchine potenzialmente pericolose per il genere umano. Non è la visione distopica di una sceneggiatura sci-fi, ma un’ipotesi formulata da uno dei più grandi gruppi tecnologici al mondo: Google.

Secondo Nick Bostrom, direttore di DeepMind (società acquisita da bigG, già all’opera su progetti come AlphaGo), è necessario predisporre precauzioni che un giorno potrebbero tornare utili per controllare le forme di IA più evolute, così da evitare che gli incubi portati sul grande schermo da pellicole come “Terminator”, “Matrix” o “Io, Robot” possano diventare realtà. Per spiegare in che modo le macchine potrebbero arrivare un giorno a costituire una minaccia, Bostrom fa un riferimento diretto a ciò che ha permesso all’uomo di diventare la specie dominante del pianeta Terra.

Personalmente ritengo che una volta che le capacità umane saranno raggiunte, non passerà molto tempo prima che le macchine diventino superintelligenti. Potrebbe volerci molto tempo prima di raggiungere il livello dell’essere umano, ma penso che il passaggio da quel punto alla superintelligenza potrebbe essere molto rapido. Credo che le macchine con una superintelligenza potrebbero essere estremamente potenti, per le stesse ragioni di base che hanno portato gli umani ad essere relativamente più potenti rispetto agli altri animali di questo pianeta. Non è perché i nostri muscoli sono più forti o i nostri denti più affilati, ma perché il nostro cervello è migliore.

Per questo è necessario pensare ad un Kill Switch, una sorta di pulsante d’emergenza da premere per riprendere il controllo delle macchine ed evitare spiacevoli conseguenze.

Se un agente opera in tempo reale sotto la supervisione di un essere umano, a volte potrebbe essere necessario per l’operatore premere un grande pulsante rosso per evitare che l’agente continui ad eseguire una sequenza di azioni dannose, sia per se stesso che per l’ambiente che lo circonda, rimettendo la situazione in sicurezza.

Google è ben consapevole dei potenziali rischi connessi ad un’evoluzione incontrollata dell’intelligenza artificiale e delle unità robotiche che andranno ad equipaggiare gli algoritmi. Anche per questo, di recente, ha deciso di disfarsi di Boston Dynamics, società acquisita negli anni scorsi e specializzata nella creazione di robot dall’aspetto umanoide che in alcuni casi potrebbero risultare non proprio rassicuranti (come nel video seguente).

Fonte: Intelligence.org • Via: Business Insider • Notizie su: ,