QR code per la pagina originale

Google-DeepMind: un pulsante d’emergenza per la IA

L'evoluzione dei sistemi di intelligenza artificiale potrebbe arrivare, un giorno non troppo lontano, a costituire un pericolo per il genere umano.

,

La creazione di forme di intelligenza artificiale sempre più complesse ed evolute porterà alla nascita di prodotti e servizi fino a qualche tempo fa impensabili, con ovvi benefici per chi andrà a fruirne. Uno sviluppo incontrollato, però, potrebbe sfociare nella generazione di macchine potenzialmente pericolose per il genere umano. Non è la visione distopica di una sceneggiatura sci-fi, ma un’ipotesi formulata da uno dei più grandi gruppi tecnologici al mondo: Google.

Secondo Nick Bostrom, direttore di DeepMind (società acquisita da bigG, già all’opera su progetti come AlphaGo), è necessario predisporre precauzioni che un giorno potrebbero tornare utili per controllare le forme di IA più evolute, così da evitare che gli incubi portati sul grande schermo da pellicole come “Terminator”, “Matrix” o “Io, Robot” possano diventare realtà. Per spiegare in che modo le macchine potrebbero arrivare un giorno a costituire una minaccia, Bostrom fa un riferimento diretto a ciò che ha permesso all’uomo di diventare la specie dominante del pianeta Terra.

Personalmente ritengo che una volta che le capacità umane saranno raggiunte, non passerà molto tempo prima che le macchine diventino superintelligenti. Potrebbe volerci molto tempo prima di raggiungere il livello dell’essere umano, ma penso che il passaggio da quel punto alla superintelligenza potrebbe essere molto rapido. Credo che le macchine con una superintelligenza potrebbero essere estremamente potenti, per le stesse ragioni di base che hanno portato gli umani ad essere relativamente più potenti rispetto agli altri animali di questo pianeta. Non è perché i nostri muscoli sono più forti o i nostri denti più affilati, ma perché il nostro cervello è migliore.

Per questo è necessario pensare ad un Kill Switch, una sorta di pulsante d’emergenza da premere per riprendere il controllo delle macchine ed evitare spiacevoli conseguenze.

Se un agente opera in tempo reale sotto la supervisione di un essere umano, a volte potrebbe essere necessario per l’operatore premere un grande pulsante rosso per evitare che l’agente continui ad eseguire una sequenza di azioni dannose, sia per se stesso che per l’ambiente che lo circonda, rimettendo la situazione in sicurezza.

Google è ben consapevole dei potenziali rischi connessi ad un’evoluzione incontrollata dell’intelligenza artificiale e delle unità robotiche che andranno ad equipaggiare gli algoritmi. Anche per questo, di recente, ha deciso di disfarsi di Boston Dynamics, società acquisita negli anni scorsi e specializzata nella creazione di robot dall’aspetto umanoide che in alcuni casi potrebbero risultare non proprio rassicuranti (come nel video seguente).

Fonte: Intelligence.org • Via: Business Insider • Notizie su: ,
Commenta e partecipa alle discussioni
  • 07/06/2016 alle 01:55 #560431

    xeryan
    Membro

    Piccolo problema: l’IA potrebbe evolversi per disattivare il pulsante (o il meccanismo di sorta) ;)

    09/06/2016 alle 20:58 #561675

    Filoberto
    Participant

    Un grosso bottone rosso: mi sembra un sistema di sicurezza per stupidi!

    La cosa migliore sarebbe spingere per aumentare l’intelligenza per gli esseri umani, metterci in competizione, aumentare la ricerca per migliorare le nostre capacità. 

    E allora forse dovremmo metterci un bottone a noi stessi per non usare la nostra intelligenza a fin di male!

    09/06/2016 alle 21:03 #561677

    Filoberto
    Participant

    Tra parentesi, io fossi il tipo che spinge il robot e gli fa dispetti sarei preoccupato, le IA del futuro potrebbe decidersi di andarlo a cercare per vendicarsi!!!

    11/06/2016 alle 18:41 #562205

    rico
    Membro

    Il “grande pulsante rosso” potrebbe non essere raggiungibile. Qui devono entrare i comandi vocali che attivano una ROM non riscrivibile (dalla macchina o da un sabotatore).