Google e le tre leggi della robotica di Asimov

Il gruppo di Mountain View stila un elenco composto da cinque punti che, in futuro, dovrebbe impedire l'insorgere di rischi legati allo sviluppo dell'IA.
Il gruppo di Mountain View stila un elenco composto da cinque punti che, in futuro, dovrebbe impedire l'insorgere di rischi legati allo sviluppo dell'IA.

Isaac Asimov definì le tre leggi della robotica all’inizio degli anni ’40 del secolo scorso, immaginando con i suoi romanzi un futuro in cui i robot e gli esseri umani avrebbero condiviso spazi e impieghi. Tre punti fermi che, se rispettati, avrebbero garantito una pacifica e sicura convivenza tra gli uomini e le macchine, senza alcun rischio. Eccole.

  • Un robot non può recar danno a un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno.
  • Un robot deve obbedire agli ordini impartiti dagli esseri umani, purché tali ordini non contravvengano alla Prima Legge.
  • Un robot deve proteggere la propria esistenza, purché questa autodifesa non contrasti con la Prima o con la Seconda Legge.

Oggi Google, in collaborazione con OpenAI e con team delle università di Stanford e Berkeley fa altrettanto, pubblicando un documento dal titolo “Concrete problems in AI safety” (tradotto in italiano “Problemi concreti nella sicurezza dell’IA”) in cui si fissano cinque punti da rispettare per evitare l’insorgere di situazioni potenzialmente pericolose legate ad uno sviluppo poco responsabile delle forme di intelligenza artificiale. Secondo Chris Olah, numero uno della divisione Google Research, attualmente non si corre alcun rischio. Anzi, le tecnologie legate a robotica e IA porteranno notevoli benefici alla collettività.

Si tratta di pensieri rivolti al futuro, su questioni sperimentali di lungo termine che oggi costituiscono problemi minori, ma che un giorno sarà importante saper gestire.

Il documento è stato redatto a pochi giorni di distanza dall’appello di Nick Bostrom, direttore di DeepMind (società acquisita da bigG), relativo alla necessità di creare una sorta di pulsante d’emergenza per fermare i sistemi di intelligenza artificiale in caso di pericolo, a dimostrazione di come il tema sia dibattuto non solo tra le pagine dei romanzi sci-fi. Questi i punti stabiliti.

  • Evitare effetti collaterali negativi: l’intelligenza artificiale non dovrebbe disturbare l’ambiente circostante mentre svolge un compito.
  • Evitare di promuovere l’hacking: l’intelligenza artificiale dovrebbe portare a termine le proprie mansioni in maniera corretta anziché utilizzando soluzioni alternative (ad esempio un robot per la pulizia che copre lo sporto con materiale non riconosciuto come sporco).
  • Supervisione scalabile: l’intelligenza artificiale non dovrebbe necessitare di feedback o input costanti per essere efficiente.
  • Apprendimento sicuro: l’intelligenza artificiale non dovrebbe danneggiare se stessa o l’ambiente circostante mentre impara.
  • Affidabilità adattamento distribuzionale: l’intelligenza artificiale dovrebbe essere in grado di riconoscere un nuovo ambiente e continuare ad operare correttamente in esso.

Ti consigliamo anche

Link copiato negli appunti