QR code per la pagina originale

Robot in guerra, gli USA studiano l’etica digitale

Un gruppo di esperti è impegnato nello sviluppo di un'etica da "insegnare" ai robot che dovranno essere in grado di scegliere tra giusto e sbagliato.

,

«Un robot non può recar danno ad un essere umano né può permettere che, a causa del proprio mancato intervento, un essere umano riceva danno». Tutti gli appassionati di fantascienza conoscono la prima legge della robotica scritta da Isaac Asimov. Nel mondo reale però è molto improbabile che questa legge (e le altre due) verranno rispettate, dato che i principali finanziatori delle ricerche nel settore sono i militari. Proprio per questo motivo, il Dipartimento della Difesa (DoD) degli Stati Uniti ha avviato un progetto che affronterà il tema dell’etica dei robot.

Da molti anni vengono utilizzati aerei senza pilota (il più famoso è il Predator), ma tutti questi velivoli non sono autonomi, in quanto ricevono comandi da un essere umano. Nei laboratori sono però in sviluppo robot che possono eseguire diversi compiti in maniera indipendente, sfruttando complessi algoritmi di intelligenza artificiale. Una delle aziende più attive nel settore è Boston Dynamics, acquisita da Google a dicembre 2013, che ha realizzato il robot-mulo BigDog e il robot antropomorfo Atlas con i fondi della DARPA. Nessuno dei due è stato progettato per combattere contro i soldati nemici, ma nulla vieta di pensare che in futuro simili macchine possano essere utilizzate sui campi di battaglia.

Sebbene tecnologie come quelle viste nei film di Terminator rimarranno fantascienza per molti decenni, il DoD ha creato un gruppo multidisciplinare di esperti per “programmare” la morale e l’etica dei robot, che dovranno quindi prendere decisioni in modo autonomo e in tempo reale, scegliendo tra giusto e sbagliato. Come si può immaginare, si tratta di un progetto molto complesso. La difficoltà principale è definire la morale umana, in base alla quale verrà implementata la morale digitale.

Gli scienziati useranno ricerche teoriche (filosofiche) ed empiriche (sperimentali) per trovare gli elementi essenziali della morale umana. Verrà quindi sviluppato un framework morale che può essere implementato in software, sfruttando probabilmente le reti neurali. Un robot dovrebbe essere in grado di rispondere a domande del tipo “devo fermarmi e aiutare questo soldato ferito o continuare la mia missione primaria, ovvero portare munizioni agli altri soldati?”. Un robot da guerra dovrebbe proteggere gli esseri umani. Ma per fare ciò potrebbe essere obbligato ad uccidere un altro essere umano. La roboetica sarà l’argomento principale dei prossimi anni. Un cosa è certa: le leggi di Asimov non verranno applicate.

Fonte: ExtremeTech • Notizie su: