QR code per la pagina originale

Google, consiglio esterno per IA e problemi etici

Si chiama Advanced technology external advisory council ed è un gruppo di filosofi e matematici, tra cui due italiani, per uno sviluppo etico eell'IA.

,

Lo sviluppo dell’intelligenza artificiale si sta scontrando sempre di più con domande etiche molto difficili. Google vuole sostenere lo sviluppo tecnologico anche con i pareri di un consiglio esterno di esperti: lo ha chiamato Advanced technology external advisory council (ATEAC). Formato da otto esperti provenienti da tutto il mondo, faranno da consulenti esterni a Google sui temi che riguardano l’intelligenza artificiale e l’etica.

Un tema molto sentito, soprattutto riguardo i “bias” dell’IA, il riconoscimento facciale e la non-discriminazione nel machine learning. Verso la fine del 2019 questo consiglio pubblicherà un report ed include filosofi, esperti di etica e tecnologia. Ci sono anche due italiani, cioè Luciano Floridi, che insegna Filosofia e etica dell’informazione ad Oxford e Alessandro Acquisti, ricercatore sui temi della privacy ed economista comportamentale che insegna all’Heinz College della Carnegie Mellon University.

Una vera e propria sfida per gli otto esperti, che porteranno il loro punto di vista sulla questione molto complessa del ruolo dell’intelligenza artificiale e gli errori che può fare in termini etici, per uno sviluppo migliore della tecnologia. Google è stata negli ultimi mesi al centro di diverse polemiche, anche da parte dei suoi stessi dipendenti, proprio per l’uso dell’IA con scopi militari.

Il suo coinvolgimento al progetto Maven della Difesa statunitense, in grado di utilizzare l’IA per analizzare le immagini riprese dai droni, è stata giudicata come traditrice dei valori intrinsechi del colosso di Mountain View. Questo software infatti è stato messo nelle mani di un programma che prevede anche l’uccisione di bersagli tramite i droni. Il vecchio slogan “Don’t be evil” di Google è ormai cosa superata. Dopo le polemiche Google si è decisa a chiudere il programma, anche se inizialmente ha tentennato.

Con l’annuncio di questo consiglio si vanno a completare i cosiddetti AI Principles, una carta etica che guiderà nei prossimi anni uno sviluppo più consapevole dell’intelligenza artificiale (a una cosa simile lavora anche l’Europa). Durante tutto l’arco del 2019 il consiglio si riunirà quattro volte e si giungerà alla fine a un riassunto dei temi emersi e le possibili soluzioni.