QR code per la pagina originale

Google e i principi dell’intelligenza artificiale

Tecnologie e sistemi legati all'intelligenza artificiale possono avere un enorme impatto sulle nostre vite: l'impegno di Google perché sia positivo.

,

I tempi sono maturi per iniziare a osservare tutto ciò che rientra nel calderone dell’intelligenza artificiale non solo dal punto di vista delle tecnologie impiegate, dei servizi offerti e delle innovazioni innescate, ma anche considerando le implicazioni etiche del caso. Nessun allarmismo e nessuno scenario apocalittico da scongiurare (almeno per il momento), come qualcuno sembra invece suggerire. Può però essere costruttivo intavolare la discussione.

Oggi lo spunto arriva da Google, che ufficializza un’iniziativa anticipata da alcuni rumor di inizio settimana, legata a doppio filo alle polemiche scaturite dal coinvolgimento del gruppo nel Project Maven. Per chi non ne fosse a conoscenza, si tratta di una partnership che dall’autunno scorso lega l’azienda californiana al Pentagono USA per l’impiego dell’IA nell’analisi delle immagini aeree catturate da droni nelle zone di conflitto. Pur trattandosi di algoritmi non destinati all’utilizzo in strumenti bellici, la collaborazione ha sollevato perplessità e malumori, tanto da portare bigG ad annunciare che non sarà rinnovata oltre la scadenza fissata per il 2019.

IA: i principi di Google

Una pagina mette nero su bianco i principi ai quali Google si atterrà nella definizione della propria attività, linee guida da seguire d’ora in poi. Hanno ben più di un punto in comune con quelli elencati da Microsoft ormai un paio di anni fa. L’obiettivo dichiarato è quello di porre l’IA al servizio della risoluzione dei problemi. Lo fa ad esempio Verily, divisione della parent company Alphabet al lavoro sulla ricerca medica, così come il team di bigG che insieme alla NASA ha scoperto un esopianeta proprio grazie agli algoritmi sviluppati.

Google aspira a creare tecnologie in grado di risolvere i problemi più importanti e ad aiutare le persone nella loro vita quotidiana. Siamo ottimisti a proposito dell’incredibile potenziale dell’IA e di altri sistemi avanzati nell’offrire possibilità alle persone, con grandi benefici per le generazioni attuali e future, per lavorare a un bene comune. Crediamo che queste tecnologie promuoveranno l’innovazione e spingeranno la nostra missione finalizzata a organizzare le informazioni del mondo rendendole universalmente accessibili e utili.

L’IA ha natura neutra, così come qualsiasi altro strumento o tecnologia. La sua azione può avere un impatto positivo o negativo a seconda dell’utilizzo che se ne fa. Ecco da dove scaturisce l’esigenza di stabilire dei principi, di fissare dei paletti oltre i quali non spingersi.

Riconosciamo al tempo stesso che i medesimi sistemi presentano sfide importanti che dobbiamo affrontare in modo chiaro, ragionato e fermo. Questi principi delineano il nostro impegno per uno sviluppo responsabile della tecnologia e stabiliscono aree d’applicazioni specifiche all’interno delle quali non opereremo.

Riassumiamo in breve i sette punti elencati da Google, obiettivi da perseguire nello sviluppo di soluzioni basate sull’IA.

  1. Benefici sociali: i passi in avanti nel campo dell’IA devono avere un impatto su tematiche di tipo sociale ed economico riguardanti la tutela della salute, la sicurezza, l’energia, i trasporti, la produzione e l’intrattenimento.
  2. Lotta ai pregiudizi: sebbene distinguere i comportamenti positivi da quelli negativi non sia sempre cosa semplice (talvolta la prospettiva cambia a seconda della cultura), algoritmi e organizzazione dei dati non dovrebbero mai promuovere azioni lesive sulla base di caratteristiche sensibili come razza, etnia, nazionalità, genere, reddito, orientamento sessuale, abilità, credo religioso e orientamento politico.
  3. Sicurezza: lo sviluppo dell’IA deve e dovrà sempre tenere conto della necessità di evitare qualsiasi possibile ripercussione dannosa su persone o cose.
  4. Responsabilità: i sistemi di intelligenza artificiale dovranno sempre offrire la possibilità di essere sottoposti a feedback e controllo da parte di personale umano.
  5. Privacy: trasparenza sulle modalità di trattamento dei dati e controllo da parte dei diretti interessati non devono mai venire meno.
  6. Ricerca scientifica: biologia, chimica, medicina e scienze ambientali sono alcune delle aree nelle quali l’intelligenza artificiale può avere un impatto enorme, è dunque bene mettere la conoscenza acquisita mediante l’impiego di questi sistemi a disposizione dell’intera comunità accademica, attraverso pubblicazioni e materiale accessibile a tutti.
  7. Coerenza con i principi: impegno nel limitare o impedire potenziali impieghi malevoli delle tecnologie.

Ancora più importante e interessante, forse, è l’elenco degli ambiti ai quali Google non destinerà le proprie soluzioni IA. Qui il riferimento a Project Maven è diretto ed esplicito.

  1. Tecnologie che causano o potrebbero causare un danno, tranne nel caso in cui i benefici non siano maggiori rispetto all’impatto negativo.
  2. Armi e altri sistemi il cui obiettivo principale, diretto o indiretto, è quello di attaccare le persone.
  3. Tecnologie che raccolgono o analizzano informazioni per la sorveglianza vìolando le norme vigenti a livello internazionale.
  4. Tecnologie il cui utilizzo vìola i principi internazionali e le leggi sui diritti umani.

Una dichiarazione d’intenti, quella di Google, redatta anche sulla base dei feedback raccolti, da addetti ai lavori, stampa e opinione pubblica. Non si commetta l’errore di pensare che l’intelligenza artificiale sia qualcosa di lontano, ancora al di fuori della nostra portata e della nostra quotidianità. Già agisce in forma quasi invisibile, ad esempio indicizzando le informazioni che di continuo consultiamo online o i feed dei social network ai quali affidiamo i nostri pensieri e le nostre azioni. Avrà un impatto sempre più profondo e tangibile sulle nostre vite. È bene prenderne coscienza.