L'algoritmo di Facebook che algoritmo non è

La stampa si lamenta del fallace algoritmo di censura di Facebook, reo di eliminare contenuti senza criterio: ma di quale algoritmo si parla?
La stampa si lamenta del fallace algoritmo di censura di Facebook, reo di eliminare contenuti senza criterio: ma di quale algoritmo si parla?

Il Codice Zuckerberg. Se ci si dovesse basare sulle polemiche della stampa italiana sul funzionamento di Facebook, citare Dan Brown sarebbe fin troppo facile. Non solo perché a cadenza quotidiana vengono messi in evidenza i più fantomatici complotti alla base del social network, ma anche perché ora è chiamato in causa un misterioso algoritmo ipoteticamente responsabile della censura dei contenuti. La realtà rischia di essere però decisamente differente da come i grandi quotidiani – con orientamento bipartisan, senza eccezione alcuna – la stanno descrivendo.

Il tutto nasce da un intervento di Pierluigi Battista, noto editorialista del Corriere della Sera, pubblicato sul quotidiano lo scorso 8 luglio e ora rapidamente diffusosi sul Web, grazie anche alla pubblicazione della scansione sulle pagine di Non Leggere Questo Blog (riportiamo i link in calce, nelle fonti). Nell’intervento, uno sguardo critico sulla censura dei contenuti sul social network più popolato al mondo, una sorta di j’accuse a un misterioso algoritmo che sancirebbe vita, morte e miracoli di messaggi e fotografie su singolo profili, pagine e gruppi. Già: dall’eliminazione di alcuni commenti di Giuliano Ferrara alle immagini di Avvenire, passando per alcuni gruppi anticlericali, lo spietato algoritmo di Facebook mieterebbe vittime senza alcuna logica. Peccato, però, che parlare di questo fantomatico algoritmo sia decisamente fuorviante: sarà quindi fuorviante anche l’analisi che ne deriva?

Spietato e crudele algoritmo

«Did I get my facts straight?», così direbbero gli anglofoni nel domandarsi l’affidabilità di certe informazioni. Ed è quello che ci si propone di fare in questo intervento, andando a spiegare – per l’ennesima volta, ma a quanto repetita non iuvant – come funzioni la “censura” su Facebook.

Il social network di Mark Zuckerberg è abbastanza esplicativo su quel che si può fare e ciò che è invece vietato: i TOS, i Term Of Service accettati al momento dell’iscrizione, sono decisamente chiari in questo. Vietate le immagini di nudo, vietata la discriminazione dalla razza all’orientamento sessuale, vietata la violazione della proprietà intellettuale altrui e molto altro ancora. Non si deve perciò procedere per approssimazione nel tentativo di comprendere l’eliminazione di un contenuto, basta leggere i TOS.

Letti, compresi e archiviati tali TOS, si può quindi passare all’analisi di come la “censura” sia implementata. I livelli sono almeno quattro: le immagini, i contenuti del singolo sul proprio profilo, i contenuti generici di pagine o gruppi e i singoli messaggi di tali pagine o gruppi.

Le immagini: il seno criminale

«Avvenire, il quotidiano dei vescovi italiani, ha svelato che avete censurato l’immagine di una donna che allatta con la scusa del seno scoperto, ma avete ritenuto che non violasse regola alcuna un manifesto in cui si dice che «la Vergine Maria avrebbe dovuto abortire.»

Così scrive Battista nel suo intervento sul Corriere. Tralasciando come Facebook abbia già più volte spiegato come avvenga il processo di controllo delle immagini, quella del seno scoperto e dei casi di allattamento sul social network tiene banco da almeno un triennio ed è singolare che la stampa se ne accorga solo oggi grazie all’Avvenire. Il regolamento di Facebook vieta le immagini in cui si vedano esplicitamente i capezzoli – è per questo che sulla pagina delle Femen i capezzoli delle attiviste vengono preventivamente eliminati con Photoshop – indipendentemente dal contesto. Questo semplicemente perché sul social network ci sono 700 milioni di persone con una media di upload di 15 fotografie ciascuno al giorno: passarle tutte al vaglio della discrezione umana sarebbe impossibile. Così come esistono i software di riconoscimento facciale automatico, è molto probabile che vi siano dei software per il riconoscimento mammario automatico. E il software, non essendo dotato di senso critico, non è in grado di discriminare tra un seno hard e l’amore di una mamma per il suo neonato.

Fortunatamente a ogni rimozione di un’immagine vi è anche la possibilità d’appello – ed ecco perché parlare di “censura” è fuorviante – con cui i proprietari dei contenuti possono richiedere l’immagine sia passata al vaglio di un addetto in carne e ossa. E il paragone con gli insulti sulla Vergine Maria? Si vedano i paragrafi successivi.

Profili, pagine e messaggi: il potere della segnalazione

Quello delle fotografie in odor di nudità è forse l’unico ambito dove si può aver la ragionevole certezza dell’impiego di un sistema di rilevamento automatizzato, l'”algoritmo” così come lo spiega Battista. Negli altri casi, la situazione è più complessa ed evidentemente “umana”.

La censura su Facebook non può prescindere dal concetto di “segnalazione”: proprio per la presenza di quei 700 milioni di persone che ogni giorni pubblicano aggiornamenti su aggiornamenti, è impossibile per lo staff di Facebook poter leggere ogni singolo messaggio pubblicato sulla piattaforma. Anziché porre in essere un sistema automatico per l’eliminazione di alcune parole chiave – con tutti i limiti del caso – il social network ha pensato a uno strumento proattivo: l’utente può informare lo staff di contenuti che, secondo il suo stesso giudizio, non dovrebbero essere su Facebook. È un’arma spesso fallace, spesso altrettanto criticabile, ma già da sola spiega perché puntare il dito contro un fantomatico “algoritmo” sia del tutto inutile.

Il processo di segnalazione procede su più livelli. Per quanto riguarda i singoli profili, ovvero quel che l’utente condivide solamente con i propri contatti, non vi è un particolare interventismo da parte di Facebook: il segnalatore viene infatti invitato a nascondere gli aggiornamenti del contatto sgradito dalla homepage, si consiglia di rimuoverlo dagli amici, di bloccarlo o di inviare un messaggio per spiegare perché un contenuto abbia turbato le proprie aspettative. La motivazione è semplice: quel che accade su un profilo privato, a meno che non violi palesemente la legge, non danneggia l’intera comunità: è visibile da un numero ristretto di contatti. La gestione quindi non è qui algoritmica, bensì extragiudiziale: il social network invita i litiganti a trovare un accordo fra di loro, dichiarandosi neutrale.

Diverso il discorso per pagine o gruppi. Quando una singola pagina viene segnalata, il criterio apparente è il numero di segnalazioni pervenute da Facebook. Difficile che una singola segnalazione porti alla chiusura di una pagina, molto più probabile se queste raggiungono le centinaia. Lo scorso giugno, giusto per fare un esempio, Protesi di Complotto – una pagina satirica su complotti e cospirazionisti – ha subito uno stop di una decina di giorni con l’accusa di contenere materiali pornografici, a seguito di una campagna di false segnalazioni da parte di un gruppo di complottisti. In questo caso, vale il criterio della quantità: Facebook mette in stand-by la pagina, avvisa l’amministratore e avvia l’eventuale procedura d’appello per l’effettivo controllo dei materiali. Ed è quello che è successo a Protesi di Complotto: dopo aver chiesto la verifica, e appurata l’assenza di contenuti hard, la pagina è tornata correttamente online. Si può quindi parlare di censura quando vi è possibilità di revisione? Lo stesso vale per la pagina d’insulti sulla Vergine Maria citata da Battista: lo staff del social network non ha modo di scandagliare Facebook alla ricerca di messaggi blasfemi, li analizza in caso di esplicita allerta. Probabile, di conseguenza, che la pagina non abbia ricevuto un numero di segnalazioni sufficiente per avviare un controllo.

Ancora più complesso, invece, è il caso della sparizione di singoli messaggi su pagine pubbliche. In questo caso il regolamento di Facebook diventa ferreo e la verifica è esclusivamente umana, anche quando non immediatamente comprensibile. L’utente segnala il singolo messaggio, indicando la giusta categoria di violazione – dalla pornografia all’incitamento all’odio e via dicendo – e la denuncia viene presa in carico dallo staff, con la successiva comunicazione degli esiti del controllo tramite una notifica al segnalante. È il caso dell’intervento di Giuliano Ferrara: qualcuno ha segnalato la parola “fr*ci” – e qui l’asterisco di censura abbiamo deciso di inserirlo volontariamente, nessun algoritmo – e lo staff di Facebook, in base a quanto riportato nei TOS dove si vieta espressamente un linguaggio di derisione sull’orientamento sessuale – ha di conseguenza eliminato il messaggio.

Non sempre queste procedure portano all’effetto sperato: a volte status in evidente odor di violazione non vengono cassati dallo staff con tanto di motivazione. E la fallacia umana, la discrezionalità tipica di un individuo giudicante in ufficio di Menlo Park, è il segno sempre più evidente di quell’algoritmo Facebook che algoritmo in realtà non è.

Al lupo, al lupo!

È chiaro: su Facebook non c’è alcun algoritmo che scandaglia parola per parola status e contenuti, per quanto tecnologico rimane un sistema sostanzialmente umano. Con tutti i pregi e i limiti del caso, come dimostrano spesso gli esiti di alcune segnalazioni rigettate dallo staff. Non sarà, allora, che si gridi al lupo prima ancora che questo morda? E così sulla stampa ci si interroga su un algoritmo, ma non sull’opportunità di disquisire di un argomento su cui, forse, non si ha piena consapevolezza.

Ti consigliamo anche

Link copiato negli appunti