Il tribunale a Facebook: obbligato a cancellare

Il tribunale di Napoli dà ragione a sé stesso rigettando il reclamo di Facebook a proposito del caso Cantone: quelle cose andavano cancellate subito.
Il tribunale di Napoli dà ragione a sé stesso rigettando il reclamo di Facebook a proposito del caso Cantone: quelle cose andavano cancellate subito.

Il caso di T.C., la donna napoletana protagonista di un cyber harrassment clamoroso che l’ha portata a un gesto estremo, sembrava ormai un file giudiziario a metà tra la diffamazione e l’istigazione. Invece un pronunciamento del tribunale di Napoli si rivolge a Facebook scardinando una delle poche certezze di questo habitat: che i social non hanno obbligo di monitorare e di conseguenza cancellare contenuti controversi senza che ci sia la direzione imposta dai giudici o da un’autorità garante.

Il caso insomma, non è finito, e ancora una volta anche il potenziale distruttivo nei confronti del dibattito attorno al web e alla presunta “gogna” (termine insopportabile e illetterato). La novità viene dalla notizia che il tribunale di Napoli ha parzialmente rigettato il reclamo di Facebook contro l’ordinanza dello stesso che aveva imposto di cancellare i contenuti collegati ai video che avevano portato la donna all’esasperazione. Parrebbe una decisione coerente e giusta, in realtà così com’è – ma in attesa di leggerla e capirla meglio – è una bomba dentro il social network. Fino ad oggi, infatti, è sempre stato valido un principio che sembrava una stella polare: secondo la direttiva EU e la legge 70 del 2003, non c’è alcun obbligo per l’hosting provider (il modo in cui viene legalmente definito un oggetto come Facebook in Italia) di controllare preventivamente tutte le informazioni caricate sulla varie pagine. Non potendo, perché sarebbe impossibile, non può neanche rimuovere i contenuti senza che la richiesta venga da soggetti “qualificati”, come l’autorità garante della privacy oppure l’agcom per il copyright (lasciando per il momento la questione delle violazioni degli standard stessi della community sul sito che sono gestiti internamente tramite segnalazioni degli utenti). Invece il tribunale di Napoli dice in sostanza che avrebbe dovuto cancellarli subito.

[embed_fb]https://www.facebook.com/flusa1/posts/10154711757228069[/embed_fb]

Cancellare secondo quale criterio?

Il problema, sollevato ad esempio dall’avvocato Fulvio Sarzana, è che non si capisce come un tribunale possa parlare di casi “manifesti” di illecito: in che senso? E secondo quale criterio? «Può aprire un’autostrada di segnalazioni», racconta Sarzana, preoccupato dal fatto che il rigetto è inoppugnabile. Un’ipotesi che Facebook Italia avrebbe tutte le ragioni per scongiurare, visto che si scardina il principio fondamentale per cui non ha obbligo di monitorare preventivamente quanto viene pubblicato: il verbo monitorare è un attimo farlo diventare sorvegliare e poi censurare. Come intende rispondere Facebook al tribunale che gli dice che avrebbe dovuto dare ascolto subito alla famiglia della donna? Assomiglia a un atto di accusa, se non altro morale.

La nuova privacy

C’è però un altro punto di vista, quello di chi – come l’avvocato Andrea Lisi (anche lui si occupa di diritto dell’informatica e proprio con Sarzana ha alimentato un thread sul social) – ritiene abbastanza normale che il diritto dell’interessato che si vede violato un dato sensibile come il proprio corpo (la corporeità è il primo dato sensibile, molti lo scordano) sia attivabile direttamente dall’interessato nei confronti del service provider. Questo alla luce della nuova legge sulla privacy del regolamento europeo 679 che andrà a regime tra due anni e anche interpretando largamente il comma dell’articolo 17 della legge 70 che dice:

Il prestatore è civilmente responsabile del contenuto di tali servizi nel caso in cui, richiesto dall’autorità giudiziaria o amministrativa avente funzioni di vigilanza, non ha agito prontamente per impedire l’accesso a detto contenuto, ovvero se, avendo avuto conoscenza del carattere illecito o pregiudizievole per un terzo del contenuto di un servizio al quale assicura l’accesso, non ha provveduto ad informarne l’autorità competente.

Dunque, bisogna capire: questa pronuncia del tribunale di Napoli è un passo indietro o uno in avanti? E come può cambiare il rapporto tra chi vuole cancellare contenuti ritenuti sensibili e chi ritiene che non spetti alla singola individualità decidere ma ad una parte terza? Che sia giusto che Big F debba attivarsi in questi casi può essere un discorso interessante, anche se non scevro da scenari complicati, per esempio fiumi di richieste ex-post con le finalità più disparate e in palese contrasto col protocollo lungamente stabilito per il diritto all’oblìo. Di certo le istituzioni e i poteri di questo paese continuano ad avere un atteggiamento emotivo rispetto a casi come questo, e non aiuta granché.

Aggiornamento (h 18.55)

Facebook Italia ha intanto risposto al rigetto del proprio reclamo in tribunale. Poche parole di un portavoce del social network, che ribadiscono l’impegno contro il bullismo e si concentrano su un aspetto salvato dal tribunale, quello delle garanzie sulla vigilanza preventiva. Che viene smentita. In altri termini il social promette che cercherà di evitare casi simili in futuro, ma restando nella cornice ex post e non ex-ante:

Siamo profondamente addolorati per la tragica morte della Sig.na Cantone e confermiamo il nostro impegno a lavorare con le autorità locali, gli esperti e le ONG per evitare che un caso simile accada di nuovo. Non tolleriamo contenuti che mostrino nudità o prendano volutamente di mira le persone al fine di denigrarle o metterle in imbarazzo. Contenuti come questi vengono rimossi dalla nostra piattaforma non appena ne veniamo a conoscenza. Accogliamo questa decisione perché chiarisce che gli hosting providers non sono tenuti al monitoraggio proattivo dei contenuti.

Ti consigliamo anche

Link copiato negli appunti