App “nudify” su iPhone e Android: perché Apple e Google sono di nuovo sotto pressione

App “nudify” su iPhone e Android: perché Apple e Google sono di nuovo sotto pressione

Le app che usano l’intelligenza artificiale per creare immagini intime non consensuali continuano a comparire sugli store di Apple e Google, ed è questo il punto che sta facendo discutere più delle singole piattaforme coinvolte.

Il tema non riguarda solo la moderazione dei contenuti, ma anche il modo in cui gli store indicizzano, suggeriscono e lasciano emergere strumenti che, almeno sulla carta, dovrebbero essere bloccati. Per chi usa ogni giorno uno smartphone, il nodo è molto semplice: se app di questo tipo restano facili da trovare, significa che i controlli non stanno ancora reggendo davvero.

Che cosa sono le app “nudify”

Le cosiddette app “nudify” sfruttano modelli di AI per alterare fotografie reali e simulare corpi nudi o immagini intime partendo da scatti normalissimi. In alcuni casi si presentano come editor fotografici o strumenti creativi, ma il loro utilizzo reale può portare alla produzione di contenuti non consensuali. Ed è qui che il tema smette di essere una curiosità tecnologica e diventa un problema molto più serio, perché tocca la privacy, la reputazione personale e la sicurezza di chi finisce dentro queste manipolazioni senza aver dato alcun consenso.

Perché il caso sta facendo discutere ancora

La vicenda è tornata al centro dell’attenzione perché nuove analisi hanno segnalato che strumenti di questo tipo continuano a essere presenti negli store di Apple e Google nonostante le regole ufficiali delle piattaforme vietino contenuti sessualmente espliciti, abusi visivi e usi impropri dell’AI. Il punto più delicato, però, non è soltanto la loro presenza. A preoccupare è anche il fatto che queste app possano comparire nei risultati di ricerca, nei suggerimenti o comunque in percorsi di scoperta che ne aumentano la visibilità.

Questo dettaglio cambia molto la lettura del fenomeno. Se un’app riesce a restare online nonostante controlli e policy, il problema è già evidente. Ma se riesce anche a emergere con facilità davanti agli utenti, allora la questione riguarda l’intero funzionamento dello store e non soltanto qualche falla isolata nei sistemi di revisione.

Il limite dei controlli automatici

Le grandi piattaforme gestiscono quantità enormi di app, aggiornamenti, descrizioni e creatività pubblicitarie. In un contesto del genere, una parte dei controlli passa inevitabilmente da sistemi automatici e da revisioni che devono essere rapide. È proprio qui che si crea il problema: strumenti di questo tipo possono cambiare nome, descrizione, categoria o grafica, cercando di apparire come semplici app di fotoritocco o intrattenimento. Così facendo, riescono a confondersi più facilmente dentro un ecosistema enorme e in continuo movimento.

Il risultato è che le rimozioni, quando arrivano, spesso danno l’idea di essere una risposta successiva alla polemica pubblica più che un blocco preventivo realmente efficace. E in un tema così delicato, intervenire tardi non basta a rassicurare chi usa questi ecosistemi ogni giorno.

Perché il problema riguarda tutti, non solo il mondo tech

Il rischio non tocca solo personaggi pubblici o casi estremi. Uno degli aspetti più inquietanti di queste app è proprio la loro accessibilità. Basta una fotografia ordinaria, magari recuperata da un profilo social o scattata in un contesto quotidiano, per generare contenuti falsi che possono poi circolare molto velocemente. Questo rende il fenomeno molto più vicino alla vita reale di quanto si possa pensare leggendo il titolo di una notizia tech.

Per famiglie, ragazzi, adulti e utenti comuni il punto non è capire come funziona tecnicamente il software, ma prendere atto che strumenti di manipolazione sempre più semplici stanno diventando disponibili dentro canali percepiti come affidabili. Ed è proprio questa normalizzazione a rendere il problema più difficile da ignorare.

Apple e Google sono sotto pressione, ma non basta rimuovere qualche app

Quando emergono nuovi report o segnalazioni pubbliche, le piattaforme tendono a intervenire con rimozioni mirate. Ma il nodo è più ampio. Il problema non è solo eliminare singole app, ma capire se i sistemi di controllo siano davvero in grado di riconoscere e fermare in modo stabile strumenti che cambiano rapidamente forma e linguaggio. Finché questo non accade, il rischio è di assistere allo stesso schema ancora e ancora: polemica, rimozione, ritorno del fenomeno sotto un altro nome.

Alla fine, il caso riapre una domanda molto concreta: gli store sono davvero pronti a gestire gli abusi legati all’AI generativa? Il tema non è teorico e non riguarda il futuro. È già qui, dentro piattaforme usate ogni giorno da milioni di persone. E finché strumenti del genere continueranno a riapparire con facilità, resterà la sensazione che la moderazione stia inseguendo il problema invece di riuscire a fermarlo davvero.

Ti consigliamo anche

Link copiato negli appunti
Change privacy settings
×