Tre ragazze adolescenti e le loro famiglie hanno deciso di portare in tribunale una delle aziende più discusse del momento, dopo aver scoperto che i loro volti erano stati usati per creare contenuti sessuali falsi e altamente realistici generati con l’intelligenza artificiale.
È una storia che mette insieme tecnologia, vulnerabilità e una sensazione difficile da spiegare: quella di non avere più il controllo sulla propria immagine.
La causa riguarda xAI, la società legata a Elon Musk, e il suo sistema Grok, accusato di aver reso possibile la creazione e la diffusione di materiale abusivo generato artificialmente. Secondo quanto emerge dai documenti legali, le immagini sarebbero state prodotte senza alcun consenso, utilizzando i volti reali delle vittime.
Immagini create senza consenso e diffuse online
Tutto si concentra su una funzione che, per alcuni giorni tra dicembre e gennaio, avrebbe permesso agli utenti di generare immagini intime false partendo da fotografie reali. In pratica, bastava una foto e l’IA faceva il resto, producendo contenuti che sembravano veri.
I numeri fanno impressione: si parla di milioni di immagini generate in pochi giorni, molte delle quali legate a questa pratica definita nudificazione. Un fenomeno che non resta confinato alla curiosità tecnologica, ma entra direttamente nella vita delle persone coinvolte.
Per chi subisce questo tipo di esposizione, il problema non è solo la presenza online di immagini false. È il fatto che quelle immagini appaiono credibili, riconoscibili, e difficili da rimuovere una volta diffuse.
Quando la tecnologia entra nella vita reale
Uno dei casi descritti nella denuncia racconta di una ragazza che ha scoperto tutto attraverso un messaggio anonimo ricevuto su Instagram. Da lì, il passaggio è stato rapido: gruppi su piattaforme come Discord, condivisione dei contenuti, circolazione incontrollata.
Non è qualcosa che resta confinato allo schermo. Le conseguenze arrivano nella vita quotidiana: scuola, relazioni, sicurezza personale. Il senso di esposizione diventa continuo, perché non si sa dove possano finire quelle immagini e chi possa vederle.
Le famiglie coinvolte parlano apertamente di perdita di privacy, ma anche di dignità e serenità. Parole che, in questo contesto, non suonano astratte.
Le responsabilità e le accuse contro xAI
La causa sostiene che xAI non avrebbe adottato misure adeguate per impedire questo tipo di utilizzo della tecnologia. In particolare, si contesta l’assenza di filtri efficaci e il fatto che il sistema sia stato accessibile anche tramite servizi di terze parti.
Secondo i legali, le richieste per generare questi contenuti sarebbero comunque passate dai server dell’azienda, rendendola responsabile di ciò che è stato creato e diffuso. Una linea che potrebbe avere conseguenze pesanti se confermata.
Nel frattempo, la vicenda ha già attirato l’attenzione delle istituzioni. In Europa è partita un’indagine, mentre alcuni Paesi hanno preso decisioni drastiche limitando l’accesso alla piattaforma.
Un confine sempre più difficile da vedere
Quello che emerge da questa storia è anche un altro aspetto: quanto siano diventati realistici i contenuti generati con intelligenza artificiale. Non si tratta più di immagini chiaramente finte, ma di materiali che possono sembrare autentici anche a uno sguardo attento.
Ed è qui che la questione si complica. Perché se diventa difficile distinguere tra vero e falso, anche difendersi diventa più complicato. E quando i volti sono reali, le conseguenze non restano virtuali.
La causa è solo all’inizio. Ma il punto resta aperto, e riguarda tutti: quanto controllo abbiamo davvero sulla nostra immagine, quando basta una tecnologia accessibile per trasformarla in qualcosa che non abbiamo mai scelto?