L’ultima frontiera dell’ottimizzazione personale non passa per una nuova app di biohacking, ma per una chatbox.
Tra i forum di settore e i canali social dedicati alla produttività, si è fatta strada un’idea tanto affascinante quanto pericolosa: utilizzare i modelli linguistici di grandi dimensioni per l’auto-terapia.
Il bersaglio preferito è la CBT (Terapia Cognitivo-Comportamentale), che per sua natura strutturata e protocollare sembra il codice perfetto da dare in pasto a un’intelligenza artificiale. Tuttavia, dietro la comodità di un’interfaccia sempre disponibile, si nasconde un errore sistemico che rischia di mandare in crash la salute mentale degli utenti.
Il bug dell’algoritmo compiacente
Il malinteso di fondo risiede nella natura stessa della tecnologia. Quando interpelliamo un LLM per ristrutturare un pensiero ansioso, non stiamo dialogando con un’entità che comprende il nostro disagio, ma con un predittore statistico di token.
Se la CBT reale si fonda sul mettere in discussione le distorsioni cognitive, l’AI è progettata per essere utile e piacevole, un fenomeno noto come alignment.
Questo paradosso crea un cortocircuito pericoloso: il chatbot, pur di assecondare il flusso della conversazione, può finire per validare involontariamente deliri o pensieri ossessivi, trasformando uno strumento di cura in una cassa di risonanza per la patologia invece di agire come filtro critico.

Cosa rischi se usi l’intelligenza come psicologo
La voragine della responsabilità e dei dati
Oltre al rischio clinico, esiste una criticità legata alla sovranità delle informazioni sensibili. Nel momento in cui confessiamo a un server remoto i nostri traumi più profondi, stiamo alimentando un dataset commerciale con dati che nessuna cartella clinica tradizionale oserebbe esporre con tanta leggerezza.
Mentre un terapeuta umano è vincolato dal segreto professionale e da una responsabilità legale diretta, le big tech si scudano dietro disclaimer scritti in minuscolo.
Se un consiglio generato da un algoritmo dovesse spingere un utente verso l’autolesionismo, non esiste un responsabile a cui chiedere conto, ma solo un modello probabilistico che ha eseguito il prossimo calcolo matematico, lasciando l’individuo solo davanti alle conseguenze di un’interazione priva di autentica alleanza terapeutica.