Ora puoi usare l'AI di Claude gratis con un semplice trucco (legale): addio abbonamento premium

Ora puoi usare l'AI di Claude gratis con un semplice trucco (legale): addio abbonamento premium

Claude Code è gratuito. Non è uno slogan pubblicitario: è la struttura tecnica del prodotto. Lo strumento in sé è open source e non costa nulla da installare.

Quello che costa — e che ha spinto molti a sottoscrivere abbonamenti Pro o Max da 20 dollari al mese — è il modello linguistico che ci gira sopra. E il modello si può cambiare.

Per capire perché questo cambia tutto, bisogna capire come funziona Claude Code. Non è un’intelligenza artificiale autonoma. È uno strato intermedio: legge i file del progetto, decide quali modifiche apportare, esegue comandi da terminale, gestisce il contesto. Ma l’elaborazione vera — quella che capisce il codice e genera l’output — la fa il modello sottostante, di default Claude Sonnet o Opus, entrambi a pagamento tramite API Anthropic.

Come usare Claude gratis: il sistema

Claude Code espone però due parametri che cambiano questa equazione. Il flag –model permette di specificare un modello diverso. La variabile d’ambiente ANTHROPIC_BASE_URL permette di redirigere le chiamate verso un endpoint completamente diverso dai server Anthropic. Puntare entrambi verso un’istanza locale di Ollama — software gratuito che esegue modelli open-weight direttamente sul proprio hardware — produce una configurazione di agentic coding funzionante a costo zero.

Come usare Claude gratis: il sistema-Webnews.it

Ollama si scarica gratuitamente, si sceglie un modello compatibile, si avvia un server locale. Da quel momento Claude Code interagisce con quel server esattamente come farebbe con l’API di Anthropic. L’interfaccia non cambia. La modifica dei file, l’esecuzione di comandi, la gestione del contesto: tutto funziona.

I modelli consigliati in questo momento per uso con Ollama sono Qwen3 e Gemma 4. Qwen3, sviluppato specificamente per la programmazione agentica, è ottimizzato per i flussi di lavoro frontend e il ragionamento a livello di repository. Esiste nelle varianti da 27 e 35 miliardi di parametri, con un peso di circa 17-24 GB a seconda della versione. Gemma 4, l’ultima famiglia di DeepMind, ha un’architettura MoE che utilizza solo 4 miliardi di parametri attivi su 26 totali — il che la rende gestibile anche su hardware meno potente.

Qui sta il problema reale, e vale la pena essere diretti: eseguire localmente un modello focalizzato sulla programmazione è una delle operazioni più pesanti che si possano chiedere a un computer consumer. Chi ha un Mac con chip Apple Silicon e almeno 32 GB di memoria unificata è in posizione favorevole, grazie all’architettura che condivide RAM tra CPU e GPU. Chi lavora con 16 GB non è escluso — la variante Gemma 4 E4B, progettata per dispositivi edge, funziona con circa 5 GB in modalità a 4 bit — ma le prestazioni scendono.

Il dato contro-intuitivo è questo: il divario qualitativo tra questi modelli locali e Claude Opus, per le attività di programmazione quotidiana, si è ridotto più di quanto ci si aspetterebbe. Non sono equivalenti, ma per refactoring, debugging e scrittura di funzioni standard la differenza è meno netta di quanto la differenza di prezzo lascerebbe supporre. La Gemma 4 E4B pesa circa 5 GB. Opus, tramite API, può costare diversi dollari per sessione intensa di lavoro.

Ti consigliamo anche

Link copiato negli appunti
Change privacy settings
×