Cos’è il RAG e come Claude lo usa per ricordare tutto

Il RAG (Retrieval-Augmented Generation) è la tecnologia che permette alle AI di usare, oltre alle informazioni presenti nella chat in corso, anche contenuti che non fanno parte del loro addestramento originale — documenti caricati, database esterni o conversazioni precedenti. Claude lo ha introdotto prima nei Progetti, oggi lo estende a tutte le chat: puoi recuperare contesto da sessioni passate senza rispiegare nulla.

È il primo passo concreto verso un’AI che cresce, impara e ti conosce davvero.

Il problema che conosci bene

Quante volte hai chiesto conferma di una cosa che eri sicuro di aver detto a ChatGPT — un dettaglio, una decisione, un vincolo — e ti ha risposto come se non gliene avessi mai parlato? Non era un bug. Era il limite strutturale di qualsiasi AI senza memoria persistente.

Ma c’è uno scenario ancora più comune per chi lavora su progetti reali. Hai un system prompt nel tuo Progetto, il contesto principale è sempre disponibile. Poi la mattina stessa, mentre lavori, ti viene un’idea in una chat diversa — un collegamento tra due temi, una variante di struttura, una soluzione a un problema che stavi affrontando altrove. La elabori lì, in quel momento. Fine della chat.

Il pomeriggio torni al progetto principale. Quell’idea è persa. Non nell’addestramento del modello, non in nessun documento — sepolta tra i messaggi di una chat che devi andare a riaprire e scorrere manualmente per ritrovarla. Se la ritrovi.

Moltiplicato per settimane di lavoro, questo è tempo reale che scompare. Non in grandi blocchi — in micro-perdite continue che non si vedono ma si sentono. La causa precisa di questo limite, e perché è così difficile da eliminare del tutto, è spiegata in Perché l’AI dimentica quello che scrivi.

Illustrazione anime di un utente perplesso davanti a uno schermo con scritto RAG Raggio Aumentato Grandmachine

Cos'è il RAG: la memoria che l'AI non aveva

Per capire il RAG bisogna prima capire come funziona un modello linguistico senza di esso. ChatGPT, Claude, Gemini: tutti hanno una conoscenza fissa, acquisita durante l’addestramento su enormi quantità di testo. Quella conoscenza si ferma a una data precisa. Tutto quello che è venuto dopo, il modello non lo sa. E tutto quello che gli hai scritto ieri, in un’altra chat, non lo ricorda.

Sarà capitato ad alcuni di voi di usare un modello secondario, magari in locale o un modello gratuito di generazione precedente, e di chiedergli informazioni su Claude Opus 4.7 o altri modelli recenti. Nel peggiore dei casi vi avrà risposto che quella versione non esisteva, che l’ultima era la 4.5, aggiungendo magari che si trattava di una notizia falsa. Parlando di qualcosa che usavate ogni giorno. Questo non è un difetto del modello: è semplicemente il limite di chi non ha accesso a informazioni più recenti del proprio addestramento. Un limite che riguarda anche i modelli più famosi, in misura diversa: I modelli AI gratuiti sono davvero inferiori a ChatGPT e Claude?

Il RAG — Retrieval-Augmented Generation — risolve questo in modo elegante. Invece di affidarsi solo alla memoria interna, il sistema recupera informazioni da fonti esterne nel momento preciso in cui servono. Cerca, recupera, poi risponde, tenendo conto di quello che ha trovato.

Il funzionamento concreto è semplice da visualizzare: immagina un archivio. Quando arriva una domanda, il sistema cerca nell’archivio i contenuti più rilevanti, li porta davanti al modello insieme alla domanda originale, e il modello costruisce la risposta con entrambi. Non è memoria biologica: è recupero attivo di contesto nel momento in cui serve.

Nei sistemi aziendali questo approccio esiste da anni. Il passo avanti recente è stato portarlo dal contesto di singoli documenti o progetti alla memoria completa di ogni chat: non più solo “recupera dal file che ti ho caricato”, ma “recupera da qualsiasi conversazione che abbiamo avuto”. Uno strumento che conosce il tuo lavoro perché lo ha seguito dall’inizio.

Come Claude usa il RAG oggi

Claude ha introdotto il RAG in modo graduale, e vale la pena capire i due passaggi perché raccontano una direzione precisa.

Il primo è stato la funzione Progetti. All’interno di un Progetto, Claude può accedere a file, istruzioni e conversazioni precedenti legate a quel contesto specifico. Un system prompt fisso, documenti di riferimento, lo stile che vuoi usare: tutto disponibile ogni volta che apri una chat dentro quel progetto, senza doverlo riscrivere. E non solo testo: Claude era già allora l’unica AI a cui potevi associare documenti e immagini direttamente al progetto, non un singolo system prompt con decine di nozioni scritte a mano, ma file reali allegati una volta per tutte.

Era già un salto rispetto alla chat standard. Ma restava confinato: funzionava solo se avevi organizzato il lavoro dentro un Progetto, e solo con i file che avevi caricato tu.

Il secondo passaggio è più recente ed è quello che cambia le regole. Claude ha esteso la memoria a tutte le chat, non solo ai Progetti. Quando gli chiedi di recuperare qualcosa — un’idea sviluppata due settimane fa, lo stile di un articolo scritto il mese scorso, il contesto di un progetto in corso — Claude cerca nelle conversazioni precedenti e recupera quello che è rilevante.

Non serve avere tutto organizzato in anticipo. Non serve ricordarsi dove hai scritto cosa. Basta chiedere.

Cosa significa per il tuo workflow

Anche con un buon system prompt e diversi documenti allegati, ci saranno sempre momenti in cui il progetto non è aggiornato con gli ultimi sviluppi. Basta una sessione di lavoro non documentata, e l’AI perde il filo. Nei lavori dove quel filo è fondamentale, come romanzi, rendiconti, piani editoriali, contabilità, questo significa ricominciare a costruire il contesto da capo.

Il RAG elimina quel rischio. E non solo: evita anche di dover aggiornare le istruzioni del progetto con ogni nuovo dettaglio, allegando una moltitudine di file che, con il tempo e con la crescita del progetto, andrebbero ad appesantire ogni chat e rallentare il lavoro.

Non è automazione nel senso di “Claude fa tutto da solo”. È eliminazione del lavoro meccanico per fare spazio al lavoro che conta.

Il cambio di paradigma è questo: prima ogni chat era un’isola. Ora è parte di una rete. Puoi riprendere un filo a metà giornata, in una chat diversa da quella in cui hai iniziato, senza perdere il contesto. Puoi avere un’idea mentre lavori su tutt’altro e dire semplicemente “collegami questo a quello che stavamo costruendo”. Adesso quell’isola è un arcipelago, collegato da moltissimi ponti.

Illustrazione confronto senza RAG e con RAG: isole isolate vs isole collegate da ponti

Claude si allontana sempre di più da ChatGPT

C’è una domanda che emerge naturale quando si vede questa funzione in azione: perché ChatGPT, che controlla circa l’80% del mercato, non ha ancora qualcosa di equivalente?

La risposta di OpenAI è che la memoria esiste, e in effetti esiste, sotto forma di frammenti salvati manualmente o in automatico. Ma è un sistema diverso: non recupera contesto in modo attivo e contestuale, non cerca nelle conversazioni passate in risposta a una richiesta specifica. Quando scrivi “ricordati di quello che ti ho detto l’altra volta”, ChatGPT risponde che non può accedere alle chat precedenti. Non è una scusa: è un limite tecnico reale.

Questo gap non è un dettaglio. Per chi usa l’AI in modo continuativo e professionale, la differenza tra uno strumento che ricorda e uno che non ricorda è la differenza tra un collaboratore e un foglio bianco che si riapre ogni mattina.

Claude ha alzato l’asticella su un aspetto che sembrava accessorio e che invece si rivela centrale: la continuità del contesto nel tempo. Non è ancora un’AI che capisce chi sei in senso profondo, ma è il primo passo concreto verso uno strumento che conosce il tuo lavoro quanto basta per non farti ricominciare ogni volta da zero.

Una volta superato questo collo di bottiglia, è difficile immaginare di tornare indietro. E chi ha già provato questa funzione lo sa. Se vuoi capire quanto il gap tra i due strumenti si sia allargato su altri fronti, puoi leggere ChatGPT è ancora il migliore? Ecco perché Claude l’ha già superato.

Lascia un commento