Ling scrive italiano meglio di ChatGPT: perché un modello cinese batte tutti sul nostro giornalismo

TL;DR: Ling 2.6 non è stato progettato per l’italiano, eppure usa “cala come una mannaia” e “il rovescio della medaglia” nel contesto giusto. ChatGPT e Claude non lo fanno spontaneamente. Il motivo non è nel tokenizer — è nel tipo di testi su cui Ling è stato addestrato.

Ren reagisce incredulo davanti a InclusionAI Ling 2.6 1t nella sua stanza creativa mentre scopre un modello AI cinese capace di scrivere testi in italiano di qualità sorprendente.

Un modello cinese che scrive italiano come un giornalista

Ling 2.6 è un modello sviluppato da InclusionAI, un’azienda cinese. Non è stato costruito pensando all’italiano. Non ha un team dedicato alle lingue europee e non è stato ottimizzato per il mercato italiano. Eppure, quando gli chiedi di scrivere un articolo in italiano, tira fuori “cala come una mannaia”, “il rovescio della medaglia”, “oro colato” — espressioni idiomatiche giornalistiche usate nel contesto giusto, senza forzature e senza che nessuno gliele abbia insegnate esplicitamente.

Non è un dettaglio estetico. Chi produce contenuti in italiano sa bene che la differenza tra un testo che suona italiano e uno che suona “tradotto dall’inglese” è la differenza tra un articolo che trattiene il lettore e uno che lo perde dopo il secondo paragrafo. Il ritmo sintattico, le metafore, le pause — sono elementi che i modelli anglofoni tendono ad appiattire, perché li hanno imparati da testi che non erano mai stati pensati in italiano.

La domanda ovvia è: come fa un modello cinese a scrivere meglio in italiano di modelli che hanno visto decine di volte più testo europeo? La risposta non sta nella quantità — sta nella selezione di quello che ha imparato.

Training data di qualità contro training data abbondante

GPT e Claude hanno visto enormi quantità di italiano durante l’addestramento. Il problema è che la maggior parte di quell’italiano era italiano di bassa qualità: post di Reddit scritti male, articoli di Wikipedia dal tono enciclopedico e piatto, traduzioni automatiche dall’inglese che mantengono la struttura della lingua di partenza. Imparare l’italiano così significa imparare una versione degradata — grammaticalmente corretta, stilisticamente povera.

Il dataset di Ling, stando a quanto emerge dall’uso pratico e dalle informazioni disponibili sul modello, include una porzione significativa di giornalismo italiano di qualità — Corriere della Sera, Repubblica, fonti istituzionali. Non si tratta di una percentuale alta in termini assoluti. Si tratta di testi selezionati, dove le espressioni idiomatiche esistono perché qualcuno le ha scelte consapevolmente, dove il ritmo della frase è stato costruito da un redattore che pensava in italiano.

Il risultato è quello che i linguisti chiamano “fertilità” del tokenizer — ma nella versione inversa: non quanti token servono per rappresentare una parola, ma quanto significato riesce a trasferire ogni token. Un modello che ha imparato l’italiano dai titoli del Corriere porta con sé un bagaglio culturale che un modello che lo ha imparato dai forum non ha. E quel bagaglio si sente.

Se ti stai chiedendo se vale la pena usare modelli non-frontier per il lavoro quotidiano, puoi leggere anche: AI gratis in locale: sono davvero così inferiori a ChatGPT e Claude?

ChatGPT, Claude e Ling sullo stesso testo: dove si vede la differenza

Il confronto tra i tre modelli su testi in italiano produce risultati abbastanza stabili, indipendentemente dall’argomento.

ChatGPT produce testo corretto, neutro, prevedibile. È il modello commodity: funziona, non sbaglia, non sorprende. Quando gli chiedi un articolo su un argomento tecnico ottieni un testo che potrebbe stare su qualsiasi blog. Nessuna espressione idiomatica, nessun guizzo stilistico, nessuna metafora che non sia già stata usata mille volte. Non è un difetto — è una scelta di design. ChatGPT è costruito per essere utile a tutti, non per scrivere con una voce riconoscibile.

Claude gioca su un campo diverso. Il suo vantaggio non è stilistico ma analitico: quando ha accesso a una ricerca web, seleziona informazioni che molti altri modelli ignorerebbero, costruisce argomentazioni più solide e produce testi che hanno una struttura logica difficile da replicare. In italiano scrive bene, ma il suo punto di forza emerge soprattutto quando c’è ragionamento da fare — non quando c’è stile da esprimere.

Ling perde su analisi, selezione delle fonti e ragionamento complesso. Non è il modello a cui affidarsi per strutturare un’argomentazione articolata o per sintetizzare documentazione tecnica. Ma quando il compito è scrivere in italiano in modo che suoni italiano, produce output che i modelli frontier raramente eguagliano. Non perché sia più intelligente — perché ha imparato la lingua da chi la usava bene.

Il limite che nessuno dice: dove Ling si inceppa

L’italiano giornalistico non è l’unico italiano che esiste. E qui Ling mostra i suoi limiti in modo abbastanza netto.

Il tono colloquiale è il primo scoglio. Quando gli chiedi di scrivere come parlerebbe un amico, o di adottare un registro informale vicino al parlato, il risultato è meno convincente. L’italiano che ha imparato è quello dei giornali — non quello di una conversazione, di un messaggio su WhatsApp o di un post che deve sembrare scritto da una persona reale.

Il ragionamento lungo è il secondo limite. Su testi che richiedono di tenere il filo per molti paragrafi, di costruire un’argomentazione progressiva o di gestire molte variabili insieme, Ling è meno affidabile di Claude. Non è un problema di lingua — è un problema di architettura e di come il modello gestisce il contesto.

Infine, non è gratuito. Il piano free su OpenRouter esisteva fino all’8 maggio. Per un uso continuativo e produttivo serve un piano a pagamento — e a quel punto il confronto con ChatGPT Plus o Claude Pro diventa una valutazione economica oltre che qualitativa. C’è da dire però, che se il vostro obiettivo è generare testi in italiano, 10$ su Openrouter a 0,30$/M in Inpout e 2,50$ per milione in output ci fate si e no almeno un paio di mesi.

Ren indica Ling 2.6 su schermo mentre il suo quaderno rivela la confessione: l'AI cinese parla italiano meglio di lui

Il vantaggio nascosto: nessun carattere cinese nell'output

C’è un problema che accomuna quasi tutti i modelli cinesi quando vengono usati per scrivere in italiano: lasciano tracce della lingua madre nell’output. Qwen, DeepSeek e altri modelli low cost cinesi tendono a inserire caratteri cinesi nel mezzo del testo italiano — soprattutto nei passaggi più tecnici, nelle liste o quando il contesto è lungo. Non succede sempre, ma succede abbastanza spesso da rendere il controllo manuale obbligatorio.

Con Ling questo problema non esiste. Il modello genera direttamente in italiano senza passare per una fase intermedia in cinese — non traduce, pensa già nella lingua di output. Il risultato è che non ci sono caratteri fuori posto, nessun ideogramma comparso per errore a metà paragrafo, nessuna riga da cancellare prima di pubblicare.

Per chi usa modelli in produzione e pubblica contenuti senza rileggerli riga per riga, questa non è una caratteristica secondaria. È la differenza tra uno strumento affidabile e uno che richiede un revisore. I modelli cinesi economici sono spesso ottimi per elaborare numeri, strutturare dati o rispondere a domande tecniche — ma per la produzione di testo in italiano, la pulizia dell’output di Ling è un vantaggio concreto che non si trova altrove nella stessa fascia di prezzo.

er i dettagli tecnici su architettura e performance di Ling, leggi Ling 2.6-1T open source: il nuovo re dei modelli locali?

Quando usare Ling e quando no: la risposta pratica

Se produci contenuti in italiano — articoli, newsletter, post, testi di blog — e la qualità stilistica è una priorità, Ling è lo strumento più efficace disponibile oggi per quella specifica funzione. Non perché sia il modello più potente in assoluto, ma perché è quello che meglio conosce la lingua in cui stai scrivendo.

Se invece hai bisogno di analisi, di ragionamento su documenti complessi, di sintesi di fonti multiple o di risposta a domande tecniche articolate, Claude con web search è la scelta più solida. Il vantaggio stilistico di Ling non compensa la differenza analitica in quei contesti.

La scelta non è ideologica — è funzionale. Un modello cinese che ha imparato l’italiano dai quotidiani nazionali scrive meglio di modelli americani che lo hanno imparato da internet, e lo fa senza lasciare tracce della propria origine nell’output. Questo non dice nulla sulla superiorità di un approccio sull’altro: dice solo che la qualità del training data conta quanto la quantità, e che per l’italiano Ling ha fatto una scelta che si vede nell’output.

Per accedere a Ling senza abbonamenti diretti, il punto di partenza è OpenRouter: come usare modelli AI potenti completamente gratis.

Lascia un commento