ChatGPT non ti dice la verità, ecco perché

25 marzo 2026
Tempo di lettura stimato: 6'

Nell’ultimo articolo pubblicato qui sul blog, trovi una spiegazione semplice e chiara di cosa sono gli LLM. Bene. In questo, invece, ripartiamo dagli LLM per capire che ChatGPT e gli altri Large Language Model non ti stanno dicendo la verità

Non te la stanno dicendo.

E per parlare proprio di questo, al GDPR Forum 2025, ho invitato Enrico Mensa, Ricercatore presso il Dipartimento di Informatica UniTO, specializzato in AI. E questo è l’estratto del suo intervento: “ChatGPT è un cazzaro!”

ChatGPT? È un cazzaro…

Cosa significa che ChatGPT è un cazzaro? Significa che non ha riguardo nei confronti della verità. Il titolo del mio intervento è ereditato da un paper che si chiama “ChatGPT is bullshit” e bullshit è da intendersi in senso filosofico. 

Il filosofo Harry G. Frankfurt dice:

“It is just lack of connection to a concern with truth - this indifference to how things really are - that I regard as the essence of bullshit.” Tradotto (N.d.R. con ChatGPT):

“È proprio la mancanza di un legame con la preoccupazione per la verità – questa indifferenza verso come stanno davvero le cose – che considero l’essenza della cazzata.”

Cioè, appunto questo non riguardo nei confronti della verità. Tant'è che da nessuna parte nell’algoritmo di ChatGPT c’è la ricerca della verità, ma solo qualcosa di verosimile, qualcosa che suoni come vero, ma che non lo è necessariamente. 

Gli LLM non dicono la verità 

Gli LLM non dicono la verità. Ma in giro ci sono persone che usano questi oggetti come se fossero degli oracoli in grado di rispondere a tutto e che possono spiegare qualunque cosa. 

Invece, un utilizzo di questo tipo è pericoloso

Per poter spiegare in breve come mai è pericoloso, dobbiamo capire come funzionano gli LLM. Quindi partiamo da qualcosa di molto distante: cos’è l’intelligenza artificiale?

Cos’è l’intelligenza artificiale? Spiegazione semplice semplice  

L’AI è una branca che si occupa di studiare e implementare sistemi che risolvono problemi che richiedono l'intelletto umano. È una definizione super ampia. 

Tant'è che l'intelligenza artificiale c'è da 70 anni. Non è comparsa due anni fa con ChatGPT. Quindi l'idea è dire: ok, prendiamo un problema e vediamo come potremmo cercare di risolverlo. 

Facciamo un esempio: ho l’immagine di un frutto (una mela) e voglio sapere che frutto è.

È un problema che si può risolvere con l'intelligenza artificiale, perché serve l'intelletto umano per percepire l'immagine e determinare qual è il frutto. Quindi dobbiamo scrivere un algoritmo, che è una serie di passi per risolvere un problema (un task). 

Fino a un po’ prima degli anni 2000, l'approccio per risolvere i problemi era quello dei cosiddetti sistemi esperti

Cosa vuol dire? 

Vuol dire io, programmatore, ho un problema da risolvere e chiamo un esperto (in questo caso un esperto di frutta). Mi siedo con lui e gli chiedo di descrivere tutti i possibili frutti. 

Ci mettiamo lì a tavolino e scriviamo le regole (se è tondo, rosso e giallo, con un pezzetto verde è una mela, se è viola e ha tanti pallini piccoli è uva…). Facciamo così per molto tempo e speriamo che il sistema di intelligenza artificiale sia in grado di riconoscere i frutti. 

Ma c’è un problema di generalità

Prima di tutto, perché non è detto che il dominio che vogliamo studiare sia così semplice da poter individuare un set di regole che posso scrivere esplicitamente.

E anche se potessi farlo, potrebbe chiedere troppo tempo, oppure potrebbe trattarsi di un dominio che muta di continuo. 

Infatti, questi sistemi esperti hanno dei difetti. Ecco perché la grande rivoluzione che avviene nel mondo dell’intelligenza artificiale è il machine learning

Cosa vuol dire machine learning? Spiegazione semplice semplice

Torniamo al nostro esempio. Io, programmatore, non ho più voglia di sedermi con l’esperto. Quindi facciamo così: prendo un trilione di foto di frutta e per ciascuna chiedo a degli “annotatori” di annotare, per ciascun frutto, di cosa si tratta. Poi prendo questi dati, li metto dentro l'algoritmo di machine learning e da solo l’algoritmo sceglierà le regole

Quelle che prima ho dovuto scrivere a mano, adesso le decide lui.  

Infatti, si dice che neanche quelli che hanno creato ChatGPT sanno come funziona o perché risponde come risponde. 

Ci mentono? 

No. È proprio così. 

Non si sa, perché gli oggetti di machine learning - non tutti, ma quelli che si basano su reti neurali – sono difficili da interpretare by-design: è molto complicato fare explainability all'interno delle reti neurali, che sono un modo per applicare il machine learning. Esistono altri di metodi di machine learning che hanno explainability, ma quello che si usa adesso si basa sulle reti neurali che, per loro natura, sono opache. 

Quindi cosa sono questi oggetti? 

Come sono fatti dentro? 

Possiamo capirlo senza troppe formule. 

Il percettrone: cos’è e come funziona

In questo video che si trova su YouTube, possiamo vedere il cosiddetto percettrone, che è l’antichissimo “antenato” di ChatGPT. Dentro a ChatGPT ci sono circa 100 milioni di percettroni (non fisici come quelli del video, ma software che ne riproducono il funzionamento).

Possiamo immaginare le reti neurali, nella loro forma più semplice, proprio così. Cioè, come un mixer che ha miliardi di “pirulini” (N.d.R. cioè, i fader del mixer che, se vengono ruotati, permettono di regolare il suono) e che sono numeri

Nella fase di allenamento, in cui buttiamo in pasto alla rete neurale i dati, “i fader” si orientano, tramite calcoli matematici piuttosto semplici, per rispondere in maniera corretta al task

Quindi, per tornare all’esempio iniziale, se il task era il riconoscimento di un frutto (prendiamo la mela) e vedo che la rete neurale risponde male rispetto a quanto riportato dagli annotatori, regolo i fader per far sì che risponda bene. Faccio così per tutti i singoli frutti. Regolo i fader per correggere la risposta. E così via per milioni di interazioni. Alla fine, avrò un setup dei miei fader in grado di riconoscere tutti i frutti. 

Ecco perché è così difficile capire come mai ChatGPT genera una parola e non un’altra. 

ChatGPT è un Large Language Model.

Cos’è un LLM? Spiegazione semplice semplice

Un LLM è una rete fatta apposta per trattare il linguaggio. Si basa sui trasformer (N.d.R. ne abbiamo già parlato nell’articolo dedicato ai Large Language Model). 

Quindi il task che risolvono qual è?  

È “predire il prossimo token” o next token prediction.

Un token è un pezzettino di una parola (per semplicità diciamo “parola”). Il task su cui è stato allenato ChatGPT è molto semplice: ho una sequenza di parole, voglio che la parola che segue “ci stia bene”.

Per esempio, la frase è “Pizza e ananas fanno…” 

C’è una lista di possibili token/parole: schifo (81%), ribrezzo (12%), vomitare (0,3%) ... 

Quale sceglierà? Quella più probabile, quindi “schifo”. 

“Pizza e ananas fanno schifo…”

E così via.

ChatGPT, nell’ultimo pezzettino della rete, decide qual è la più probabile, quella che gli sta meglio. Poi mette, in coda al testo, l’ultima parola che ha generato e così può generare la prossima e poi la prossima e poi la prossima…

Quindi se gli chiediamo di recitare il primo articolo della Costituzione italiana (L’Italia è una Repubblica…), genererà prima l'articolo, poi l’apostrofo, poi “Italia”, poi “è”, poi “Repubblica” eccetera.

Quindi gli LLM non hanno l’obiettivo di dire la verità, ma solo qualcosa di verosimile

Perciò, quando ci si riferisce alle allucinazioni, le allucinazioni non sono un bug. Non è che uno di OpenAI, mentre scriveva il codice ha rovesciato una roba e si è prodotto un bug da risolvere. Le allucinazioni sono una feature. Sono esattamente come funzionano i Large Langue Model.

È finita qui?

No, questo è solo un assaggio! Se vuoi saperne di più sugli LLM, hai due possibilità:

1 – Aspettare il prossimo articolo del blog

2 – Andare su Raise Academy e guardare l’intervento di Enrico Mensa al GDPR Forum 2025

Perché la formazione completa e aggiornata su GDPR, privacy e cybersecurity è su Raise Academy, l'Accademia di Formazione Efficace di PrivacyLab che coinvolge consulenti e professionisti del GDPR, grazie al connubio tra tecnologia, presenza, competenza, contatto, condivisione e diffusione. 

SCOPRI RAISE, ORA!

RIPRODUZIONE RISERVATA. Ne è consentito un uso parziale, previa citazione della fonte.

Biografia dell'autore

Andrea Chiozzi è nato a Reggio Emilia il 4 Agosto del 1969, reggiano “testaquadra” DOC come il lambrusco, ed è sposato con Luisa che lo sopporta da più di vent’anni.
Imprenditore e consulente, da più di 12 anni è l’Evangelist del GDPR.

Attività professionali:
Andrea Chiozzi è il fondatore di PRIVACYLAB, per la gestione avanzata delle attività legate alla compliance per il Regolamento Europeo 679/2016.
Esperto di GDPR e protezione dei dati personali (soprattutto nelle aree più problematiche quali il marketing digitale e i social network, il digital advertising, l’Internet of Things, i Big Data, il cloud computing),
Andrea presta consulenza per la media e la grande industria italiana e si occupa di organizzare e condurre i consulenti aziendali ad un approccio ottimizzato alla gestione della Compliance GDPR.
È ideatore del sistema Privacylab e della metodologia applicata ai consulenti certificati GDPR. 
Nel 2003 dà vita alla figura di “Privacy Evangelist” e comincia a girare l’Italia come relatore in vari convegni e corsi in tema di protezione dei dati personali arrivando a evangelizzare più di 10.000 persone.

È commissario d’esame per:

UNICERT per lo schema DSC_12/30 per Consulenti Certificati GDPR
TÜV dello schema CDP_ 201 Privacy Officer, Bureau Veritas
CEPAS Bureau Veritas DATA PROTECTION OFFICER per lo schema SCH73 norma Uni 11697:2017 (Accredia) 
ACS ITALIA DATA PROTECTION OFFICER per lo schema SCH01 norma Uni 11697:2017 (Accredia)
UNIVERSAL Gmbh DAKKS per lo schema ISO/IEC 17024:2012 "DATA PROTECTION OFFICER"

E' certificato con:
Unicert come "Consulente Certificato GDPR" n. 18203RE22
TÜV come “Privacy Officer e Consulente Privacy” n. CDP_196.
Cepas Bureau Veritas "Data protection Officer" n. DPO0206
UNICERT DAKKS " Data Protection Officer" n. DPO 0818 010012

Fa parte del Comitato Scientifico Privacy di Torino Wireless, GDPR Academy e di Agile DPO .

Le categorie

Gli argomenti dei nostri articoli

La guida di PrivacyLab

Per orientarti tra i nostri articoli

Resta informato su quello che succede.

Lasciaci la tua email e riceverai le nostre comunicazioni informative e commerciali

informativa sulla privacy