Nell’ultimo articolo pubblicato qui sul blog, trovi una spiegazione semplice e chiara di cosa sono gli LLM. Bene. In questo, invece, ripartiamo dagli LLM per capire che ChatGPT e gli altri Large Language Model non ti stanno dicendo la verità.
Non te la stanno dicendo.
E per parlare proprio di questo, al GDPR Forum 2025, ho invitato Enrico Mensa, Ricercatore presso il Dipartimento di Informatica UniTO, specializzato in AI. E questo è l’estratto del suo intervento: “ChatGPT è un cazzaro!”
ChatGPT? È un cazzaro…
Cosa significa che ChatGPT è un cazzaro? Significa che non ha riguardo nei confronti della verità. Il titolo del mio intervento è ereditato da un paper che si chiama “ChatGPT is bullshit” e bullshit è da intendersi in senso filosofico.
Il filosofo Harry G. Frankfurt dice:
“It is just lack of connection to a concern with truth - this indifference to how things really are - that I regard as the essence of bullshit.” Tradotto (N.d.R. con ChatGPT):
“È proprio la mancanza di un legame con la preoccupazione per la verità – questa indifferenza verso come stanno davvero le cose – che considero l’essenza della cazzata.”
Cioè, appunto questo non riguardo nei confronti della verità. Tant'è che da nessuna parte nell’algoritmo di ChatGPT c’è la ricerca della verità, ma solo qualcosa di verosimile, qualcosa che suoni come vero, ma che non lo è necessariamente.
Gli LLM non dicono la verità
Gli LLM non dicono la verità. Ma in giro ci sono persone che usano questi oggetti come se fossero degli oracoli in grado di rispondere a tutto e che possono spiegare qualunque cosa.
Invece, un utilizzo di questo tipo è pericoloso.
Per poter spiegare in breve come mai è pericoloso, dobbiamo capire come funzionano gli LLM. Quindi partiamo da qualcosa di molto distante: cos’è l’intelligenza artificiale?
Cos’è l’intelligenza artificiale? Spiegazione semplice semplice
L’AI è una branca che si occupa di studiare e implementare sistemi che risolvono problemi che richiedono l'intelletto umano. È una definizione super ampia.
Tant'è che l'intelligenza artificiale c'è da 70 anni. Non è comparsa due anni fa con ChatGPT. Quindi l'idea è dire: ok, prendiamo un problema e vediamo come potremmo cercare di risolverlo.
Facciamo un esempio: ho l’immagine di un frutto (una mela) e voglio sapere che frutto è.
È un problema che si può risolvere con l'intelligenza artificiale, perché serve l'intelletto umano per percepire l'immagine e determinare qual è il frutto. Quindi dobbiamo scrivere un algoritmo, che è una serie di passi per risolvere un problema (un task).
Fino a un po’ prima degli anni 2000, l'approccio per risolvere i problemi era quello dei cosiddetti sistemi esperti.
Cosa vuol dire?
Vuol dire io, programmatore, ho un problema da risolvere e chiamo un esperto (in questo caso un esperto di frutta). Mi siedo con lui e gli chiedo di descrivere tutti i possibili frutti.
Ci mettiamo lì a tavolino e scriviamo le regole (se è tondo, rosso e giallo, con un pezzetto verde è una mela, se è viola e ha tanti pallini piccoli è uva…). Facciamo così per molto tempo e speriamo che il sistema di intelligenza artificiale sia in grado di riconoscere i frutti.
Ma c’è un problema di generalità.
Prima di tutto, perché non è detto che il dominio che vogliamo studiare sia così semplice da poter individuare un set di regole che posso scrivere esplicitamente.
E anche se potessi farlo, potrebbe chiedere troppo tempo, oppure potrebbe trattarsi di un dominio che muta di continuo.
Infatti, questi sistemi esperti hanno dei difetti. Ecco perché la grande rivoluzione che avviene nel mondo dell’intelligenza artificiale è il machine learning.
Cosa vuol dire machine learning? Spiegazione semplice semplice
Torniamo al nostro esempio. Io, programmatore, non ho più voglia di sedermi con l’esperto. Quindi facciamo così: prendo un trilione di foto di frutta e per ciascuna chiedo a degli “annotatori” di annotare, per ciascun frutto, di cosa si tratta. Poi prendo questi dati, li metto dentro l'algoritmo di machine learning e da solo l’algoritmo sceglierà le regole.
Quelle che prima ho dovuto scrivere a mano, adesso le decide lui.
Infatti, si dice che neanche quelli che hanno creato ChatGPT sanno come funziona o perché risponde come risponde.
Ci mentono?
No. È proprio così.Non si sa, perché gli oggetti di machine learning - non tutti, ma quelli che si basano su reti neurali – sono difficili da interpretare by-design: è molto complicato fare explainability all'interno delle reti neurali, che sono un modo per applicare il machine learning. Esistono altri di metodi di machine learning che hanno explainability, ma quello che si usa adesso si basa sulle reti neurali che, per loro natura, sono opache.
Quindi cosa sono questi oggetti?
Come sono fatti dentro?
Possiamo capirlo senza troppe formule.
Il percettrone: cos’è e come funziona
In questo video che si trova su YouTube, possiamo vedere il cosiddetto percettrone, che è l’antichissimo “antenato” di ChatGPT. Dentro a ChatGPT ci sono circa 100 milioni di percettroni (non fisici come quelli del video, ma software che ne riproducono il funzionamento).
Possiamo immaginare le reti neurali, nella loro forma più semplice, proprio così. Cioè, come un mixer che ha miliardi di “pirulini” (N.d.R. cioè, i fader del mixer che, se vengono ruotati, permettono di regolare il suono) e che sono numeri.
Nella fase di allenamento, in cui buttiamo in pasto alla rete neurale i dati, “i fader” si orientano, tramite calcoli matematici piuttosto semplici, per rispondere in maniera corretta al task.
Quindi, per tornare all’esempio iniziale, se il task era il riconoscimento di un frutto (prendiamo la mela) e vedo che la rete neurale risponde male rispetto a quanto riportato dagli annotatori, regolo i fader per far sì che risponda bene. Faccio così per tutti i singoli frutti. Regolo i fader per correggere la risposta. E così via per milioni di interazioni. Alla fine, avrò un setup dei miei fader in grado di riconoscere tutti i frutti.
Ecco perché è così difficile capire come mai ChatGPT genera una parola e non un’altra.
ChatGPT è un Large Language Model.
Cos’è un LLM? Spiegazione semplice semplice
Un LLM è una rete fatta apposta per trattare il linguaggio. Si basa sui trasformer (N.d.R. ne abbiamo già parlato nell’articolo dedicato ai Large Language Model).
Quindi il task che risolvono qual è?
È “predire il prossimo token” o next token prediction.
Un token è un pezzettino di una parola (per semplicità diciamo “parola”). Il task su cui è stato allenato ChatGPT è molto semplice: ho una sequenza di parole, voglio che la parola che segue “ci stia bene”.
Per esempio, la frase è “Pizza e ananas fanno…”
C’è una lista di possibili token/parole: schifo (81%), ribrezzo (12%), vomitare (0,3%) ...
Quale sceglierà? Quella più probabile, quindi “schifo”.
“Pizza e ananas fanno schifo…”
E così via.
ChatGPT, nell’ultimo pezzettino della rete, decide qual è la più probabile, quella che gli sta meglio. Poi mette, in coda al testo, l’ultima parola che ha generato e così può generare la prossima e poi la prossima e poi la prossima…
Quindi se gli chiediamo di recitare il primo articolo della Costituzione italiana (L’Italia è una Repubblica…), genererà prima l'articolo, poi l’apostrofo, poi “Italia”, poi “è”, poi “Repubblica” eccetera.
Quindi gli LLM non hanno l’obiettivo di dire la verità, ma solo qualcosa di verosimile.
Perciò, quando ci si riferisce alle allucinazioni, le allucinazioni non sono un bug. Non è che uno di OpenAI, mentre scriveva il codice ha rovesciato una roba e si è prodotto un bug da risolvere. Le allucinazioni sono una feature. Sono esattamente come funzionano i Large Langue Model.
È finita qui?
No, questo è solo un assaggio! Se vuoi saperne di più sugli LLM, hai due possibilità:
1 – Aspettare il prossimo articolo del blog
2 – Andare su Raise Academy e guardare l’intervento di Enrico Mensa al GDPR Forum 2025
Perché la formazione completa e aggiornata su GDPR, privacy e cybersecurity è su Raise Academy, l'Accademia di Formazione Efficace di PrivacyLab che coinvolge consulenti e professionisti del GDPR, grazie al connubio tra tecnologia, presenza, competenza, contatto, condivisione e diffusione.





