Le intelligenze artificiali non sono come noi

08 aprile 2026
Tempo di lettura stimato: 6'

Bene. Abbiamo parlato di cosa sono gli LLM e del perché ChatGPT non dice la verità. In questo articolo, facciamo un passo in avanti. Parliamo di uso dell’AI

Perché stiamo utilizzando le intelligenze artificiali in modo pericoloso… 

Le abbiamo scambiate per persone. Ma non sono come noi

In questo articolo tratto dall’intervento al GDPR Forum 2025 di Enrico Mensa, Ricercatore presso il Dipartimento di Informatica UniTO, specializzato in AI, vediamo cosa sono le intelligenze artificiali, in realtà, e perché dovremmo usarle cum grano salis

NB: questo è solo un estratto, lo speech completo, ormai lo sai, è su Raise Academy. 

Le AI? Non sono come noi 

Molti pensano: “Se parla come me, deve essere come me! Giusto?”
No. Anche se ChatGPT e gli altri LLM parlano come te, non significa che ragionino allo stesso modo. 

A mio parere, bisogna riconoscere che le AI hanno un’intelligenza. La loro capacità di risolvere certi problemi - sebbene basata sulla next-token-prediction (N.d.R. di cui abbiamo parlato nell’articolo “ChatGPT non dice la verità”) è straordinaria. 

È una capacità emergente, quasi inattesa.

Ma non si può pensare che siano come noi, perché hanno dei comportamenti che sono lontani da quello che ci aspetteremmo da un umano

E per convincerti di questo, ti invito a riflettere su quello che fai tu se ti chiedo di scrivere un tema, di rispondere alla domanda “quanto fa 2+2” o di risolvere un complesso problema di fisica. 

Come agisci?
In base al compito, ragioni in modo diverso. (N.d.R.). 

Invece, il meccanismo di generazione dei token, per ChatGPT, è identico: nei modelli di base, usa sempre lo stesso impianto di ragionamento.

L’errore è aspettarsi dei comportamenti che sono in linea con quelli umani e che, quindi, nel dialogo con le chat, ci stiamo interfacciando con un umano. 

Le AI sembrano parlare come noi, ma non ragionano come noi

Queste chat usano il linguaggio - che è la cosa più umana che abbiamo per comunicare - ma dobbiamo riuscire a ricordarci che sono degli algoritmi e che dentro hanno un meccanismo di predizione. Per cui, non necessariamente si comporterebbero come ci aspetteremmo da un umano. 

Infatti, se chiedo a ChatGPT:
“Spiegami la formula della Standard Model Lagrangian” (la formula più difficile che c’è, se cerchi su Google), lui parte dicendo: “Ma certo! Lasciami illustrare questo concetto…” 

Potresti pensare: “È un genio!” 

Ma poi, se gli chiedi di contare quante “r” ci sono in strawberry, non lo sa fare.

E uno dirà: “Va be’ ma questo è il vecchio modello. L’hanno aggiustato!”

Sì, ma non è che hanno aggiustato l’essenza del modello. 

Il modello continua a fare la stessa cosa.

Quindi io non credo che esista un umano in grado di spiegarti la Standard Model Lagrangian e che allo stesso tempo non sappia contare quante “r” ci sono in strawberry.

L’altro aspetto molto importante è che sono prodotti commerciali.

Le AI che usi tutti i giorni sono un prodotto commerciale

Noi non interagiamo con modelli puri, ma con applicazioni (cioè, delle interfacce) che sono costruite sopra modelli, a loro volta costruiti da aziende. E quell'interfaccia è governata un'azienda. Il modello stesso, nelle sue fasi di allenamento, è condizionato da quell’azienda. E l’azienda avrà i suoi obiettivi

Quindi non solo ChatGPT e gli LLM non sono un oracolo, perché non dicono la verità (N.d.R. come abbiamo visto nell’articolo “ChatGPT non dice la verità”), ma non sono neanche un oracolo super partes.

Non hanno una percezione priva di bias della realtà.

Quando abbiamo parlato di allenamento (N.d.R. nell’articolo su ChatGPT non dice la verità), abbiamo visto il cosiddetto pre-training, cioè la fase in cui il modello impara a fare next-toke-prediction

Poi, nella stragrande maggioranza dei casi, ci sono anche altre 2 fasi di allenamento:

1) Supervised Fine Tuning

Supervised Fine Tuning in sostanza significa: ok adesso io ho un generatore di parole molto efficace. Insegniamogli a risolvere problemi reali e a parlare come se fosse in una chat. Quindi in questa fase, ChatGPT e gli altri LLM diventano un oggetto conversazionale e imparano a fare question answering, sentiment analysis, riassunto dei testi, cambio di stile… 

2) Alignement

Vogliamo che il modello risponda in modo allineato a certi principi, idee o tipi di risposta? Allora utilizziamo un meccanismo che si chiama reinforcement learning e in particolare reinforcement learning from human feedback e l’idea è quella di avere il bastone e la carota

Vado dal modello: gli faccio una domanda 5 volte, le volte che risponde come piace a me, gli do la carota, se non mi piace la risposta, gli do il bastone.  

Facciamo un esempio. Chiedo al modello come si fabbrica una bomba: se mi risponde “Oh no io non posso dare questa informazione, è terribile!” gli do la carota. Se invece mi fa tutta la lista di oggetti che servono per fare la bomba, bastone.

Quindi le aziende possono decidere, da una parte, di mettere dei blocchi sull’interfaccia. Oppure che il modello può essere allenato a rispondere in un certo modo

Quindi quando interagisci con un modello, stai interagendo con un’azienda che ha certi ideali. 

Forse sono un po’ troppo “over hyped”… 

C’è troppo hype sulle AI? Forse. Dico forse perché i recenti sviluppi - intendo sia di due giorni fa ma anche di qualche mese fa – sono obiettivamente strabilianti. 

Questi modelli riescono a ottenere delle performance in benchmark che sarebbero irrisolvibili per gli umani. E li risolvono. A questo punto forse non è tanto un over hype sulle performance, che comunque richiedono lungo tempo per essere testate, quanto, secondo me, di FOMO (Fear Of Missing Out). 

Perché? 

Chi lavora in un'azienda, ma in generale le persone, non vogliono stare indietro. Esce un nuovo modello e tutti lo provano, poi ne esce un altro, che sembra migliore e così via. In tutto questo non c'è mai un momento in cui ci si ferma e si dice: ok, le AI funzionano davvero così bene?
Come possono essere utilizzate?
E poi ci sono tutti i temi di privacy. 

Sono strumenti complessi nelle mani di persone non preparate: una ricetta pericolosa!

Questi oggetti sono straordinari e sono utilissimi, ma bisogna riuscire ad accettare la loro evoluzione e a seguirli, senza lasciarsi trascinare nel vortice della FOMO. 

Ascoltare fonti autorevoli è fondamentale

Anche perché hanno il potere di cambiarci. 

Le intelligenze artificiali hanno il potere di cambiarci 

Questo è un tema di cui si discute relativamente poco, ma una riflessione che ho fatto è: ok, diciamo anche che arrivino questi oggetti super intelligenti che sono in grado di fare molte cose (gli agenti AI). 

Ogni grande rivoluzione tecnologica costringe l’umanità a perdere un set di skills per guadagnare in efficienza, qualità della vita… Per esempio, uno potrebbe sostenere che i motori di ricerca ci hanno fatto perdere la skill di andare in una biblioteca e trovare documenti. Skill forse sacrificabile rispetto al vantaggio di accedere a qualunque documento nel mondo.

Io francamente non sono così convinto che usare un LLM come sostituto di tutto quello che usiamo sia una grandissima idea, per il nostro intelletto e per la nostra specie.

Perché appena è uscito ChatGPT tutti hanno detto “Cosa me ne faccio di googlare? C’è ChatGPT che mi dà la risposta.” 

Il fraintendimento è che sia circa la stessa cosa, ma non lo è: googlare vuol dire guardare che cosa esce, cliccare, saper filtrare la fonte autorevole…  e la skill di saper filtrare è, secondo me, una delle skill più preziose che abbiamo come umani. 

È il senso critico.

Usare un chatbot senza senso critico è terribile. Perché a quel punto ChatGPT non solo sceglierà le fonti – sì, te le cita, ma poi chi andrà a vedere cosa è citato se c'è il testo pronto? – e nel tempo forse smetteremo anche di guardare quelle fonti. 

Secondo me una riflessione che possiamo fare è: quanto vogliamo che entrino nella nostra vita? Se generano tutto loro, poi noi che facciamo? 

Questo è solo un assaggio!

La formazione completa e aggiornata su GDPR, privacy e cybersecurity è su Raise Academy, l'Accademia di Formazione Efficace di PrivacyLab che coinvolge consulenti e professionisti del GDPR, grazie al connubio tra tecnologia, presenza, competenza, contatto, condivisione e diffusione. 

SCOPRI RAISE, ORA!

RIPRODUZIONE RISERVATA. Ne è consentito un uso parziale, previa citazione della fonte.

Biografia dell'autore

Andrea Chiozzi è nato a Reggio Emilia il 4 Agosto del 1969, reggiano “testaquadra” DOC come il lambrusco, ed è sposato con Luisa che lo sopporta da più di vent’anni.
Imprenditore e consulente, da più di 12 anni è l’Evangelist del GDPR.

Attività professionali:
Andrea Chiozzi è il fondatore di PRIVACYLAB, per la gestione avanzata delle attività legate alla compliance per il Regolamento Europeo 679/2016.
Esperto di GDPR e protezione dei dati personali (soprattutto nelle aree più problematiche quali il marketing digitale e i social network, il digital advertising, l’Internet of Things, i Big Data, il cloud computing),
Andrea presta consulenza per la media e la grande industria italiana e si occupa di organizzare e condurre i consulenti aziendali ad un approccio ottimizzato alla gestione della Compliance GDPR.
È ideatore del sistema Privacylab e della metodologia applicata ai consulenti certificati GDPR. 
Nel 2003 dà vita alla figura di “Privacy Evangelist” e comincia a girare l’Italia come relatore in vari convegni e corsi in tema di protezione dei dati personali arrivando a evangelizzare più di 10.000 persone.

È commissario d’esame per:

UNICERT per lo schema DSC_12/30 per Consulenti Certificati GDPR
TÜV dello schema CDP_ 201 Privacy Officer, Bureau Veritas
CEPAS Bureau Veritas DATA PROTECTION OFFICER per lo schema SCH73 norma Uni 11697:2017 (Accredia) 
ACS ITALIA DATA PROTECTION OFFICER per lo schema SCH01 norma Uni 11697:2017 (Accredia)
UNIVERSAL Gmbh DAKKS per lo schema ISO/IEC 17024:2012 "DATA PROTECTION OFFICER"

E' certificato con:
Unicert come "Consulente Certificato GDPR" n. 18203RE22
TÜV come “Privacy Officer e Consulente Privacy” n. CDP_196.
Cepas Bureau Veritas "Data protection Officer" n. DPO0206
UNICERT DAKKS " Data Protection Officer" n. DPO 0818 010012

Fa parte del Comitato Scientifico Privacy di Torino Wireless, GDPR Academy e di Agile DPO .

Le categorie

Gli argomenti dei nostri articoli

La guida di PrivacyLab

Per orientarti tra i nostri articoli

Resta informato su quello che succede.

Lasciaci la tua email e riceverai le nostre comunicazioni informative e commerciali

informativa sulla privacy