AI, cyber security e avvelenamento dei dati
Torniamo a parlare di intelligenza artificiale, cybersecurity e qualità dei dati con il terzo e ultimo articolo tratto dall’intervento al GDPR Forum 2025 di Giovanni Ziccardi, Professore Ordinario presso UniMI e UniBO, Avvocato, Giornalista Pubblicista e Direttore della rivista scientifica “Ciberspazio e Diritto”.
Negli episodi precedenti – si dice così nelle serie TV – abbiamo visto cosa prevede l’AI Act per “limitare” l'intelligenza artificiale, che è come il Golem e che ha bisogno di un kill switch, cioè un sistema che la uccida nel caso andasse fuori controllo. Abbiamo anche visto che la qualità del dato è fondamentale, perché l'AI non è la pomata di Azazello del Maestro e Margherita di Bulgakov: se i dati immessi nel sistema di AI sono di scarsa qualità, lo sarà anche l’output.
Hai già letto i due articoli?
No? Allora corri a farlo, poi torna qui per quest’ultimo contenuto, estratto dall’intervento di Giovanni Ziccardi. Si parla, di data poisoning e riconoscimento delle emozioni.
Buona lettura!
L’avvelenamento dei dati e rischi dell’AI
Avvelenare i dati (data poisoning) significa ingannare le modalità di apprendimento del cervello dell'intelligenza artificiale, semplicemente alterando i dataset di partenza.
Ho trovato uno studio scientifico molto interessante che ci fa capire il rischio che corriamo: il sistema di intelligenza artificiale, davanti a un set di immagini, comprende tranquillamente che un cane è un cane, un’auto è un'auto, una borsetta è una borsetta, un cappello è un cappello, e distingue tra i vari tipi di arte.
Poi i ricercatori iniziano a inserire dei campioni di “dati avvelenati”, che possono confondere l’intelligenza artificiale. Il risultato finale è di far credere al sistema che un gatto sia un cane, che una mucca sia un'automobile, che un tostapane sia una borsetta o che una torta sia un cappello.
È un problema di qualità dei dati e di cybersecurity.
E diventerà sempre più complesso, secondo me, dividere i dati buoni dai dati avvelenati.
Prendiamo gli attacchi a ChatGPT. I rischi per la sicurezza sono molti: furto di identità, sviluppo di malware, impersonificazione, creazione di mail di phishing, disinformazione.
La cybersecurity si lega alla Data Protection
Sono fermamente convinto che ci sia un filo conduttore diretto tra normativa sull'intelligenza artificiale e normativa sulla protezione dei dati. Non solo perché alla base dell'intelligenza artificiale ci sono i dati, ma perché l'idea di governance del sistema è un'idea complessiva sia nel GDPR che nell’AI Act. Quindi vedo il DPO e il consulente privacy come le persone più adatte per fare questo salto di competenze e occuparsi anche di questi temi, già da oggi.
Biometria e AI: dall’analisi dei volti al riconoscimento delle emozioni
I problemi quest’anno (N.d.R. 2025) li avremo soprattutto con i volti e i visi. Se guardate la giurisprudenza del Garante italiano per la protezione dei dati, sapete che, con riferimento alla biometria e l’uso dei dati biometrici, è sempre stato fermissimo. Abbiamo ancora decisioni del 2024 che vietano l’uso della biometria, ad esempio, per il riconoscimento delle presenze al lavoro.
Invece l'intelligenza artificiale, purtroppo, sui visi, sui volti e sui dati biometrici è dove rende veramente meglio.
Quindi avremo un aumento dei sistemi di detection di un volto (analisi di un volto) - per ricavare le emozioni - e anche dei sistemi di recognition, cioè, l’unione dell'identità di una persona con il volto. Alla fine, si creeranno delle schede che, semplicemente, da un volto, partiranno con un sistema di profilazione.
A me ha preoccupato un po’ l’annuncio di ChatGPT di consentire l'upload delle immagini e dei visi, compresa la possibilità dallo smartphone di farlo in tempo reale, perché dal viso si arriva a tutto.
Basta un volto. Ecco perché il sistema il sistema dell'AI Act è molto preoccupato dal riconoscimento delle voci, ma soprattutto dal riconoscimento delle emozioni.
Riconoscimento delle emozioni nel marketing
Durante i lavori preparatori dell’AI Act, c'è stato un grande dibattito sul riconoscimento delle emozioni. L'idea era di vietarlo. Poi grandi gruppi hanno fatto una pressione molto forte per limitare il divieto in ambito lavorativo e in ambito scolastico.
Quindi il riconoscimento delle emozioni non è un’AI vietata: è consentita ovunque, tranne che sul luogo di lavoro, per recuperare le emozioni dei lavoratori, e a scuola per insegnanti e studenti.
Significa che interessa l'intero ambito del marketing e della profilazione, che parte da un viso e in base alle percentuali, riesce a individuare almeno una decina di parametri delle emozioni.
Quando c’erano i totem nelle stazioni…
Il Garante per la protezione dei dati italiano, qualche anno fa, si occupò dei totem nelle stazioni. Se leggete il suo provvedimento, descrive le 5 emozioni che i totem potevano ricavare da chi guardava. Fa sorridere un po’ rispetto ai sistemi di adesso e al livello di riconoscimento delle emozioni che ricavano dal vostro viso. Pensate alle applicazioni, per esempio, nell'ambito assicurativo e bancario. Automobili di ultima generazione che ti riprendono il viso per vedere, ad esempio, le manifestazioni di stanchezza. Pensate quanto può essere interessante per una compagnia assicurativa vedere se, quando guidate, siete tesi, fischiettate, imprecate nei confronti di chi passa. Pensate anche nell'ottica dei premi o della sicurezza. Immaginatevi la telecamera usata per i sistemi di sicurezza che riprende anche la vostra emozione.
Già in periodo di pandemia, sono stati usati strumenti di Virtual Try On (prova virtuale) dalle case di moda e dei cosmetici. Quando non si poteva andare nei negozi, molte di queste aziende sono sopravvissute con il deep fake, cioè, clonando il viso per permettere, ad esempio, di provare tonalità di rossetto diverse.
Immaginatevi il riconoscimento delle emozioni incorporato mentre provate il rossetto: voi trovate il rossetto che vi piace, trovate la tonalità, non lo comprate, però sorridete mentre lo provate. Chiudete e dopo 20 minuti vi arriva una mail del produttore dicendo che c’è lo sconto proprio sulla tonalità del rossetto che stavate provando, perché ha preso contezza della vostra emozione.
Il problema della trasparenza e della tracciabilità
Nell’AI Act, il diritto di trasparenza ha la stessa importanza che ha nel GDPR, ossia trasparenza e tracciabilità delle operazioni. Ma i nostri ricercatori che sono negli Stati Uniti e con cui lavoriamo, ci dicono che loro per primi non sono in grado di tracciare a ritroso le operazioni che hanno fatto i sistemi che hanno creato.
Più un sistema è sofisticato, più ripercorrere a ritroso ogni singolo ragionamento che ha fatto - come vorrebbe il principio di trasparenza - diventerà complesso.
Però, allo stesso tempo, è essenziale.
Questo è solo un assaggio!
La formazione completa e aggiornata su GDPR, privacy e cybersecurity è su Raise Academy, l'Accademia di Formazione Efficace di PrivacyLab che coinvolge consulenti e professionisti del GDPR, grazie al connubio tra tecnologia, presenza, competenza, contatto, condivisione e diffusione.




