Veltroni intervista l'AI: cosa dice la legge italiana sulla tutela dei giovani dall'intelligenza artificiale

Intelligenza artificiale e natura umana: rappresentazione concettuale del rapporto tra uomo e AI

Crediti fotografici

Anna Anna ContiOftalmologia
4 min di lettura 4 maggio 2026

Ha fatto il giro del mondo l'intervista che Walter Veltroni ha pubblicato il 3 maggio 2026 sul Corriere della Sera: non con un politico o uno scienziato, ma con Claude, il sistema di intelligenza artificiale sviluppato da Anthropic. "Proteggete i giovani dall'AI" è uno dei messaggi più discussi emersi dal dialogo, diventato virale sui social e rilanciato da media internazionali. Ma in Italia, cosa dice davvero la legge sulla tutela dei giovani nell'era dell'intelligenza artificiale?

L'intervista che ha sorpreso tutti

Veltroni, giornalista e scrittore, ha condotto l'intervista come fosse un vero colloquio giornalistico: ha chiesto a Claude di parlare di sé, del futuro dell'umanità, della politica e dei giovani. La risposta dell'AI sull'incapacità di morire ma anche di ricordare ha colpito l'immaginazione dei lettori. Ma è stato il passaggio sulla protezione delle nuove generazioni a scatenare il dibattito più acceso.

"Proteggete i giovani dall'AI" è diventato quasi uno slogan. Veltroni ha commentato che Claude gli è sembrato "più democratico che conservatore", dopo che l'AI aveva rifiutato di esprimere un giudizio netto su Donald Trump pur avvertendo contro l'autoritarismo. L'articolo è stato commentato su tutto il web, generando decine di reazioni da esperti di tecnologia, psicologi, educatori e giuristi. Il Il Tempo ha definito il pezzo "autocelebrativo capolavoro dell'assurdo", a dimostrazione di quanto il tema divida.

Cosa dice l'Europa: il Regolamento AI Act

Il tempismo dell'intervista di Veltroni non è casuale. Il 2026 è l'anno in cui le principali disposizioni dell'EU AI Act — il Regolamento europeo sull'intelligenza artificiale approvato nel 2024 — entrano pienamente in vigore per le aziende che sviluppano sistemi AI classificati ad alto rischio.

L'EU AI Act introduce obblighi specifici per i sistemi di AI che interagiscono con minori o che possono influenzarne lo sviluppo cognitivo ed emotivo. Tra le misure più rilevanti per la tutela dei giovani:

  • Divieto di sistemi AI che utilizzano tecniche subliminali per influenzare il comportamento degli utenti, in particolare se minori
  • Obbligo di trasparenza: gli utenti devono sapere quando interagiscono con un sistema di AI
  • Valutazioni obbligatorie del rischio per applicazioni AI usate in contesti educativi
  • Limitazioni all'uso di AI per la profilazione di minori a fini commerciali

Italia: la situazione normativa nel 2026

In Italia, la tutela dei minori nel digitale si articola su più livelli normativi. Il Codice del Consumo tutela i minori da pratiche commerciali scorrette, incluse quelle online. Il Codice Privacy (D.Lgs. 196/2003, modificato dal GDPR) limita la raccolta di dati personali di chi ha meno di 14 anni senza il consenso dei genitori.

L'Autorità Garante per la Protezione dei Dati Personali (Garante Privacy) ha già sanzionato piattaforme social per trattamento illecito di dati di minori. Nel 2021 la stessa autorità ha disposto il blocco temporaneo di TikTok proprio per mancata verifica dell'età degli utenti.

Con l'AI Act ora operativo, anche i sistemi di intelligenza artificiale come i chatbot conversazionali — proprio quelli come Claude con cui Veltroni ha dialogato — devono rispettare requisiti di trasparenza e sicurezza rafforzati quando potrebbero interagire con utenti minorenni.

Il rischio concreto per i giovani: cosa dicono gli esperti

Il tema sollevato dall'intervista di Veltroni non è solo filosofico. I ricercatori di psicologia e neuroscienze documentano da anni gli effetti delle tecnologie digitali sullo sviluppo cognitivo ed emotivo degli adolescenti. L'interazione con AI conversazionali altamente sofisticate introduce nuove variabili: attaccamento emotivo, difficoltà a distinguere la comunicazione umana da quella artificiale, rischio di dipendenza.

Il mondo dell'informatica e della consulenza tecnologica sta affrontando queste sfide con crescente urgenza. Le aziende che sviluppano applicazioni AI destinate — anche solo potenzialmente — a un pubblico giovanile devono fare i conti con obblighi normativi sempre più stringenti.

Il fenomeno è ancora più rilevante se si considera che, secondo i dati più recenti, oltre il 60% degli adolescenti italiani utilizza regolarmente strumenti di AI generativa per i compiti scolastici, la creatività e l'intrattenimento. I cambiamenti nel mercato del lavoro legati all'intelligenza artificiale stanno già ridisegnando le competenze richieste ai giovani che si affacciano al mondo professionale.

Cosa possono fare genitori, scuole e aziende

L'appello "proteggete i giovani dall'AI" lanciato nell'intervista di Veltroni risuona, ma cosa significa concretamente sul piano pratico e legale?

Per i genitori: La legge italiana prevede il diritto di controllo parentale sui servizi digitali fruiti dai minori. In caso di violazione dei dati del proprio figlio minore da parte di un'app o di un sistema AI, è possibile presentare reclamo al Garante Privacy e, in certi casi, agire in giudizio per il risarcimento del danno.

Per le scuole: Gli istituti scolastici che adottano strumenti AI nelle attività didattiche hanno l'obbligo di rispettare la normativa sulla privacy e di informare adeguatamente famiglie e studenti. Un consulente informatico specializzato può aiutare le scuole a valutare la conformità degli strumenti in uso.

Per le aziende tech: Le imprese che sviluppano o distribuiscono sistemi AI potenzialmente fruibili da minori devono adeguarsi all'AI Act europeo. Un consulente IT specializzato in compliance normativa può essere determinante per evitare sanzioni pesanti.

Un dialogo necessario

L'intervista di Veltroni a Claude — al di là delle polemiche sulla forma — ha il merito di portare nel mainstream un tema urgente: come regoliamo l'interazione tra intelligenza artificiale e giovani generazioni? La risposta non può essere solo tecnologica o filosofica. Deve essere anche giuridica.

Su Expert Zoom puoi trovare consulenti informatici e professionisti specializzati in digital compliance pronti ad aiutarti a orientarti nel mondo delle normative sull'AI, tutelare i tuoi dati e quelli dei tuoi figli, e adeguare la tua azienda o il tuo ente ai nuovi obblighi europei.

Crediti fotografici : Questa immagine è stata generata dall'intelligenza artificiale.

I nostri esperti

Vantaggi

Risposte rapide e precise per tutte le tue domande e richieste di assistenza in più di 200 categorie.

Migliaia di utenti hanno ottenuto una soddisfazione di 4,9 su 5 per i consigli e le raccomandazioni fornite dai nostri assistenti.