Vedere Non È Capire

Vedere Non È Capire — Perché Tuo Figlio Crede ai Profili Fake (e Tu Probabilmente Anche)

Tuo figlio ti mostra un profilo Instagram. Una ragazza, 2,7 milioni di follower, video con decine di milioni di visualizzazioni. “Guarda che bella,” ti dice. Tu scorri qualche foto. Non noti nulla di strano.

La ragazza non esiste. È generata interamente con intelligenza artificiale. Centinaia di profili come questo stanno accumulando milioni di follower reali, commenti reali, interazioni reali — con persone che non sono mai esistite. Una meta-analisi su 67 studi lo conferma: l’accuratezza media nel distinguere un volto AI da uno reale è del 55% (Sobierajski et al., 2024). Praticamente un lancio di moneta.

Non è un problema di intelligenza. È un problema di come funziona il cervello.


Perché ci caschiamo tutti

Il primo istinto è pensare: “Io non ci cascherei.” Ma i numeri raccontano un’altra storia. In uno studio su 757 persone, i volti generati dall’intelligenza artificiale sono stati giudicati più affidabili di quelli reali (Nightingale & Farid, 2022). Più affidabili. Non solo indistinguibili — preferiti.

Come è possibile? Perché l’elaborazione visiva è automatica. Il cervello classifica un volto in millisecondi, prima che la parte razionale si attivi. Daniel Kahneman chiama questo il Sistema 1: veloce, intuitivo, energeticamente economico. Il Sistema 2 — quello analitico, che verifica — richiede sforzo. E il cervello, di default, risparmia energia.

Questo default non è un difetto. È il risultato di 300’000 anni di selezione. Nell’ambiente ancestrale, fidarsi di ciò che vedevi era la strategia migliore: chi dubitava dell’ombra tra i cespugli veniva mangiato, chi scappava senza pensarci sopravviveva. Il cervello si è ottimizzato per reagire alle immagini, non per sospettarne.

Apofenia: la tendenza a percepire connessioni significative dove non esistono. Nell’ambiente ancestrale era un vantaggio — scambiare un’ombra per un predatore costava una corsa inutile, non scambiarla poteva costare la vita. Oggi lo stesso meccanismo ti porta a vedere una persona reale dove c’è solo un algoritmo.

Il problema non è che tuo figlio è ingenuo. Il problema è che il suo cervello sta usando un programma scritto per la savana in un ambiente al quale non ha avuto il tempo tecnico per adattarsi.


Il muscolo che può fare la differenza

Esiste una capacità cerebrale specifica che distingue chi reagisce d’impulso da chi si ferma un secondo prima. Si chiama controllo inibitorio: la funzione esecutiva che dice “aspetta, verifica prima di credere.”

Tra gli 8 e i 14 anni questa capacità sta maturando. La corteccia prefrontale — la parte del cervello che la gestisce — non completa il suo sviluppo prima dei vent’anni (Blakemore & Choudhury, 2006). Non è un muscolo metaforico: è una struttura neurologica misurabile che cambia con l’età e con l’esperienza.

Il lavoro di Adele Diamond (2013) mostra che le funzioni esecutive sono allenabili, con effetti misurabili sulle abilità direttamente coinvolte nell’allenamento (d=0,3-0,6). Ma serve onestà: il cosiddetto “far-transfer” — l’idea che allenare il controllo inibitorio renda automaticamente tuo figlio resistente alla disinformazione — è limitato. Le meta-analisi disponibili (Kassai et al., 2019) mostrano effetti consistenti sulle abilità vicine a quelle allenate, ma effetti piccoli e spesso non significativi quando si misurano competenze distanti come il rendimento scolastico o il comportamento nella vita reale.

Questo non significa che l’allenamento sia inutile. Significa che non basta il muscolo da solo — serve anche una strategia concreta.

C’è un’altra complicazione. Il lavoro di Blakemore e Choudhury documenta un mismatch specifico dell’adolescenza: il sistema reward — quello che risponde all’eccitazione, alla novità, al consenso sociale — matura prima della corteccia prefrontale. Risultato: un ragazzo di 13 anni può avere un buon controllo inibitorio in condizioni neutre, ma perderlo completamente quando il contenuto è virale, eccitante o socialmente approvato. Esattamente il tipo di contenuto che popola Instagram e TikTok.


Cosa puoi fare (e cosa no)

Prima le cose che non puoi cambiare.

Non puoi cambiare il cervello di tuo figlio. È cablato per credere a ciò che vede — e lo resterà. Non puoi controllare cosa vede: i profili fake, le immagini generate, le notizie costruite continueranno ad arrivare. Non puoi competere con la dopamina sociale: a 13 anni, mandare quel reel alla chat di classe significa appartenenza, status, “hai visto?” — e la scarica che arriva con il consenso del gruppo è concreta e immediata. Verificare, invece, non dà niente: richiede sforzo, rallenta, e se scopri che il contenuto è falso rischi pure di passare per quello noioso che rovina il gioco.

Il costo della verifica non è solo cognitivo — è sociale. E nessuna istruzione scritta, nessun “pensiero critico” insegnato a scuola può competere con il bisogno di appartenenza di un adolescente. Se il ragazzo è solo davanti allo schermo, la dopamina vince. Sempre.

Questo non è pessimismo. È il punto di partenza onesto.

Adesso, la cosa che puoi fare.

L’unica cosa che compete con la dopamina sociale è un’altra relazione

I programmi di educazione digitale in classe funzionano — ma con effetti più forti sulla conoscenza che sul comportamento reale (Cho, Carpenter & Li, 2025, meta-analisi di 160 interventi su 40 anni). I programmi che coinvolgono la famiglia ottengono effetti più grandi. Il programma Media Detective Family, testato con uno studio controllato su 83 famiglie, ha misurato una riduzione significativa dei comportamenti a rischio nel tempo rispetto al gruppo di controllo (Scull, Kupersmidt & Weatherholt, 2017, Journal of Community Psychology).

Perché la differenza? La ricerca suggerisce una sinergia tra strategia e contesto relazionale. Uno studio su 1’894 adolescenti cinesi (Lou et al., 2024, BMC Public Health) mostra che il co-viewing passivo — guardare insieme senza discutere — non migliora la literacy digitale dei ragazzi. Quando si controllano tutti i tipi di mediazione parentale contemporaneamente, il co-viewing risulta addirittura associato negativamente ai punteggi di literacy digitale. Quello che funziona è la mediazione attiva e la supervisione: il genitore che guarda insieme al figlio e discute, non si limita a essere presente.

Ma c’è un’avvertenza importante. La ricerca sulla socializzazione familiare e sulle camere dell’eco suggerisce che in famiglie molto coese ma autoritarie — dove mettere in dubbio ciò che dice un adulto è socialmente costoso — la coesione familiare può amplificare la disinformazione invece di arginarla. Non è un meccanismo studiato con un singolo paper definitivo, ma emerge dall’intersezione tra la letteratura sulle echo chambers (Tornberg, 2022) e quella sulla trasmissione intergenerazionale delle credenze: i figli tendono ad adottare le posizioni dei genitori, incluse quelle errate, soprattutto in contesti dove il dissenso ha un costo sociale alto.

Questo significa che non basta essere presenti. Serve essere presenti in un modo specifico.

Esercizio “Vero o generato?” — 10-15 minuti, una volta a settimana

Non è un esercizio di pensiero critico. È un gioco relazionale mascherato da indagine.

Come funziona:

  • Apri Instagram o TikTok insieme a tuo figlio
  • Scegliete 3 profili o immagini
  • Tre domande: “Chi ha fatto questo? Perché? Secondo te è reale?”
  • Non dare la risposta. Lascia che il dubbio lavori

Perché funziona: non stai insegnando a verificare. Stai creando uno spazio dove dubitare è sicuro — dove tuo figlio non rischia di perdere status, non rischia di sembrare noioso, non rischia niente. L’unico contesto in cui un tredicenne può permettersi di dire “forse è falso” senza conseguenze sociali è accanto a un adulto che non lo giudica.

La ricompensa non è la verità. La ricompensa è il tempo condiviso. E quella ricompensa — relazionale, non cognitiva — è l’unica che può costruire un’abitudine al dubbio prima che il ragazzo debba esercitarla da solo, nel gruppo, dove il costo è alto.

Una precisazione: non è una soluzione. È la cosa più efficace che la ricerca ha trovato finora. L’effetto è reale ma non è magico — e dipende interamente da come lo fai. Se diventa un interrogatorio, non funziona. Se diventa un giudizio (“come fai a crederci?”), non funziona. Se diventa un’altra forma di controllo, non funziona. Funziona solo se è un gioco tra pari — dove anche tu ammetti che ci saresti cascato.

Se hai letto Nati per Credere nell’Algoritmo, sai che la fiducia innata di tuo figlio non è un difetto — è una risorsa che va orientata, non giudicata. E la puoi orientare solo dentro una relazione, non con un’istruzione.


La scena, di nuovo

Tuo figlio ti mostra quel profilo. La ragazza con 2,7 milioni di follower. Questa volta, invece di scrollare oltre, chiedi: “Secondo te è una persona vera?”

Non stai controllando. Stai allenando qualcosa che servirà per ogni immagine, ogni notizia, ogni messaggio che riceverà per il resto della vita.

La domanda non è se tuo figlio vedrà contenuti falsi. Li vedrà. La domanda è se avrà gli strumenti per fermarsi un secondo prima di crederci.

Se vuoi capire come le piattaforme sfruttano la scorciatoia cognitiva che abbiamo descritto — credere a ciò che si vede perché dubitare costa fatica — leggi Si Fa Ciò Che È Comodo.


Fonti

  • Sobierajski et al. (2024). Human deepfake detection: meta-analysis of 67 studies. Overall accuracy: 55.54% (95% CI 49-62%).
  • Nightingale, S.J. & Farid, H. (2022). AI-synthesized faces are indistinguishable from real faces and more trustworthy. PNAS. N=757.
  • Kahneman, D. (2011). Thinking, Fast and Slow. Farrar, Straus and Giroux.
  • New, J., Cosmides, L. & Tooby, J. (2007). Category-specific attention for animals reflects ancestral priorities. Proceedings of the National Academy of Sciences.
  • Diamond, A. (2013). Executive functions. Annual Review of Psychology, 64, 135-168. d=0.3-0.6 near-transfer.
  • Blakemore, S.J. & Choudhury, S. (2006). Development of the adolescent brain: implications for executive function and social cognition. Journal of Child Psychology and Psychiatry, 47(3-4), 296-312.
  • Kassai, R., Futo, J., Demetrovics, Z. & Takacs, Z.K. (2019). A meta-analysis of the experimental evidence on the near- and far-transfer effects among children’s executive function skills. Psychological Bulletin, 145(2), 165-188.
  • Cho, H., Carpenter, C.J. & Li, W. (2025). Media literacy interventions: meta-analytic review of 40 years of research. Human Communication Research, 51(2), 57-79.
  • Scull, T.M., Kupersmidt, J.B. & Weatherholt, T.N. (2017). The effectiveness of online, family-based media literacy education for substance abuse prevention in elementary school children: Study of the Media Detective Family Program. Journal of Community Psychology, 45(6), 796-809.
  • Lou, J., Wang, M., Xie, X., Wang, F., Zhou, X., Lu, J. & Zhu, H. (2024). The association between family socio-demographic factors, parental mediation and adolescents’ digital literacy: a cross-sectional study. BMC Public Health, 24, Article 2932. N=1.894.
  • Fendt, M., Nistor, N., Scheibenzuber, C. & Artmann, B. (2023). Sourcing against misinformation: Effects of a scalable lateral reading training based on cognitive apprenticeship. Computers in Human Behavior, 146, Article 107820. N=312.
  • Thorn (2025). Survey N=1,200 youth ages 13-20: 1 in 8 knows a deepfake sexual image victim.