
Nati per credere (nell’Algoritmo): Perché Tuo Figlio Si Fida di YouTube Senza Farsi Una Domanda
“Come fa a sapere cosa voglio vedere?”
La domanda arriva da un bambino di sette anni, iPad in mano. YouTube si è appena avviato e ha proposto — senza che il bambino cercasse nulla — esattamente il tipo di video che adora. Nessuna ricerca. Nessuna scelta. Il video giusto, al momento giusto, come per magia.
Il bambino non sta facendo una domanda tecnica. Sta facendo la stessa cosa che i suoi antenati facevano nella savana 200’000 anni fa: ha identificato un agente invisibile benevolo che anticipa i suoi desideri. “Sa cosa voglio” e “me lo dà” — quindi è mio amico. Questo meccanismo ha un nome in letteratura scientifica: Hyperactive Agency Detection Device, HADD (Girotto, Pievani & Vallortigara, 2008). Ed è il motivo per cui tuo figlio si fida dell’algoritmo più di quanto si fidi di te.
La macchina delle credenze
Il cervello umano non è una macchina della verità. È una macchina delle credenze — e capire questa distinzione porta con sé significati profondi.
Susan Carey, psicologa di Harvard, lo ha dimostrato con un esperimento che lascia senza parole. Bambini di 10 mesi — non 10 anni, 10 mesi — vedono un sacchetto volare sopra un muro. Il lancio non si vede. Quando una mano appare dal lato giusto (dove il lancio è avvenuto), i bambini la ignorano. Quando appare dal lato sbagliato, la fissano a lungo, sorpresi (Carey, Saxe & Tenenbaum, 2005).
A 10 mesi, senza che nessuno glielo abbia insegnato, quei bambini hanno dedotto l’esistenza di un agente nascosto. Il loro cervello ha automaticamente cercato qualcuno dietro l’evento.
Perché? Perché per 200’000 anni, chi vedeva agenti nascosti sopravviveva. L’erba si muove nella savana? Due opzioni. “Sarà il vento” — se è un leone, sei morto. “Leone!” — se è il vento, hai sprecato energia ma sei vivo. Il cervello che scappa anche quando non serve vince la gara evolutiva. Quello riflessivo viene mangiato.
Il costo di questa assicurazione sulla vita: falsi positivi a catena. Vediamo intenzioni dove ci sono solo processi. Attribuiamo scopi dove c’è solo caso. Crediamo in agenti benevoli dove non ce ne sono.
Perché le montagne esistono? “Per sciare”, Marco – 5 anni
C’è un secondo meccanismo che lavora insieme all’HADD. Si chiama teleologia promiscua — la tendenza ad attribuire scopi a tutto.
Chiedete a un bambino di cinque anni perché esistono le montagne. Risposta: “Per sciare.” Perché esiste il sole? “Per scaldarci.” Perché piove? “Per innaffiare le piante.”
La psicologa Deborah Kelemen ha dedicato la carriera a studiare questo fenomeno. Ed è universale: fino a 7-8 anni, praticamente tutti i bambini rispondono con spiegazioni teleologiche. Ma la parte inquietante la scopre Paul Bloom (Bloom & Weisberg, 2007): anche adulti laureati in scienze, messi sotto pressione di tempo, tornano a risposte teleologiche. Il meccanismo non scompare: si nasconde.
Ora collegate questo al mondo digitale.
“Perché esiste YouTube?”
“Per farmi divertire.”
E questa credenza sembra vera: YouTube effettivamente li diverte. L’algoritmo propone contenuti che vogliono vedere. Il cervello del bambino trova conferma: le cose digitali esistono per me. Hanno lo scopo di servirmi.
La verità è diversa. YouTube non esiste per divertire tuo figlio. Esiste per vendere la sua attenzione agli inserzionisti. TikTok non esiste per intrattenerlo. Esiste per massimizzare il tempo che passa sullo schermo. Non è malevolenza — è un modello di business. Ma il cervello del bambino non è equipaggiato per distinguere le due cose.
Quando il cervello attribuisce scopi sbagliati, abbassa le difese. Si fida. Delega il giudizio. E smette di fare la domanda più importante.
L’algoritmo non è tuo amico (ma non è nemmeno il nemico)
Ecco il punto dove la maggior parte degli articoli sbaglia — da entrambe le parti.
Chi dice “l’algoritmo è il male” sta semplificando. Gli algoritmi di raccomandazione non sono malvagi. Sono macchine che ottimizzano una funzione obiettivo: massimizzare il tempo di permanenza sullo schermo (Adomavicius & Tuzhilin, 2005). Tracciano ogni click, ogni swipe, ogni secondo di visione. Costruiscono profili comportamentali. E poi propongono il contenuto con la più alta probabilità di mantenere l’utente incollato.
Chi dice “non è un problema, i bambini sono nativi digitali” sta semplificando in direzione opposta. Il cervello di tuo figlio non è “nativo” di niente — è lo stesso cervello della savana, con gli stessi bias, immerso in un ambiente per cui non ha precedenti evolutivi.
La verità sta nel mezzo, ed è più interessante: l’algoritmo esiste davvero come agente autonomo. In un certo senso “conosce” tuo figlio — ha più dati comportamentali su di lui di quanti ne abbia tu. Il cervello del bambino, usando l’HADD, identifica correttamente un agente nascosto. Il problema non è l’identificazione. Il problema è l’attribuzione di intenzioni benevole.
L’algoritmo non vuole il bene di tuo figlio. Non vuole nemmeno il suo male. Vuole il suo tempo. E questa distinzione — benevolenza vs ottimizzazione — è esattamente ciò che il cervello di un bambino non è costruito per cogliere.
La memoria che si delega
C’è un effetto collaterale di questa fiducia che vale la pena conoscere.
Nel 2011 Betsy Sparrow, Jenny Liu e Daniel Wegner pubblicano su Science uno studio dal titolo eloquente: “Google Effects on Memory”. I risultati: quando le persone sanno che un’informazione sarà disponibile digitalmente, il cervello si sforza meno di memorizzarla (Sparrow, Liu & Wegner, 2011).
Non è pigrizia. È efficienza — lo stesso meccanismo per cui non memorizzi il numero di telefono del tuo partner da quando hai lo smartphone. Il cervello delega a ciò che percepisce come affidabile.
Il problema è quando tuo figlio delega non solo la memoria ma il giudizio. “L’algoritmo sa cosa mi piace” diventa “l’algoritmo sa cosa è giusto per me”. La fiducia scivola dalla convenienza alla delega cognitiva. E questo succede tanto più facilmente quanto più il cervello è in fase di sviluppo — tra i 7 e i 12 anni, la corteccia prefrontale (la sede del pensiero critico) è ancora un cantiere aperto.
E la tendenza accelera. Secondo un’indagine Pew Research (2024), la percentuale di adolescenti 13-17 anni che usano ChatGPT per i compiti è passata dal 13% al 26% in un solo anno. Non è un’adozione graduale — è un raddoppio. La delega cognitiva non è più un rischio teorico. È il comportamento predefinito di una generazione.
Fin qui abbiamo parlato di YouTube — ma il meccanismo non si ferma all’intrattenimento. Quando tuo figlio usa ChatGPT per i compiti, il meccanismo è lo stesso: delegare a un agente percepito come affidabile. Cambia il dominio: YouTube delega la scelta (cosa guardare dopo), ChatGPT delega il pensiero (cosa scrivere, come risolvere). Una meta-analisi del 2025 su ChatGPT in contesti educativi mostra che quando l’AI viene usata per dialogare e ricevere feedback, il pensiero critico può migliorare; quando viene usata per evitare lo sforzo, la performance sale ma l’apprendimento no. La differenza, ancora una volta, non sta nello strumento. Sta nella domanda che il bambino si pone — o non si pone — mentre lo usa.
Quello che non funziona
A questo punto forse stai pensando: allora gli tolgo il tablet. Oppure: gli spiego come funziona l’algoritmo. O ancora: metto i parental control e risolvo.
Nessuna di queste cose funziona da sola. Ecco perché.
Togliere il tablet non rimuove il meccanismo. Il cervello che vede agenti benevoli non ha bisogno di YouTube — troverà altri agenti invisibili in cui credere. Il problema non è lo strumento. È il software mentale.
Spiegare l’algoritmo a un bambino di 7 anni è come spiegare la selezione naturale: il cervello rifiuta l’informazione perché non ha senso narrativo. “YouTube guadagna vendendo la tua attenzione” è troppo complicato. “YouTube esiste per divertirti” è più semplice, più coerente, più soddisfacente. Vince la teleologia.
I parental control gestiscono il contenuto, non il meccanismo cognitivo. Tuo figlio non si fida dell’algoritmo perché ha visto contenuti inappropriati. Si fida perché il suo cervello è costruito per farlo.
Ma — e qui c’è la buona notizia — non è una condanna. Studi recenti mostrano che la fiducia infantile nell’AI è selettiva, non cieca. Bambini di 3-5 anni smettono di fidarsi di un robot che sbaglia ripetutamente (Koenig & Jaswal, 2011). E tra i 5 e gli 8 anni, i bambini non si fidano automaticamente più di Alexa che delle persone: testano il dispositivo, scelgono ancora insegnanti e adulti come riferimento per molte domande, e calibrano la fiducia a seconda del tipo di informazione che cercano (Girouard-Hallam & Danovitch, 2022). Il cervello parte con il default “fidati dell’agente”, ma sa ricalibrarsi quando qualcuno lo aiuta a notare gli errori. È esattamente questo che rende possibile la strategia che segue.
Quindi che si fa?
Non serve togliere. Non serve spiegare. Serve insegnare a interrogare.
Il meccanismo evolutivo che produce la fiducia cieca non è un difetto — è stato la nostra assicurazione sulla vita per milioni di anni. Non puoi rimuoverlo. Ma puoi insegnare a tuo figlio ad aggiungere un passaggio: la domanda critica.
Girotto, Pievani e Vallortigara lo scrivono chiaramente: affermare che siamo “nati per credere” non significa arrendersi alle credenze irrazionali. Significa riconoscere il meccanismo per poi educare consapevolmente (Girotto et al., 2008).
In pratica, funziona così. La prossima volta che tuo figlio dice “YouTube sa cosa mi piace”, non dire “Non è vero” (suonerai paranoico) e non dire “È pericoloso” (suonerai allarmista). Chiedi:
“E secondo te, perché te lo fa vedere?”
Non è una domanda retorica. È una domanda generativa. Non ha una risposta giusta — ha un processo. Il bambino deve fermarsi, pensare, ipotizzare. Forse risponderà “Perché mi vuole bene”. Bene — da lì puoi chiedere: “E YouTube guadagna qualcosa quando guardi?” Forse non lo sa. Forse lo scoprirà. Ma il punto non è la risposta. Il punto è che ha iniziato a interrogare l’agente invisibile invece di fidarsi ciecamente.
Un’altra domanda che funziona, per i più grandi (9-12):
“Se YouTube volesse che tu guardassi il più possibile, cosa ti mostrerebbe?”
Questa domanda non attacca YouTube. Non dice “è cattivo”. Sposta la prospettiva: da “l’algoritmo mi serve” a “l’algoritmo ha un obiettivo — quale?”. È la differenza tra teleologia ingenua e pensiero critico.
Cosa fare stasera
Con i piccoli (6-8 anni): Non servono spiegazioni tecniche. Quando guarda un video e dice “questo è proprio per me!”, chiedi: “Come lo sai?” Non correggere la risposta. Ascolta. Stai piantando un seme: l’idea che le cose non sono sempre come sembrano. Il seme germoglierà più avanti.
Con i medi (9-12 anni): Puoi fare l’esperimento. Apri YouTube su due dispositivi diversi. Mostragli che la homepage è diversa per ciascuno. Chiedi: “Perché secondo te sono diversi?” Se risponde “Perché ci conosce” — perfetto. Chiedi: “E come ci conosce?” Il ragionamento fa il lavoro. Non devi arrivare alla conclusione al suo posto.
Con te stesso: Smetti di combattere l’algoritmo. È una battaglia persa — l’algoritmo sarà sempre più bravo di te a catturare l’attenzione di tuo figlio. La battaglia vincibile è un’altra: insegnare a tuo figlio a fare domande a ciò in cui crede. Non solo all’algoritmo — a tutto. Perché il meccanismo che lo fa fidare di YouTube è lo stesso che lo farà fidare del primo demagogo convincente, della prima teoria complottista ben confezionata, della prima pubblicità emotiva ben calibrata.
Certo, una domanda non sostituisce le regole che ancora mancano: a scuola, nelle piattaforme, nelle politiche pubbliche. Ma le regole arriveranno in ritardo — arrivano sempre in ritardo. La domanda è l’unica cosa che puoi attivare stasera.
Il cervello è una macchina delle credenze. Non puoi cambiare la macchina. Ma puoi aggiungere un filtro.
Quel filtro è una domanda: “Perché credo questo?”
Non è tuo figlio che è ingenuo. È il suo cervello che sta facendo esattamente quello per cui è stato costruito: cercare amici invisibili. Per 200’000 anni ha funzionato. Adesso quegli amici invisibili hanno un modello di business.
Il tuo lavoro non è impedirgli di credere. È insegnargli a chiedere: a chi conviene che io ci creda?
Serie: Decisioni Cruciali
Fonti principali:
- Girotto, V., Pievani, T. & Vallortigara, G. (2008). Nati per credere. Perché il nostro cervello sembra predisposto a fraintendere la teoria di Darwin. Codice Edizioni.
- Carey, S., Saxe, R. & Tenenbaum, J.B. (2005). Secret agents: Inferences about hidden causes by 10- and 12-month-old infants. Psychological Science, 16, 995-1001.
- Bloom, P. & Weisberg, D.S. (2007). Childhood origins of adult resistance to science. Science, 316(5827), 996-997.
- Adomavicius, G. & Tuzhilin, A. (2005). Toward the next generation of recommender systems. IEEE Transactions on Knowledge and Data Engineering, 17(6), 734-749.
- Sparrow, B., Liu, J. & Wegner, D.M. (2011). Google effects on memory. Science, 333(6043), 776-778.
- Pew Research Center (2024). Teens and AI chatbots: Use of ChatGPT among U.S. teens 13-17.
- Zhao, L. et al. (2025). Effects of ChatGPT-assisted instruction on critical thinking and academic performance: A meta-analysis. Education and Information Technologies.
- Koenig, M.A. & Jaswal, V.K. (2011). Characterizing children’s expectations about expertise and incompetence: Halo or pitchfork effects? Child Development, 82(5), 1634-1647.
- Girouard-Hallam, L.N. & Danovitch, J.H. (2022). Children’s trust in and learning from voice assistants. Developmental Psychology, 58(6), 1157-1168.
PROSSIMO EPISODIO: in preparazione