Il momento preciso in cui ho capito che attorno a me stava succedendo qualcosa di strano, non è scaturito da un evento significativo o da una rivelazione improvvisa, ma si è formato con un accumulo lento di stimoli esterni, quasi impercettibile. Un brusio. Un brusio fastidioso.
Qualche pomeriggio fa, mentre lavoravo, il telefono ha iniziato a vibrare con una certa insistenza. Prima una notifica, poi un’altra, poi una serie di messaggi quasi compulsivi: link, screenshot, video. “Guarda questo”, “è terribile”, “adesso si spiega tutto” e così via.
In mezzo a quella sequenza di messaggi indesiderati, due parole su tutte si ripetevano come uno slogan, sempre uguale a se stesso: Epstein Files, Epstein Files, Epstein Files ...
Sapevo già qualcosa sulla storia disgustosa di Jeffrey Epstein, non è certo una vicenda minore o marginale, è una storia reale, documentata e profondamente inquietante: traffico di minori, relazioni con persone potentissime, una rete di silenzi e connivenze difficili da ricostruire.
Una storia già di per sé oscura e disturbante, che non aveva bisogno di essere arricchita da fantasie per apparire mostruosa.
Eppure, nel giro di pochi giorni, ho assistito a una trasformazione narrativa che mi ha lasciato addosso una sensazione difficile da descrivere. Non era più la cronaca di un caso giudiziario complesso, ma qualcosa che stava lentamente assumendo i contorni di un racconto sempre più estremo.
Le accuse diventavano progressivamente più radicali, più oscure, più spettacolari. Si parlava di violenze su bambini piccolissimi, di rituali segreti, di cannibalismo, di reti di potere quasi sovrumane.
Ad un certo punto mi sono reso conto che il tono non era più quello di un’indagine, ma quello di una sceneggiatura horror.
La cosa che mi ha colpito di più, però, non è stata l’esistenza di queste teorie: Internet ne produce a ciclo continuo ed è un fenomeno con cui conviviamo purtroppo da anni. Quello che mi ha davvero turbato è stato osservare chi ci stava credendo più che ciecamente. Non si trattava di persone ingenue o poco istruite. Molti dei messaggi che ricevevo arrivavano da persone che considero intelligenti, preparate, spesso molto competenti nei loro ambiti.
Parlo di professionisti con cui ho discusso per anni di tecnologia, sicurezza informatica, filosofia della scienza, logica. Persone capaci di scrivere codice complesso, progettare sistemi, analizzare bilanci o modelli economici. Eppure, improvvisamente, sembravano convinte che stesse emergendo una verità talmente indicibile da non poter essere raccontata dai media tradizionali.
Non era ignoranza. Non era nemmeno ingenuità. Quello che stavo osservando era qualcosa di più inquietante: una sorta di allucinazione collettiva.
Quando l’orrore diventa plausibile
Ho iniziato ad osservare il fenomeno con una certa attenzione... scientifica, probabilmente perché sono ormai troppo deformato professionalmente per lasciarmi sfuggire cose di questo tipo. Il caso Epstein, in questo senso, è un detonatore cognitivo quasi perfetto. La ragione è semplice: esiste un nucleo reale e documentato di fatti gravissimi, e questo abbassa naturalmente le difese critiche della mente.
Quando una storia parte da una base di verità, il cervello tende ad abbassare il livello di controllo e ad accettare più facilmente le informazioni successive. È qui che entrano in gioco alcuni ben noti meccanismi psicologici.
Il primo è il bias di conferma, cioè la tendenza a cercare e interpretare le informazioni in modo da confermare ciò che già sospettiamo. Se pensiamo che le élite siano profondamente corrotte — cosa che a volte è persino vera — ogni nuova informazione ambigua viene interpretata come prova di un male ancora più profondo.
Subito dopo entra in gioco un altro meccanismo, noto come availability heuristic. In pratica giudichiamo la probabilità di un evento in base alla facilità con cui ci vengono in mente esempi simili. Se i social ci inondano di video, testimonianze e presunti leak, il cervello interpreta la quantità come un indicatore di verità. “Se se ne parla così tanto”, pensa automaticamente la mente, “qualcosa ci sarà”.
A questo si aggiunge il negativity bias, cioè la nostra tendenza evolutiva a prestare molta più attenzione alle informazioni negative. Una notizia mostruosa cattura l’attenzione in modo incomparabilmente più forte di un’analisi sobria e prudente. E gli algoritmi delle piattaforme digitali lo sanno perfettamente.
Ma il meccanismo forse più potente è il cosiddetto proportionality bias. Quando ci troviamo di fronte a un evento enorme — come un traffico internazionale di minori con possibili implicazioni politiche — il nostro cervello tende a rifiutare spiegazioni banali. Se il fenomeno è grande, pensiamo che anche la causa debba essere gigantesca, oscura, quasi cosmica. La banalità del male, fatta di mediocrità, opportunismo e vigliaccheria, non ci soddisfa. La mente preferisce immaginare un demone.
Dalla cronaca alla mitologia
A un certo punto ho constatato come la conversazione non ruotasse più attorno ai fatti. Non si parlava più di prove, testimonianze o documenti verificabili. Le frasi ricorrenti erano diventate altre: “non puoi capire”, “ci sono livelli che non immagini”, “è tutto molto più grande”.
Queste espressioni sono quasi sempre il segnale che si è entrati nel territorio del pensiero cospirazionista strutturato. Non mi riferisco al dubbio legittimo, che è sempre sano e necessario. Mi riferisco a un sistema narrativo chiuso, autosufficiente e impermeabile alla falsificazione.
In questi sistemi ogni elemento viene reinterpretato per confermare la narrazione. Se manca una prova, significa che è stata nascosta. Se un documento viene smentito, la smentita diventa parte del piano di copertura. Se qualcuno chiede fonti o dati verificabili, viene accusato di essere ingenuo o complice.
È esattamente lo schema logico che abbiamo osservato in fenomeni come QAnon: un universo narrativo che ingloba tutto e che trasforma l’assenza di prove nella prova stessa dell’insabbiamento. Quando un sistema di pensiero diventa impermeabile alla falsificazione, smette di essere un’indagine. Diventa una mitologia.
L’algoritmo come acceleratore di allucinazioni
Qui entra in gioco la parte che colpisce, più di ogni altra, la mia attenzione. Gli algoritmi dei social network non sono progettati per cercare la verità, ma per ottimizzare l’attenzione degli utenti.
Come sappiamo, l'obiettivo dei social è mantenere le persone il più possibile all’interno della piattaforma, perché più tempo significa più dati e più ricavi pubblicitari.
Un contenuto che genera indignazione, paura o rabbia è perfetto per questo scopo. Più un video è scioccante, più è probabile che venga guardato fino alla fine, condiviso e commentato. E ogni volta che interagiamo con quel contenuto, l’algoritmo registra il nostro interesse e ci propone altri contenuti simili.
La dinamica è quasi matematica: si interagisce con un contenuto scioccante, il sistema lo registra, propone contenuti analoghi e ogni nuovo contenuto tende a essere leggermente più estremo del precedente. In questo modo la percezione della realtà si sposta lentamente, senza che ce ne rendiamo conto.
Non è necessario immaginare un grande burattinaio dietro le quinte. È sufficiente un ecosistema digitale che premia sistematicamente l’estremo. Il risultato è una forma di radicalizzazione progressiva, una camera dell’eco emotiva che amplifica le narrazioni più disturbanti. E quando il tema coinvolge qualcosa di moralmente assoluto — come la protezione dei bambini — il cervello sospende quasi completamente la cautela epistemica.
Le possibili origini di questa ondata
Quando si osserva un fenomeno del genere è importante restare rigorosi. Le ipotesi restano ipotesi finché non diventano dimostrabili. Esistono però alcune spiegazioni plausibili.
La prima è la più semplice: il sensazionalismo paga. Creator e network che producono contenuti estremi ottengono traffico, visualizzazioni e quindi guadagni. L’indignazione è una delle merci più redditizie dell’economia digitale.
Una seconda possibilità riguarda le dinamiche della guerra informativa contemporanea. In un’epoca di conflitti ibridi, destabilizzare il tessuto cognitivo di una società è uno strumento strategico molto potente. Amplificare la sfiducia nelle istituzioni e nei media tradizionali può generare polarizzazione e frammentazione sociale.
La terza ipotesi è forse la più inquietante. Potrebbe non esserci alcun regista centrale. Potremmo trovarci di fronte a una dinamica emergente, nata dall’interazione spontanea tra algoritmi, incentivi economici e bias cognitivi umani. Una tempesta perfetta cognitiva che non ha bisogno di un super-villain per produrre effetti devastanti.
Perché anche le persone intelligenti ci cascano
Questa è probabilmente la parte più difficile da accettare. L’intelligenza analitica non protegge automaticamente dalla manipolazione emotiva. In alcuni casi può addirittura renderla più sofisticata, perché una mente brillante è in grado di costruire argomentazioni elaborate per difendere una convinzione nata da una reazione viscerale.
A questo si aggiunge un fattore psicologico molto potente: la sensazione di aver compreso qualcosa che gli altri non vedono. L’idea di possedere una chiave interpretativa segreta offre senso, appartenenza e identità. In un mondo complesso e spesso caotico, una spiegazione totale appare rassicurante.
Il caos è difficile da tollerare. La cospirazione, paradossalmente, offre una forma di ordine.
La parte che mi inquieta davvero
Ciò che mi ha lasciato la sensazione più inquietante non è la disinformazione in sé. La propaganda e le narrazioni manipolatorie esistono da sempre. Quello che mi colpisce è la velocità con cui le persone sembrano perdere la capacità di distinguere tra realtà, interpretazione e racconto.
Questo fenomeno attraversa tutte le generazioni. Non riguarda soltanto i più giovani o i più anziani. È come se il cervello medio fosse ormai immerso in un ambiente informativo dove la distinzione tra fatto, opinione e fiction si dissolve continuamente.
Video montati male diventano prove. Screenshot senza fonte diventano documenti. Narrazioni emotive diventano verità. E ogni volta che si prova a rallentare la conversazione e a chiedere una semplice cosa — “qual è la fonte primaria?” — succede qualcosa di curioso. Il dialogo si interrompe.
Come si argina un’allucinazione collettiva
La censura raramente funziona. Spesso finisce per rafforzare la narrativa della persecuzione. Il problema è più profondo e riguarda la qualità complessiva del nostro ecosistema cognitivo.
Servirebbe un’educazione epistemologica molto più diffusa. Non soltanto il fact-checking occasionale, ma la comprensione di come funziona la conoscenza: cosa distingue una fonte primaria da una secondaria, cosa significa davvero una prova, come riconoscere una correlazione spuria. Il metodo scientifico non è solo una pratica da laboratorio, ma una disciplina mentale quotidiana.
Accanto a questo esiste anche una responsabilità delle piattaforme digitali. Gli algoritmi non sono entità naturali, ma scelte progettuali. Possono essere costruiti per premiare sistematicamente il contenuto più estremo oppure per attenuare queste dinamiche.
Infine esiste una responsabilità personale, probabilmente la più difficile da esercitare. È la disciplina del dubbio. Fermarsi davanti a un contenuto che ci provoca una reazione emotiva forte e chiedersi cosa sappiamo davvero, quali siano le fonti e chi potrebbe beneficiare della nostra reazione.
La sensazione che mi rimane
Dopo aver osservato tutto questo mi resta addosso una sensazione difficile da definire. Non è rabbia e non è nemmeno sorpresa. È piuttosto una forma di malinconica rassegnazione.
Viviamo in un’epoca in cui un flusso informativo può trasformarsi in un’allucinazione collettiva nel giro di quarantotto ore.
Non è più necessario controllare giornali o televisioni per orientare il dibattito pubblico. Basta lasciare che algoritmi, emozioni e bias cognitivi facciano il loro lavoro.
La tecnologia amplifica tutto, comprese le fragilità della mente umana. E forse la verità più scomoda è proprio questa:
la manipolazione non funziona perché esistono manipolatori geniali, ma perché noi esseri umani siamo straordinariamente vulnerabili alle storie che ci emozionano.
Anche quando siamo intelligenti. Forse, in certi casi, soprattutto quando lo siamo.
Ed è su questo terreno fragile, umano e imperfetto che si gioca una delle partite più importanti della nostra epoca digitale.
