English Version Translated by Ai
31 marzo 2026 - Aggiornato alle 20:19
×

tecnologia

L'algoritmo della paura: come i social ci convincono di essere in pericolo

Mentre l'Istat certifica il crollo storico dei reati, le piattaforme e l'IA generano un'epidemia di fake news per tenerci incollati agli schermi

31 Marzo 2026, 17:46

17:50

L'algoritmo della paura: come i social ci convincono di essere in pericolo

Seguici su

Basta una porta antipanico che sbatte in una metropolitana semivuota, un video caricato con toni allarmistici e, nel giro di pochi minuti, il sistema di raccomandazione convince migliaia di utenti di assistere a un’aggressione reale. È il cortocircuito esemplare del nostro tempo: mentre i feed dei social traboccano di violenza e degrado percepito, l’Italia concreta continua a figurare tra i Paesi europei con il più basso tasso di omicidi.

Questa dissonanza non è accidentale, ma l’esito di una precisa “economia dell’attenzione” che monetizza il timore a scapito dei fatti.

Sulle piattaforme digitali, i meccanismi che selezionano e spingono i contenuti sono progettati per massimizzare il tempo di permanenza e le interazioni. Per riuscirci, privilegiano ciò che provoca reazioni intense: indignazione, ostilità verso “l’altro” e panico morale sono calamite perfette per catturare lo sguardo.

I numeri parlano chiaro: un’analisi storica su Twitter ha rilevato che le notizie false raggiungono 1.500 persone a una velocità sei volte superiore rispetto a quelle verificate. Non è soltanto un tema di software, ma di psicologia: il nostro “novelty bias” ci spinge a cliccare e condividere ciò che è insolito, sorprendente e allarmante, anche quando privo di fondamento.

In questo ecosistema già polarizzato, la Intelligenza Artificiale generativa funziona come una vera stampante industriale di contenuti tossici. I modelli linguistici di ultima generazione hanno abbattuto i costi di produzione, consentendo a chiunque di generare testi, video e falsità con un tono assertivo, autorevole e altamente credibile.

In studi controllati, un’IA personalizzata si è dimostrata formidabile nel persuadere l’interlocutore, aumentando la probabilità di convincerlo dell’81,7% rispetto a un confronto tra esseri umani.

I più esposti a questa “bolla cognitiva” sono i cosiddetti heavy user: chi trascorre tre o quattro ore al giorno sui social condivide molte più bufale, un fenomeno trasversale che investe sia adolescenti sia anziani, smentendo la presunta autosufficienza digitale.

Eppure, i dati ufficiali smontano la retorica di un imminente collasso della sicurezza pubblica. Le statistiche di Istat e Ministero dell’Interno documentano un calo di lungo periodo dei reati più gravi. Il bilancio del Viminale sui primi sette mesi del 2025 registra persino una diminuzione del 9% dei delitti denunciati rispetto all’anno precedente.

Anche l’esperienza quotidiana racconta altro: oggi il 76% dei cittadini dichiara di sentirsi sicuro a uscire di sera nella propria zona, contro il 60,6% del 2015-2016; si dimezza inoltre la quota di chi rinuncia a uscire per paura.

Per arginare queste pericolose esternalità, la Unione Europea ha varato due scudi normativi di peso. Il Digital Services Act obbliga i colossi del web a mitigare i rischi sistemici della disinformazione, mentre l’AI Act (in vigore da agosto 2024) introduce l’obbligo di etichettatura per i deepfake e regole stringenti di trasparenza per i modelli generativi.

L’obiettivo non è “spegnere” gli algoritmi, ma spostare l’onere della prova sulle piattaforme. Tuttavia, le norme da sole non basteranno: servirà un design tecnologico responsabile, capace di rimettere i fatti al centro e disinnescare il redditizio business della paura.