l'allarme
L'ingegneria dell'opinione: come l'Algoritmo di X sposta il consenso favorendo contenuti sovranisti
L'indagine su quasi 5.000 utenti svela il meccanismo silenzioso del feed "Per Te": mentre i media tradizionali vengono oscurati, l'attivismo conservatore ottiene corsie preferenziali, modificando in modo permanente la dieta informativa degli elettori
Un nuovo studio sperimentale accende i riflettori sul “For You”: più visibilità a attivisti e messaggi conservatori, meno spazio ai media tradizionali. E gli effetti, una volta innescati, non si spengono con un clic.
Mentre scorrete il vostro feed su X (l'ex Twitter), potreste notare un meme pungente su un’indagine contro Donald Trump o un thread virale che minimizza la guerra in Ucraina. Quello che probabilmente non vedrete, o vedrete molto meno, è la cronaca rigorosa di un quotidiano nazionale. Non è un caso, e non è solo una questione di gusti personali. È il risultato di un’architettura invisibile che sta ridisegnando l'ecologia dell'informazione globale.
Un nuovo studio pubblicato su Nature e condotto su 4.965 utenti statunitensi, monitorati per sette settimane, ha aperto la scatola nera dell'algoritmo di raccomandazione di X, svelando un sistema che non si limita a riflettere le preferenze degli utenti, ma le pilota attivamente verso destra.
-1771441854015.png)
Il cuore dell'inchiesta risiede nei numeri, e sono impietosi per l'industria dell'informazione. I ricercatori hanno scoperto che il passaggio dal feed cronologico (dove vedi i post di chi segui in ordine di tempo) a quello algoritmico ("Per Te") comporta una drastica penalizzazione delle fonti di notizie verificate.
I contenuti provenienti dalle testate giornalistiche subiscono un crollo di visibilità del 58,1%. Al loro posto, l'algoritmo riempie il vuoto con due categorie ben precise: intrattenimento (+21,5%) e, soprattutto, attivismo politico (+27,4%).
In questo nuovo ecosistema, l'autorità epistemica delle testate viene spinta ai margini, sostituita da formati virali, opinionismo e militanza. Se l'obiettivo delle piattaforme moderne è massimizzare l'engagement — click, interazioni, tempo di permanenza — l'algoritmo sembra aver "imparato" che l'indignazione e la partigianeria rendono molto più dell'informazione equilibrata.
L'aspetto più controverso emerso dallo studio è l'asimmetria politica. L'algoritmo non amplifica la politica in modo neutro. I dati mostrano che i post identificati come "conservatori" godono di un vantaggio sistematico: hanno una probabilità relativa maggiore del 19,9% di apparire nel feed algoritmico rispetto alla loro controparte liberale, che registra un incremento appena percepibile del 3,1%.
Questo squilibrio ha effetti tangibili sulle opinioni. Sebbene lo studio non rilevi un aumento immediato dell'odio verso la parte avversa ("affective polarization"), registra uno spostamento su temi specifici: chi è esposto all'algoritmo tende ad allinearsi a posizioni più conservatrici su questioni cruciali come le indagini giudiziarie su Trump o l'interpretazione del conflitto in Ucraina.
È interessante notare che ricerche precedenti, come un audit indipendente del 2023 su un campione più piccolo, avevano suggerito che l'algoritmo potesse offrire notizie meno estreme. Tuttavia, questa discrepanza evidenzia una verità fondamentale per gli utenti: i parametri cambiano costantemente. Una modifica al "tone of voice" o ai criteri di ranking può comprimere in una sola settimana livelli di polarizzazione che normalmente richiederebbero decenni per svilupparsi.
Il dato più inquietante emerso dall'indagine riguarda però il comportamento a lungo termine. L'algoritmo non si limita a mostrarvi contenuti diversi oggi; modifica chi sarete domani.
Gli utenti esposti al feed algoritmico mostrano una propensione significativamente maggiore a iniziare a seguire account di attivisti conservatori. Questo crea un effetto "trascinamento": anche se l'utente decide di spegnere l'algoritmo e tornare al feed cronologico, quei nuovi account rimangono nella sua lista di "seguiti". L'algoritmo, in sostanza, ristruttura silenziosamente la rete di relazioni dell'utente, lasciando un'impronta indelebile sulla sua ecologia informativa.
Questo studio arriva in un momento in cui la gestione di X è sotto la lente d'ingrandimento. Analisi accademiche condotte nel 2024 hanno evidenziato un possibile "riequilibrio" pro-Repubblicani nel ranking della piattaforma proprio a metà luglio, in concomitanza con l'endorsement pubblico di Elon Musk a Donald Trump.
Mentre negli Stati Uniti il dibattito è acceso, l'Europa si sta muovendo sul piano legale. La Commissione Europea ha aperto un procedimento formale contro X ai sensi del Digital Services Act (DSA), concentrandosi proprio sulla trasparenza dei sistemi di raccomandazione. Con sanzioni che possono arrivare al 6% del fatturato globale e indagini parallele in Francia e Spagna su questioni di cybercrime e protezione dei minori, l'architettura algoritmica non è più solo un segreto industriale, ma un caso politico-giudiziario internazionale.
La questione che rimane aperta è se la trasparenza richiesta dal DSA sarà sufficiente a mitigare i rischi sistemici di un algoritmo che, per massimizzare il profitto, sembra aver scelto da che parte stare.