16 gennaio 2026 - Aggiornato alle 11:40
×

la storia

Wikipedia a 25 anni: l’enciclopedia che ha reso il sapere un’opera collettiva (e imperfetta)

Dalla pagina “vuota” del 2001 alle 15 miliardi di visualizzazioni al mese: perché una piattaforma nata senza potere è diventata un potere del sapere

Fabio Russello

15 Gennaio 2026, 17:34

Wikipedia a 25 anni: l’enciclopedia che ha reso il sapere un’opera collettiva (e imperfetta)

Mentre scorrono in media 324 modifiche al minuto, la più vasta enciclopedia mai scritta continua a respirare, venticinque anni dopo il 15 gennaio 2001, giorno in cui nacque, Wikipedia: un’opera collettiva, gratuita, fragile e insieme straordinariamente resiliente. Oggi conta oltre 65 milioni di voci in più di 300 lingue, è consultata da 1,5 miliardi di dispositivi unici al mese e sfiora i 15 miliardi di visualizzazioni mensili. Non esiste nulla di paragonabile, soprattutto se si considera che l’infrastruttura che la sostiene non è un colosso commerciale, ma la non profit Wikimedia Foundation.

Una nascita senza manuale d’istruzioni

Wikipedia si accende il 15 gennaio 2001 con un’idea tanto semplice quanto rischiosa: “chiunque può modificare”. Nessun comitato scientifico, nessuna revisione editoriale tradizionale: solo un insieme di regole aperte, una comunità da costruire e un software – MediaWiki – che rende la collaborazione possibile e trasparente. Inizia in inglese; in poche settimane spuntano le prime edizioni in tedesco, poi decine, poi centinaia di lingue. Oggi gli “universi Wikipedia” sono 358: un mosaico linguistico che ha insegnato al web che la conoscenza, per essere davvero pubblica, dev’essere anche multilingue.

I numeri che raccontano una rivoluzione

Oltre 65 milioni di voci e più di 300 edizioni linguistiche attive, circa 7 milioni di voci in inglese; complessivamente, più di 66 milioni di voci su tutte le lingue a fine 2025, quasi 250.000 editor mensili (almeno una modifica al mese): un esercito di volontari che mantiene vivo il progetto.

In un decennio, Wikipedia ha totalizzato circa 1,9 trilioni di visualizzazioni, pari a una media di oltre 500 milioni al giorno: quasi la metà sono sulla versione inglese. Questi indicatori non sono solo quantità. Sono la prova di una trasformazione: Wikipedia ha cambiato il modo in cui cerchiamo, verifichiamo e conserviamo le informazioni, diventando lo “strato enciclopedico” che alimenta motori di ricerca, assistenti vocali e – oggi – anche modelli di intelligenza artificiale.

Voci provvisorie, sapere in movimento

Il cuore del progetto sta in una consapevolezza radicale: ogni voce è un’ipotesi di verità, sempre in revisione. Wikipedia non promette la perfezione; promette un processo. Lo dice il suo stesso “costituzionale” editoriale: scrivere con punto di vista neutrale, garantire verificabilità, vietare la ricerca originale. Insieme, queste tre regole costruiscono un argine contro arbitri e tesi senza fonti, trasformando il conflitto in confronto documentato. Non è un metodo infallibile, ma è un metodo, e nel lungo periodo funziona meglio di moltissime alternative proprietarie.

Quando la fiducia è messa alla prova

Chi ricorda il caso Seigenthaler del 2005 sa che la fiducia in Wikipedia non è mai stata scontata: una biografia falsata accusava il giornalista John Seigenthaler di legami con gli omicidi dei fratelli Kennedy. L’episodio, durato mesi, costrinse la comunità a irrigidire le regole sulle biografie di viventi e a interrogarsi sulla responsabilità editoriale. Ma fu anche l’occasione per misurare – con dati – l’attendibilità dell’enciclopedia: nello stesso periodo uno studio di Nature sulla qualità delle voci scientifiche paragonò Wikipedia a Encyclopaedia Britannica e, pur con margini d’errore e contestazioni di Britannica, rilevò che gli errori gravi erano pari (quattro a quattro) e che le differenze, spesso, riguardavano omissioni e struttura. La scienza e il giornalismo non trovarono un verdetto definitivo; trovarono però un’indicazione: l’accuratezza “media” di Wikipedia, nelle discipline dure, non era così lontana dall’ortodossia enciclopedica.

Non è l’unica crepa emersa in questi anni. Ci sono state situazioni in cui la governance comunitaria è stata catturata da gruppi organizzati – come nella Wikipedia in croato, dove un’indagine del 2021 parlò di “distorsioni sistematiche” poi affrontate con riforme e rimozioni di privilegi amministrativi. È la dimostrazione che il modello funziona quando c’è massima diversità editoriale e vigilanza: dove la comunità è piccola o polarizzata, l’apertura può diventare una debolezza.

L’infrastruttura invisibile: licenze, software, dati

Tutto ciò è possibile grazie a una scelta radicale: i contenuti di Wikipedia sono rilasciati con licenza Creative Commons BY‑SA. Nel 2023 la Wikimedia Foundation ha aggiornato la licenza alla versione 4.0, rendendo più agevole il riuso globale e la compatibilità con materiali pubblici (per esempio di agenzie ONU). Il software che regge tutto – MediaWiki – è open source; strumenti come il VisualEditor hanno abbassato la soglia d’ingresso per i nuovi contributori. E a dare spina dorsale semantica c’è Wikidata, il knowledge graph collaborativo nato nel 2012, che fornisce dati strutturati a infobox, ricerche, progetti esterni e – sì – a sistemi di intelligenza artificiale.

Non tutto il mondo ha accesso allo stesso modo

Wikipedia è bloccata in Cina dal 2019 in tutte le lingue: una realtà che pesa sull’ecosistema dell’informazione globale e che mostra come le enciclopedie libere siano, per definizione, politiche nel senso più alto del termine – esistono e funzionano dove esistono e funzionano i diritti digitali.

Come si regge economicamente un bene pubblico digitale

Dietro la facciata gratuita c’è una macchina non profit che paga server, sicurezza, sviluppo, grant alla comunità. Nell’ultimo esercizio completo, la Wikimedia Foundation ha superato i 208,6 milioni di dollari di entrate (al 30 giugno 2025), di cui la quota principale da micro‑donazioni; cresce, però, il ruolo di Wikimedia Enterprise, il servizio a pagamento che offre accesso ottimizzato ai dati per grandi utilizzatori commerciali. Nel FY 2024–2025 Enterprise ha raggiunto 8,3 milioni di dollari di ricavi ed è diventato per la prima volta profittevole, contribuendo alla diversificazione del modello.

Non è un dettaglio contabile. Il 15 gennaio 2026, nel giorno del venticinquennale, arrivano gli annunci che fotografano la nuova fase: accordi con Microsoft, Meta, Amazon e con startup come Perplexity e Mistral AI per fornire accesso a pagamento ai contenuti in funzione di training e di integrazione nei prodotti di IA. Sono intese che si aggiungono alla collaborazione avviata nel 2022 con Google/Alphabet e che hanno un obiettivo dichiarato: evitare che le donazioni dei lettori sussidino l’uso massivo dell’infrastruttura da parte di giganti tecnologici. Intanto, la leadership dell’organizzazione cambia: al 20 gennaio 2026 è atteso l’ingresso della nuova CEO Bernadette Meehan, mentre la CEO uscente Maryana Iskander ha spinto proprio sulla sostenibilità a lungo termine. È un passaggio che definisce un nuovo patto tra la comunità e l’industria dell’IA: se Wikipedia è una colonna portante del sapere online, chi la usa in grande scala deve contribuire a mantenerla.

Italia, lingue e “prospettiva locale”

Nel nostro Paese, Wikipedia in italiano è un laboratorio vivace. Le classifiche mensili dei contenuti più letti mostrano una dieta informativa ibrida, tra sport, attualità, cultura pop e approfondimenti storico‑artistici. Ma la vera ricchezza sta nell’ecosistema: associazioni come Wikimedia Italia, comunità tematiche, partnership con atenei, biblioteche e archivi. In parallelo, il pluralismo linguistico del progetto fa emergere storie altrimenti invisibili: dalle edizioni con accrescimento “assistito” dai bot (come Cebuano o svedese) a quelle con comunità piccole ma determinate. È qui che si vede meglio la legge non scritta di Wikipedia: la qualità di una voce non dipende dalla “importanza” del tema, ma dal tempo e dalla cura che una comunità decide di investirci.

Affidabilità: c'è da fidarsi?

Con Wikipedia, la domanda non è “posso fidarmi?”, ma “come mi fido?”. E la risposta è nell’uso consapevole. Le voci sono provvisorie per definizione: cambiano, si correggono, talvolta si contraddicono nel tempo. La forza non sta nella fissità, ma nella trasparenza: cronologie pubbliche, pagine di discussione, avvisi di qualità, richieste di fonti. Dove emergono errori, il sistema tende – spesso – ad autocorreggersi, come mostrano studi e monitoraggi; dove emergono campagne organizzate, servono interventi più robusti e sostegno ai volontari esposti. Per questo la piattaforma investe su strumenti di moderazione, su programmi di tutela dei contributori a rischio e su alleanze con il mondo della ricerca per contrastare disinformazione e abusi coordinati.