11 dicembre 2025 - Aggiornato alle 13:16
×

gli scenari

Data center, l’altra faccia dell’oro dell’IA: costi fuori scala, aggiornamenti lampo e una “domanda” che si autoalimenta

L’espansione è vertiginosa e traina l’economia USA, ma dietro le facciate scintillanti dei campus digitali si accumulano numeri, vincoli e paradossi che mettono in discussione la sostenibilità industriale e finanziaria della corsa all’IA

Redazione La Sicilia

11 Dicembre 2025, 11:52

Una notte d’estate in Virginia, una cinquantina di data center agganciati alla stessa dorsale elettrica si spengono all’unisono e passano ai generatori diesel. In centrale, gli operatori riducono in fretta la produzione per evitare un picco di tensione che rischia di far saltare parte della rete. È un episodio sfiorato dal blackout, passato in sordina ma rivelatore: la nuova infrastruttura dell’IA generativa non è una nuvola eterea, è acciaio, rame, chip e soprattutto megawatt che si muovono a scatti, con effetti immediati su territori e bilanci. Quel “respiro” elettrico, sempre più frequente nelle aree a forte densità di data center, racconta meglio di qualsiasi slide la faglia tra ambizione tecnologica e realtà fisica.

Un’industria cruciale, ma con costi e vincoli crescenti

I data center sono ormai la spina dorsale dell’economia digitale statunitense e il motore materiale dell’IA generativa. Nel 2024 hanno consumato circa il 1,5% dell’elettricità mondiale e, secondo l’International Energy Agency, entro il 2030 la domanda globale dei data center è destinata a più che raddoppiare verso quota 945 TWh (circa il 3% dei consumi mondiali), con gli Stati Uniti che pesano per quasi la metà della crescita. In alcune aree — dalla Data Center Alley della Virginia al Texas — l’impatto locale è però molto più rilevante del dato globale.

Il nuovo ciclo di capex è senza precedenti: nel 2024 la spesa globale per data center è salita del 51% a circa 455 miliardi di dollari, con ulteriore accelerazione nel 2025 spinta dai rollout di GPU di nuova generazione e acceleratori custom dei colossi cloud. Ma più corrono gli investimenti, più si fanno evidenti tre linee di fragilità: i costi di costruzione, la rapidissima obsolescenza dell’hardware e una “economia circolare” tra produttori di chip e grandi utilizzatori che rischia di drogare domanda e valutazioni.

Quanto costa davvero 1 GW di “potenza IA”

Nei pitch degli ultimi mesi, la soglia simbolica sono i campus da 1 GW. Quanto costano? Le valutazioni oscillano. Una stima recente parla di circa 35 miliardi di dollari per 1 GW di capacità IA, poco sotto i 50–60 miliardi indicati in passato da chi guida la filiera delle GPU. Al di là della cifra, l’ordine di grandezza è spiazzante: decine di miliardi per ogni gigawatt, con la componente compute (soprattutto GPU) che assorbe una quota dominante del capex. E i numeri sono destinati a cambiare a ogni salto generazionale di chip.

Negli Stati Uniti, intanto, il contatore corre. L’EIA prevede consumi elettrici nazionali ai massimi storici nel 2025 e 2026, trainati anche dall’onda lunga di data center e applicazioni IA. Utility come Dominion Energy in Virginia hanno quasi raddoppiato in pochi mesi la capacità contrattualizzata con operatori di data center fino a 40 GW, aggiornando i piani d’investimento a 50,1 miliardi di dollari nel quinquennio (2025–2029). Sono cifre che ridisegnano le priorità infrastrutturali degli Stati.

Il collo di bottiglia energetico: dalla griglia locale ai “carichi fantasma”

Se la quota globale di elettricità dei data center può sembrare gestibile, gli effetti locali non lo sono sempre. In Virginia, un’analisi commissionata dal Parlamento statale stima che, per assecondare integralmente lo sviluppo previsto, servirebbe aumentare del 150% la generazione interna e altrettanto le importazioni, potenziando del 40% la rete di trasmissione: una sfida logistica, regolatoria e finanziaria enorme. Al Texas, l’operatore ERCOT segnala richieste di connessione di carichi “large load” superiori a 230 GW — quattro volte l’anno precedente — con oltre il 70% legato a data center, molti dei quali oltre 1 GW ciascuno. In parallelo cresce il fenomeno dei cosiddetti “phantom data centers”: progetti duplicati o speculativi che gonfiano le previsioni di domanda, inducendo le utility a pianificare opere che potrebbero restare sottoutilizzate.

Le reazioni dei regolatori si stanno affinando. In Irlanda, la CRU ha proposto che i nuovi data center, per essere connessi, garantiscano generazione e/o storage locali e partecipino al mercato elettrico come risorsa di sistema. È un cambio di paradigma: chi consuma tanto deve anche contribuire attivamente alla flessibilità della rete.

GPU: la nuova obsolescenza programmata

Il cuore economico della corsa all’IA è nella triade GPU–rete–storage: qui si gioca la redditività. La cadenza dei lanci — da Hopper a Blackwell e oltre — ha ristretto i cicli di utilità a finestre annuali o biennali, comprimendo il tempo in cui un cluster rimane “top di gamma”. Non è solo marketing: ogni salto di architettura impatta su efficienza, memoria, networking e su come si mappano i modelli; per restare competitivi su training e inferenza, i grandi devono aggiornare in fretta. Nei mesi scorsi, lo stesso Jensen Huang ha scherzato (fino a un certo punto) sul fatto che, con l’arrivo massivo di Blackwell, i sistemi Hopper rischiano di “non valere più”. Per i bilanci significa ammortamenti accelerati, svalutazioni e pressione sui margini: Amazon ha già rivisto al ribasso le vite utili di alcune classi hardware, impattando gli utili operativi per centinaia di milioni.

In parallelo, il capex dei data center continua a gonfiarsi a doppia cifra, con le GPU e gli acceleratori che arrivano a rappresentare circa un terzo della spesa complessiva. È un equilibrio fragile: basta un allungamento dei time-to-deploy o un ritardo nelle rese produttive perché il ciclo finanziario si inceppi.

Una “economia circolare” che rischia di drogare la domanda

Qui entra in scena un fenomeno poco raccontato fuori dalla comunità finanziaria: la costruzione di una domanda “assistita”. Accordi di lungo periodo prevedono che il produttore di GPU si impegni a comprare la capacità cloud invenduta di alcuni provider specializzati, garantendone l’utilizzo a prescindere dalla domanda finale. Risultato: la capacità si costruisce lo stesso, il rischio operativo si riduce per il provider, ma il segnale di prezzo per l’intero mercato si distorce. Un’intesa recente prevede, per esempio, un backstop fino a 6,3 miliardi di dollari con orizzonte al 2032; in un altro caso, lo stesso produttore ha ri-affittato per 1,5 miliardi migliaia di GPU precedentemente vendute a un cloud emergente, diventandone il principale cliente. Sul piano industriale è brillante; su quello macro segnala un potenziale circolo autoreferenziale in cui fornitori e grandi acquirenti si sostengono a vicenda, attenuando il rischio ma gonfiando domanda e valutazioni.

Questo paradigma va letto accanto a un’altra dinamica: l’ingegneria finanziaria che fa leva su collateral di GPU, SPV e contratti “take-or-pay” per accelerare costruzioni e ordinativi. Il caso CoreWeave — con debito in forte crescita, covenant violati poi sanati e una base ricavi molto concentrata su Microsoft e sullo stesso fornitore di GPU — è emblematico delle complessità di una filiera in iper-crescita. Nulla di illegale, ma la circolarità degli interessi richiede trasparenza e vigilanza.

Il tallone d’Achille: energia e acqua

L’energia è il vincolo fisico primario. L’IEA stima che negli USA i data center potrebbero assorbire quasi la metà della crescita dei consumi elettrici al 2030. Le utility aggiornano le curve di carico, ma non sempre distinguere tra progetti reali e “phantom” è semplice; alcuni operatori hanno introdotto depositi cauzionali più alti e clausole per evitare che costi di infrastrutture non utilizzate vadano in bolletta ai cittadini. Nel frattempo, i mercati più caldi spingono piani di nuova generazione a gas, rinnovabili e perfino nucleare modulare per assicurare potenza dispatchable ai poli dell’IA.

Meno visibile ma altrettanto strategica è la risorsa idrica. Una stima accademica ha quantificato l’impronta d’acqua di operazioni IA: tra uso diretto nei sistemi di raffreddamento e indiretto nelle centrali elettriche, i consumi possono essere significativi, specie d’estate e in aree aride. Un lavoro dell’UC Riverside ha associato il training di un grande modello a centinaia di migliaia di litri di acqua dolce; un’analisi su IEEE Spectrum ricorda che gran parte dell’acqua “virtuale” è legata alla produzione elettrica, e che scelte tecnologiche (evaporativo vs. ad aria, liquid cooling, thermal storage) possono ridurre l’impatto locale. Qui la progettazione conta quanto la retorica green.

Politica e territorio: la nuova linea del fronte

Quando i costi di rete e produzione crescono, l’opinione pubblica reagisce. In USA oltre 200 organizzazioni ambientaliste hanno chiesto una moratoria sui nuovi data center finché non verranno imposti standard più stringenti su energia, acqua e emissioni. Secondo stime di settore, contestazioni locali hanno già bloccato o ritardato progetti per circa 64 miliardi di dollari. Le elezioni in Stati chiave hanno visto candidati promettere bollette più basse e maggiore trasparenza nei contratti con i colossi del cloud. È un segnale politico: la geografia dell’IA non è neutra.

Affidabilità operativa: meno incidenti, ma il rischio resta

La buona notizia: secondo l’Uptime Institute, la frequenza degli outage gravi è in calo da quattro anni. La cattiva: quando succedono, costano — oltre 100.000 dollari in più della metà dei casi, e oltre 1 milione in circa 1 su 5. Le cause principali restano power/UPS, seguite da cooling e network/IT. L’aumento di densità per rack e l’adozione di liquid cooling spingono a ripensare ridondanze e procedure; l’errore umano continua a pesare. Sul piano sistemico, contano anche gli eventi “rari ma non troppo” sul lato rete elettrica, come l’episodio in Virginia.

Dove sta il valore? Tre domande per il 2026

Il conto economico dell’IA torna? Gli analisti vedono capex cumulati trilionari entro fine decennio e una parte crescente assorbita da GPU e rete. Se i ricavi applicativi (search, advertising, productivity, developer tools) non corrono allo stesso ritmo, qualcuno resterà esposto con asset deprezzati troppo in fretta.

La rete elettrica regge? Gli Stati più esposti stanno imponendo requisiti ai nuovi poli digitali (generazione/accumulo locale, contratti di capacità, penalità per carichi non dispacciabili). È probabile una convergenza verso PPA più flessibili, demand response e storage.

Si può evitare la domanda drogata? Gli accordi backstop e il vendor financing non sono di per sé patologici, ma vanno letti con indicatori di utilizzo reale (tassi di occupazione, PUE, carico medio vs. di picco, reti ottiche sature o meno). La trasparenza qui è anticyclica.