Data Center in Italia: Analisi delle Criticità tra Impatti Ambientali e Sovranità Digitale
24 Aprile 2026

L’economia globale contemporanea poggia su una base materiale paradossalmente invisibile alla maggior parte della popolazione: il data center.
Sebbene il discorso pubblico tenda a privilegiare la metafora del “cloud”, suggerendo un’entità eterea e priva di peso, la realtà infrastrutturale è composta da enormi volumi di cemento, chilometri di cavi in fibra ottica, sistemi di raffreddamento idrico massicci e un consumo energetico paragonabile a quello di intere nazioni.
Per un’organizzazione di advocacy come Privacy Network, comprendere la natura dei data center non è solo un esercizio di analisi tecnologica, ma un atto di riappropriazione della consapevolezza politica su chi controlla i flussi di informazione e a quale costo ambientale e sociale. Il presente articolo analizza l’evoluzione di queste strutture, la loro concentrazione nel mercato italiano e le problematiche legate al consumo di risorse.
La distinzione fondamentale nel settore risiede nella scala, nella finalità operativa e nella proprietà delle strutture. Tradizionalmente, il data center aziendale (enterprise) era concepito come una sala server interna a un’organizzazione, dimensionata per le esigenze specifiche di quella singola entità. Queste strutture operano mediamente con un’efficienza energetica contenuta, misurata attraverso il Power Usage Effectiveness (PUE), un indicatore che mette in relazione l’energia totale consumata dalla struttura con quella effettivamente utilizzata dagli apparati IT.
Al contrario, l’emergere dei data center “hyperscale” ha ridefinito gli standard di efficienza.
Queste strutture sono giganti del calcolo associati a fornitori di servizi cloud globali come Google, Amazon (AWS) e Microsoft. Un impianto viene definito hyperscale quando supera i 5.000 server e una superficie di circa 10.000 metri quadrati, sebbene le strutture più
moderne superino di ordini di grandezza questi parametri. Il PUE di questi data center mostra dati molto convincenti, tuttavia, l’efficienza maschera un aumento massiccio del consumo assoluto di energia e risorse, un fenomeno noto come effetto rebound, dove il miglioramento dell’efficienza facilita un’espansione della domanda che annulla i risparmi ottenuti.
Questi sistemi utilizzano supercomputer e cluster di server collegati tramite reti ad altissima velocità per eseguire calcoli complessi in parallelo. Mentre un data center standard può impiegare settimane per processare un dataset massiccio, un centro HPC riduce i tempi a pochi minuti o ore, diventando essenziale per la ricerca scientifica, le simulazioni finanziarie e l’addestramento dei modelli di intelligenza artificiale (AI). Questa potenza richiede densità energetiche senza precedenti e tecnologie di raffreddamento avanzate, spesso a liquido, per gestire il calore generato dai processori di ultima generazione.
Mappatura dei Data Center in Italia
L’Italia sta vivendo una fase di espansione infrastrutturale senza precedenti, posizionandosi come uno dei mercati emergenti più attraenti d’Europa dopo l’area tradizionale FLAP (Francoforte, Londra, Amsterdam, Parigi). Al 2025, si contano circa 222 data center distribuiti sul territorio nazionale, gestiti da 94 diversi provider. La città metropolitana di Milano rappresenta il cuore pulsante di questo sviluppo, concentrando il 68% della potenza nominale installata a livello nazionale, pari a circa 414 MW IT. Questa polarizzazione non è casuale ma risponde a precise logiche infrastrutturali, economiche e geografiche:
- Connettività transalpina: Milano è il punto di approdo naturale per le dorsali in fibra
ottica che collegano l’Europa continentale con i cavi sottomarini del Mediterraneo. - Ecosistema economico: La vicinanza alla Borsa Italiana e ai centri decisionali
finanziari richiede latenze minime per le transazioni e i servizi digitali avanzati. - Infrastruttura di rete: L’area milanese gode di una rete elettrica storicamente
robusta e di una disponibilità idrica sotterranea eccezionale.
In Lombardia, la ricerca “ProdAction” del Politecnico di Milano ha identificato 33 data center attivi solo nell’area metropolitana milanese, con altri 10 in costruzione e 23 in fase di valutazione.
Sebbene Milano domini, stanno emergendo nuovi poli. Roma mantiene una posizione rilevante per i servizi legati alla Pubblica Amministrazione e alla sovranità digitale nazionale, consolidata dal Polo Strategico Nazionale. Al sud, Bari sta diventando un punto focale per l’approdo dei cavi sottomarini internazionali (landing points), attirando investimenti che mirano a creare infrastrutture di prossimità per i mercati del Medio Oriente e dell’Africa. Tuttavia, lo sviluppo al sud solleva preoccupazioni maggiori riguardo alla risorsa idrica, data la scarsità cronica in regioni come la Puglia rispetto all’abbondanza lombarda.
Allo stato attuale, i data center italiani, nella maggior parte dei casi, non rappresentano i grandi centri di calcolo per l’allenamento degli algoritmi di intelligenza artificiale e hanno consumi energetici inferiori rispetto alle infrastrutture hyperscale dedicate all’AI. Tuttavia,
sebbene oggi l’infrastruttura sia prevalentemente dedicata al cloud tradizionale, la situazione sta cambiando rapidamente. La bolla speculativa sulle richieste di connessione a Terna (68,5 GW) indica che gli operatori si stanno preparando a un salto di potenza massiccio. Microsoft ha già annunciato un investimento di 4,3 miliardi di euro per espandere la sua “Cloud Region” con infrastrutture ottimizzate per l’AI.
Criticità Ambientali e di sovranità Digitale
L’insediamento di un data center non è un’operazione neutrale. Le criticità si manifestano principalmente su quattro fronti: consumo di suolo, stress della rete elettrica, prelievo idrico e impatto sociale.
Il record nazionale di suolo impermeabilizzato (12,2% contro una media nazionale del 7%) è alimentato anche dalla corsa al cemento digitale. Molti data center vengono costruiti su aree “greenfield” (terreni agricoli) invece di riqualificare aree “brownfield” (ex industriali).
Questo accade perché la bonifica dei terreni industriali è costosa e complessa, mentre il terreno agricolo offre una “tabula rasa” ideale per i tempi rapidi richiesti dai fondi di investimento.
Casi come quello di Bornasco (PV) mostrano la tensione: un progetto di Microsoft su 165.000 mq di terreno agricolo ha sollevato proteste per la mancanza di una Valutazione di Impatto Ambientale (VIA) completa. Gli sviluppatori spesso frazionano i progetti o dichiarano potenze inferiori ai 50 MW per eludere l’obbligo di VIA, sfruttando le zone grigie normative.
Ad Arcene (BG), un progetto di Innovation Hub occupa 233.000 mq di suolo agricolo, promettendo 4 milioni di euro in oneri di urbanizzazione al Comune, una cifra che spesso convince le piccole amministrazioni a sacrificare la tutela del paesaggio.
Tra le problematiche locali legate all’insediamento dei data center, uno degli aspetti più critici riguarda il consumo della risorsa idrica, in particolare per il raffreddamento delle infrastrutture. Il calore generato dai chip richiede sistemi di climatizzazione costanti, e la
scelta della tecnologia impatta direttamente sull’ambiente circostante: il raffreddamento ad aria, sebbene meno efficiente, è preferibile in termini di consumo idrico; l’evaporazione, invece, assicura una maggiore efficienza ma comporta un prelievo d’acqua considerevole,
mentre i circuiti chiusi possono rappresentare un compromesso. In Lombardia, la disponibilità di acqua di falda limita le tensioni sociali, ma in altre regioni europee il prelievo idrico dei data center è stato accusato di prosciugare riserve utili alle comunità locali: un singolo data center di grandi dimensioni può arrivare a consumare tanta acqua quanto una città di 70.000 abitanti. Inoltre, la trasparenza sui dati di consumo idrico è
spesso ostacolata da clausole di riservatezza, impedendo una reale valutazione dell’impatto ambientale. Questo fenomeno alimenta il dibattito pubblico e pone ulteriori sfide per una pianificazione sostenibile, soprattutto nelle aree già colpite da scarsità cronica.
Inoltre, i governi europei promuovono l’attrazione di data center hyperscale come una vittoria per la sovranità digitale. Tuttavia, ospitare infrastrutture americane su suolo italiano non conferisce controllo sui dati né autonomia tecnologica. Al contrario, crea una dipendenza strutturale: una volta che i sistemi della sanità o della difesa sono migrati su server Microsoft o AWS, il potere negoziale dello Stato si azzera.
Regolamentazione e Legislazione Vigente
Il settore dei data center in Italia si muove in un contesto caratterizzato da una cronica lentezza normativa e da un deficit di identità giuridica. Mancando di una definizione urbanistica univoca, queste strutture vengono spesso classificate genericamente come ‘attività produttive’ o capannoni industriali. Questa ambiguità permette agli operatori di beneficiare di una tassazione locale agevolata rispetto al settore terziario, a fronte di un ritorno economico e occupazionale per i comuni estremamente ridotto. Il risultato è un approccio da ‘Far West’, dove lo sviluppo è guidato da deroghe e autorizzazioni accelerate che privilegiano la velocità dell’investimento tecnologico rispetto a una reale pianificazione ambientale e territoriale.
Nel settembre 2024, il Regno Unito ha designato i data center come Infrastrutture Nazionali Critiche. In Italia, sebbene non esista una designazione identica, la normativa tende a facilitare l’insediamento per accelerare la transizione digitale del PNRR. Questa facilitazione presenta rischi:
- VIA Postuma: Spesso la valutazione ambientale viene effettuata dopo il rilascio dei
titoli abilitativi, rendendola un mero esercizio formale. - Vantaggi Fiscali: La classificazione come insediamento industriale riduce la
tassazione locale, sottraendo risorse potenziali alle comunità che ospitano queste
strutture con pochissimo personale.
La Direttiva Europea sull’Efficienza Energetica (EED) del 2023 ha introdotto l’obbligo per i data center sopra i 500 kW di pubblicare dati di performance ambientale. Tuttavia, ancora oggi i dati per singola struttura rimangono riservati per ragioni di competitività, limitando
il monitoraggio dell’impatto sui micro-territori. In risposta all’insostenibilità della crescita, diverse giunte locali in Europa (Irlanda, Paesi Bassi) hanno chiesto moratorie temporanee sulla costruzione di nuovi centri. In Italia, il dibattito su una moratoria è ancora embrionale, frenato dal timore di perdere investimenti miliardi.
Raccomandazioni Strategiche
L’accelerazione tecnologica sta superando la capacità di governance del territorio. Il data center in Italia non è solo un’opportunità economica, ma un fattore di rischio per la resilienza ambientale e la sovranità politica.
La forte concentrazione di data center a Milano evidenzia la necessità di adottare strategie di diversificazione che, tuttavia, non devono semplicemente trasferire i conflitti ambientali e sociali in aree più vulnerabili del Paese. Per promuovere un’azione di advocacy realmente efficace, occorre spostare l’attenzione dalla sola tutela del dato alla protezione dell’intera infrastruttura che lo sostiene.
In questo contesto, risulta fondamentale richiedere una trasparenza totale, esigendo che vengano pubblicati i dati relativi al consumo energetico e idrico di ogni singolo impianto,
superando le limitazioni imposte dal segreto commerciale. Inoltre, bisogna promuovere normative che obblighino al recupero di aree industriali dismesse (brownfield first) prima di procedere all’utilizzo di suolo agricolo, garantendo così una maggiore tutela del territorio.
La revisione dei criteri per la valutazione ambientale (VIA) dovrebbe basarsi sull’impronta carbonica complessiva e sul consumo di suolo, anziché limitarsi alla potenza dei generatori installati. Parallelamente, è necessario favorire lo sviluppo di fornitori cloud europei e di
infrastrutture pubbliche che non siano guidate esclusivamente da logiche di profitto transatlantico, promuovendo così una vera sovranità digitale.
Governare la trasformazione digitale significa non lasciare che siano solamente algoritmi e fondi di investimento a modellare il paesaggio e le risorse nazionali; la consapevolezza di queste criticità rappresenta il primo passo verso una cittadinanza digitale informata e realmente attiva.








