Articolo a cura di Valerio Coppola
Nel 1926 Fritz Lang immaginava torri impenetrabili, corridoi aerei e masse che si muovono in traiettorie ordinate. Cento anni dopo, quella visione esiste davvero. Solo che non la chiamiamo città: la chiamiamo cloud.
A te, tra 100 anni
Guarda bene questo fotogramma di Metropolis (1926).
Le torri massicce, con finestre talmente fitte quasi da scomparire. Sono le case degli abitanti in superfice, e i loro uffici. I velivoli seguono rotte precise tra strutture che non ammettono deviazioni. C’è qualcosa di stranamente familiare.
Prova a fare questo esercizio: cerca su Google Maps uno dei grandi campus di Amazon Web Services in Virginia, o uno dei datacenter di Microsoft a Dublino, o i server farm di Meta nel deserto dell’Oregon: stessa ripetizione modulare, stessa assenza di dettagli umani, stessa geometria maniacalmente ordinata.
Stiamo parlando di strutture di questo genere:
Viene naturale pensare che Fritz Lang, registra di Metropolis, non stava descrivendo il futuro della città. Stava descrivendo, forse inconsapevolmente, il futuro dell’informazione.
Cosa sono davvero i datacenter
Un datacenter non è una “nuvola”. È un edificio — spesso enorme, spesso in mezzo al nulla — affollato di server, cavi, sistemi di raffreddamento e di gruppi elettrogeni. È fisico, potente, rumoroso, energivoro.
Ecco qualche numero per capire meglio le dimensioni del fenomeno: Amazon Web Services gestisce quasi mille strutture nel mondo. Microsoft ha oltre quattrocento tra datacenter e campus dedicati. Il consumo energetico globale di questi impianti si aggira già tra l’1 e il 2% dell’intera elettricità prodotta sul pianeta — una cifra che con l’esplosione dell’intelligenza artificiale è destinata a crescere rapidamente. Proiezioni recenti stimano l’arrivo alla soglia del 3% nel periodo 2027-2029.
Addestrare un modello di AI come quelli che usiamo quotidianamente richiede una quantità di energia paragonabile a quella che circa 18000 famiglie medie [1] italiane consumano in un anno, circa 50 GWh.
(La fonte prende come riferimento famiglie USA, che consumano circa 4 volte in piu` all’anno rispetto a una famiglia italiana)
Non è un dettaglio tecnico: è una variabile che sta già ridisegnando le politiche energetiche di interi Paesi. Mettendo da parte per un momento la ovvia genialità scientifica ed ingegneristica di tali opere, soffermiamoci per un momento a considerare come tali sistemi complessi vengono messi in campo.
Dove vengono costruiti questi edifici ?
La mappa del dato
I datacenter non vengono piazzati casualmente. Nascono dove l’energia è economica, dove il clima riduce i costi di raffreddamento, dove le infrastrutture di rete sono solide e dove le normative sono favorevoli. Irlanda, Finlandia, Virginia, Singapore, Dubai: questi luoghi sono diventati nodi strategici dell’economia globale non per ragioni culturali o geografiche tradizionali, ma per ragioni di pura efficienza fisica per il digitale.
Questo ha creato una concentrazione di potere molto concreta. Chi ospita i server dove risiedono i dati di miliardi di persone ha un’influenza reale su quei dati: può garantirne la sicurezza, può essere costretto da un governo a condividerli, può decidere sotto quali condizioni renderli accessibili.
Negli ultimi anni si è fatta più nitida una divisione tra tre grandi approcci al tema. Gli Stati Uniti hanno storicamente lasciato che fossero le aziende private a costruire e gestire questa infrastruttura, con una supervisione statale che si sta rafforzando ma è ancora frammentata. La Cina ha sviluppato un modello in cui Stato e industria tech operano in stretto coordinamento, con regole chiare sulla localizzazione dei dati. L’Europa ha scelto la strada della regolamentazione — GDPR, Data Act, AI Act — cercando di proteggere i diritti dei cittadini in un contesto in cui la maggior parte dell’infrastruttura è comunque gestita da aziende americane.
Nessuno di questi approcci è perfetto. Tutti e tre stanno cercando risposte a domande che non esistevano anche solo vent’anni fa.
I nostri “io” nei rack
Torniamo a Lang. Nella Metropolis, i lavoratori vengono incasellati in turni identici, ordinati, numerati. La loro identità è funzionale al sistema.
C’è una metafora precisa — forse troppo precisa — nel modo in cui esistiamo digitalmente. Le nostre fotografie, i messaggi, i documenti, le conversazioni, gli acquisti, le posizioni geografiche, le relazioni: tutto questo abita fisicamente rack di server, etichettato con indirizzi IP, suddiviso in partizioni, organizzato in gerarchie di accesso.
Le domande che ne seguono sono concrete: sappiamo dove si trovano questi dati? In quale Paese? Con quale grado di protezione? Chi vi può accedere? Dove hanno viaggiato e sostato?
Per la maggior parte di noi, la risposta a tutte queste domande è spesso e volentieri no. E non perché siamo disattenti, ma perché il sistema non è dotato dell’accessibilità al tracciamento del dato.
Tecno-colonialismo
Questa opacità non è casuale. E non riguarda solo i singoli utenti. Riguarda interi Paesi.
Consideriamo ad esempio il continente africano. Nel 2023, circa il 70% dei dati generati in Africa veniva archiviato ed elaborato fuori dall’Africa — principalmente in Europa e negli Stati Uniti. Significa che le conversazioni, le transazioni bancarie, le cartelle cliniche, i dati agricoli di oltre un miliardo di persone vivono fisicamente in infrastrutture che appartengono ad aziende straniere, soggette a legislazioni straniere, accessibili a governi stranieri in caso di richiesta. È una forma di dipendenza strutturale che alcuni studiosi e policy maker hanno iniziato a chiamare con un termine preciso: tecno-colonialismo.
Il parallelo con il colonialismo tradizionale è lapalissiano. Nel XIX secolo, le potenze europee iniziavano a estrarre risorse fisiche dai territori colonizzati — minerali, legname, materie prime — e le trasformavano altrove, trattenendone il valore aggiunto. Oggi qualcosa di strutturalmente simile accade con i dati: vengono generati localmente da popolazioni e mercati emergenti, caricati su infrastrutture straniere, analizzati da algoritmi addestrati con logiche occidentali, e restituiti sotto forma di servizi commerciali su cui i paesi d’origine non hanno né controllo né royalties. Il dato è la nuova materia prima. E come le miniere, chi la estrae raramente abita il territorio che la produce.
La questione non è legata solamente al Sud del mondo; anche l’Europa, nonostante la sua sofisticata architettura normativa, si trova in una posizione di dipendenza concreta: circa il 70% del mercato cloud europeo è in mano a tre aziende americane — Amazon, Microsoft e Google. Quando un ospedale tedesco archivia le cartelle dei propri pazienti su AWS, o quando una pubblica amministrazione italiana gestisce i propri documenti su Microsoft Azure, quella scelta ha implicazioni che vanno ben oltre la convenienza tecnica ed economica. Significa che dati sensibili di cittadini europei risiedono su infrastrutture soggette anche al diritto americano — incluso il Cloud Act del 2018, che autorizza le autorità statunitensi a richiedere accesso ai dati conservati da aziende americane, indipendentemente da dove si trovino fisicamente i server.
La risposta non è semplice, e nessuno la ha ancora trovata in modo convincente. Costruire un’infrastruttura digitale sovrana richiede decenni di investimenti, competenze rare e una volontà politica che fatica a competere con la comodità e la potenza economica dei grandi operatori privati. Ma la consapevolezza del problema è il primo passo necessario. E la domanda da porsi — come cittadini, come istituzioni, come generazione — non è solo “dove sono i miei dati?”, ma “a chi appartiene il valore che producono?”
Tre cose che stanno già cambiando
L’energia è tornata al centro della geopolitica — per colpa nostra.
Come in ogni periodo storico, l’energia è sempre stata una variabile geopolitica diretta. Ma la crescita esponenziale dell’intelligenza artificiale ha introdotto una novità: per la prima volta nella storia, sono le aziende tecnologiche private a muovere le lancette del mercato energetico globale. Nel 2024 Microsoft ha siglato un accordo per riavviare la centrale nucleare di Three Mile Island in Pennsylvania — sì, quella del famoso incidente del 1979 — con l’obiettivo esplicito di alimentare i propri datacenter. Google ha annunciato contratti di esclusività energetica per reattori nucleari di nuova generazione. Amazon ha acquistato un intero campus datacenter presso una centrale nucleare in Pennsylvania.
Addestrare un singolo grande modello di AI può consumare tanta elettricità quanta ne usa una città di medie dimensioni in un mese intero. Moltiplicato per migliaia di modelli, miliardi di query quotidiane e l’espansione costante dei servizi cloud, il fabbisogno energetico del settore digitale cresce a una velocità che nessuna fonte rinnovabile da sola riesce a sostenere. Paesi come la Finlandia hanno trovato comunque soluzioni di mitigazione dell’impatto eleganti — il calore residuo dei server viene reimmesso nelle reti di teleriscaldamento delle città. Il Marocco e altri paesi nordafricani stanno diventando hub emergenti grazie all’abbondanza di sole e a costi dell’energia competitivi. Ma la traiettoria generale è chiara: dove si costruiscono i datacenter, lì affluiscono capitali, contratti energetici e influenza politica. Le scelte digitali e le scelte energetiche non sono più separabili.
La localizzazione dei dati è diventata una questione di sovranità nazionale.
Per decenni, l’architettura di internet è stata pensata come uno spazio senza confini: un dato poteva essere creato a Milano, elaborato a Dublino, archiviato in Virginia e recuperato da Tokyo in millisecondi. Questa fluidità era considerata una virtù tecnica e, in molti ambienti, anche un valore politico — la rete come spazio globale, libero da frontiere.
Quella visione si sta incrinando. India, Brasile, Indonesia, Nigeria e decine di altri paesi hanno adottato o stanno adottando leggi di data localisation — norme che obbligano le aziende a conservare i dati dei propri cittadini fisicamente entro i confini nazionali. Le ragioni sono diverse: proteggere i cittadini da sorveglianze straniere, garantire l’accesso alle informazioni in caso di dispute legali, costruire un’industria tecnologica locale capace di competere con i giganti americani e cinesi. Il risultato pratico è che le grandi piattaforme devono costruire datacenter locali per ogni mercato significativo in cui operano — o rinunciare a quel mercato. È un cambiamento che frammenta l’internet globale in sotto-reti sempre più regolate da logiche nazionali, e che ridisegna in modo strutturale dove e come vengono costruite le infrastrutture digitali.
I cavi sottomarini sono tornati al centro dell’attenzione strategica.
Il 99% del traffico internet intercontinentale non viaggia nello spazio, come molti immaginano, ma sul fondo degli oceani: una rete di oltre 600 cavi sottomarini che collegano i continenti, lunga complessivamente più di 1,48 milioni di chilometri. Questa infrastruttura fisica, sostanzialmente invisibile, è ciò che rende possibile ogni cosa: una videochiamata, un pagamento bancario, un messaggio. È internet, nella sua forma materiale più concreta.
Negli ultimi anni questa infrastruttura è tornata prepotentemente all’attenzione. Nel novembre 2024, due cavi nel Mar Baltico sono stati tagliati in circostanze ancora non del tutto chiarite, interrompendo le comunicazioni tra diversi paesi europei. Non è un episodio isolato: danni simili si sono registrati nel Mar Rosso e nel Pacifico, in contesti geopolitici già tesi. I grandi operatori tech — Google, Meta, Amazon — hanno risposto investendo nella costruzione di propri cavi privati, riducendo la dipendenza dalle reti condivise. Nel frattempo, diversi governi hanno avviato programmi di monitoraggio e protezione dei fondali marini nelle proprie acque territoriali. Ciò che sembrava un’infrastruttura tecnica di sfondo è diventato, a tutti gli effetti, un fronte della competizione geopolitica contemporanea.
Cento anni dopo
Lang terminò Metropolis con un messaggio che oggi suona quasi ingenuo: il cuore deve fare da mediatore tra la testa e le mani, tra chi decide e chi esegue. Un appello umanista, a tratti romantico, che la storia avrebbe reso desueto quasi subito.
Eppure, guardando di nuovo quell’immagine — le torri senza volto, i corridoi sospesi, il movimento ordinato di macchine e corpi — è difficile non sentire una risonanza. Abbiamo costruito quella città. L’abbiamo costruita non solo in catrame e cemento, ma anche in silicio e alluminio, l’abbiamo alimentata con petrolio, energia idroelettrica e gas naturale; l’abbiamo disseminata ai margini delle nostre città come qualcosa che preferiamo non dover guardare.
E dentro, a diciotto gradi costanti, in rack silenziosi e ordinati, vivono i nostri ricordi, le nostre parole, le nostre identità digitali.
I lavoratori di Metropolis, almeno, potevano tornare a casa.
La differenza è che i nostri doppioni digitali sono frammentati e dispersi.
Non escono mai dai server.
E capire chi li ospita, chi li protegge e chi li governa è forse una delle competenze più importanti che una generazione digitalmente connessa possa sviluppare. Non per paura. Per consapevolezza.
*I datacenter sono infrastrutture critiche esattamente come le centrali elettriche o gli aeroporti. Iniziare a pensarli in questi termini — come cittadini, come elettori, come utenti — è il primo passo per avere voce in capitolo su come vengono gestiti.*
Valerio Coppola
[1] (Fonte: Patterson et al. (2021); MIT Technology Review; analisi Towards Data Science su GPT-4; EIA (consumi USA); Eurostat (consumi UE).


Lascia un commento