I data center consumano più energia di quanto ci si aspettasse. L’industria sta correndo per recuperare il ritardo.

2026-04-29 - Lasciami un messaggio

Per anni, la storia dicentro datiil consumo di energia ha seguito un arco prevedibile. La digitalizzazione stava crescendo, certo, ma i miglioramenti in termini di efficienza derivanti da server migliori, virtualizzazione e consolidamento del cloud hanno mantenuto il consumo totale di elettricità sorprendentemente stabile. La domanda energetica globale dei data center si è aggirata attorno all’1% del consumo totale di elettricità – circa 200 terawattora all’anno – per gran parte di un decennio.

Quell’era sta finendo.

La convergenza dell’intelligenza artificiale generativa, del mining di criptovalute, dell’edge computing e della crescita esponenziale dei dispositivi connessi ha rotto la vecchia curva di efficienza. Le stime del settore mostrano ora che la domanda di energia dei data center cresce a tassi annuali mai visti dall’inizio degli anni 2000. In alcune regioni – Irlanda, Virginia del Nord, Singapore – i data center rappresentano già dal 15 al 25% del consumo totale di elettricità, costringendo le autorità di regolamentazione a imporre moratorie sulle nuove costruzioni.

In questo contesto, le scelte infrastrutturali che una volta sembravano dettagli tecnici (architettura di raffreddamento, topologia di distribuzione dell'alimentazione, pianificazione della densità dei rack) sono diventate decisioni del consiglio di amministrazione. Il costo energetico non è più una voce. È un limite alla crescita.


La semplice metrica che ha cambiato tutto

L'efficacia dell'utilizzo energetico, o PUE, è stata la metrica di efficienza standard del settore dei data center per quasi due decenni. Il rapporto è semplice: la potenza totale della struttura divisa per la potenza delle apparecchiature IT.

Un PUE pari a 2,0 significa che per ogni watt che alimenta server e storage, un altro watt è destinato al raffreddamento, all'illuminazione, alle perdite di conversione dell'energia e ad altri costi generali. Un PUE di 1,2 significa che l'overhead consuma solo 0,2 watt per watt IT.

Il settore ha ampiamente accettato i livelli basati sul PUE:

Livello PUE DCiE Cosa significa
Platino <1,25 >0,80 Efficienza di prima classe, in genere richiede il freecooling o il raffreddamento a liquido
Oro 1.25 – 1.43 0,70 – 0,80 Molto efficiente, realizzabile con design moderni in climi moderati
Argento 1,43 – 1,67 0,60 – 0,70 Accettabile per strutture più vecchie o climi più caldi
Bronzo 1.67 – 2.00 0,50 – 0,60 Tipico dei data center preesistenti senza ammodernamenti importanti
Giusto 2:00 – 2:50 0,40 – 0,50 Scarsa efficienza, costi operativi elevati
Povero >2,50 <0,40 Inefficienza critica, probabilmente richiede attenzione immediata

Il problema è che molte organizzazioni in realtà non conoscono il proprio PUE. Stimano. Indovinano. Oppure misurano solo al contatore principale e assumono il resto.

Da un sondaggio di settore del 2023 è emerso che quasi il 40% degli operatori di data center non aveva mai misurato il PUE a livello di rack. Tra coloro che lo hanno fatto, il differenziale tra il PUE riportato e quello effettivo è stato in media di 0,3 punti, abbastanza per spostare una struttura da Gold a Silver senza che nessuno se ne accorgesse.

Dove va effettivamente il potere

Per capire perché il PUE varia in modo così ampio è necessario osservare il punto in cui l'energia esce da un data center.

In un tipico impianto raffreddato ad aria con un PUE intorno a 1,8, la suddivisione è più o meno questa:

  • Attrezzature IT (server, storage, networking): 55-60%.
  • Raffreddamento (unità CRAC/CRAH, refrigeratori, pompe, dry cooler): 30-35%.
  • Distribuzione dell'energia (UPS, trasformatori, perdite PDU): 5-8%.
  • Illuminazione e altri carichi delle strutture: 2-4%.

Il carico di raffreddamento è la variabile più grande. Una struttura con un clima temperato che utilizza l'aria esterna per il freecooling potrebbe spendere solo il 15% della propria energia non IT per il raffreddamento. La stessa struttura in un clima tropicale con raffreddamento meccanico tutto l’anno potrebbe spendere il 40%.

Questo è il motivo per cui i fornitori di colocation pubblicizzano il PUE a livello di struttura, ma lo forniscono al contatore del cliente: numeri diversi, implicazioni diverse. Il cliente paga tutto.

Il passaggio dall’infrastruttura tradizionale a quella su scala cloud

La gestione tradizionale del data center presupponeva un ambiente relativamente statico. Gli scaffali venivano riempiti nel corso di mesi o anni. Il raffreddamento potrebbe essere regolato lentamente. La distribuzione dell'energia è stata sovradimensionata fin dal primo giorno.

L’era del cloud ha cambiato i presupposti. Gli scaffali ora riempiono i giorni. I carichi di lavoro si spostano automaticamente tra i server. I cluster IA ad alta densità potrebbero assorbire tre volte la potenza dei rack di elaborazione adiacenti per uso generico.

Questi cambiamenti hanno imposto un ripensamento della gestione delle infrastrutture. Emergono tre tendenze.

Innanzitutto, la densità sta aumentando in modo non uniforme.Un decennio fa un server rack standard consumava 5-8 kilowatt. Oggi, i rack per uso generico assorbono 10-15 kilowatt. I rack per computer ad alte prestazioni e training AI superano abitualmente i 30 kilowatt per rack. Alcuni superano i 50 kilowatt.

Ciò crea sfide di gestione termica che il raffreddamento ad aria fatica a risolvere. A 20 kilowatt per rack, il raffreddamento ad aria rimane efficace con un adeguato contenimento. A 30 kilowatt diventa marginale. A partire da 40 kilowatt, il raffreddamento a liquido passa da facoltativo a necessario.

In secondo luogo, la pianificazione della capacità è diventata predittiva.Il vecchio metodo – acquistare più capacità del necessario e lasciarla inattiva – non funziona più su larga scala. La capacità inattiva comporta sia costi di capitale che costi di manutenzione continua.

I moderni sistemi di gestione dell'infrastruttura utilizzano dati storici e previsioni del carico di lavoro per prevedere quando l'alimentazione, il raffreddamento o lo spazio sul rack si esauriranno. I migliori sistemi possono consigliare se riconfigurare la capacità esistente o ordinare nuovo hardware, giorni o settimane prima che un vincolo diventi critico.

In terzo luogo, i requisiti di visibilità hanno esansimante.Un data center tradizionale potrebbe monitorare la potenza a livello di PDU. Una struttura moderna necessita di visibilità a livello di rack, a volte a livello di server e sempre più a livello di carico di lavoro, sapendo quale macchina virtuale o contenitore determina quale assorbimento di energia.

Il livello DCIM: cosa fa realmente

Infrastruttura del centro datiIl software di gestione (DCIM) esiste da oltre un decennio, ma l’adozione rimane disomogenea. Meno della metà dei data center aziendali ha implementato un sistema DCIM completo. Molti di essi utilizzavano solo una frazione delle sue capacità.

Un sistema DCIM correttamente implementato fa quattro cose:

Gestione delle risorse.Ogni server, switch, PDU e unità di raffreddamento viene tracciato in un database di gestione della configurazione (CMDB). Posizione, potenza nominale, connessioni di rete, cronologia della manutenzione: tutto. Sembra banale, ma molte organizzazioni continuano a tenere traccia delle risorse in fogli di calcolo che passano mesi tra gli aggiornamenti.

Monitoraggio in tempo reale.Assorbimento di potenza a livello di PDU o rack, temperatura e umidità nei punti di alimentazione e ritorno, stato del sistema di raffreddamento, stato della batteria dell'UPS. Gli allarmi si attivano quando i parametri si discostano dai setpoint. L'obiettivo è rilevare i problemi prima che causino tempi di inattività.

Pianificazione della capacità.Il sistema sa quanta capacità di alimentazione e raffreddamento è disponibile, quanta è in uso e quanta è riservata per l'implementazione futura. Può modellare l'impatto dell'aggiunta di un nuovo rack ad alta densità o del ritiro di un set di server più vecchi.

Visualizzazione.Un gemello digitale del data center, rack per rack, piastrella per piastrella, mostra le condizioni attuali e consente agli operatori di simulare i cambiamenti. Aggiungere 10 kilowatt di carico alla riga tre, colonna quattro: supera la capacità di raffreddamento? Il sistema risponde prima che qualcuno sposti l'attrezzatura.

La matematica dell’efficienza che funziona davvero

Ridurre il consumo energetico dei data center non è un mistero. I metodi sono ben compresi. La sfida è la disciplina di attuazione.

Aumentare la temperatura dell'aria di mandata.La maggior parte dei data center funziona a basse temperature, tra 18 e 20 gradi Celsius al ritorno dell'unità di raffreddamento, perché questo è ciò che gli operatori hanno sempre fatto. Le linee guida ASHRAE ora raccomandano da 24 a 27 gradi. Ogni aumento di grado riduce l’energia di raffreddamento di circa il 4%. Il funzionamento a 26 gradi anziché a 20 gradi consente di risparmiare il 20-25% della potenza di raffreddamento.

Elimina la miscelazione di aria calda e fredda.Il contenimento del corridoio caldo, il contenimento del corridoio freddo o i condotti di scarico verticali costringono l'aria di raffreddamento a dirigersi dove è necessaria anziché scorrere brevemente attraverso la parte anteriore dei rack. Il solo contenimento riduce in genere l’energia di raffreddamento del 15-25%.

Utilizzare azionamenti a velocità variabile.I ventilatori e le pompe a velocità costante sprecano energia a carico parziale. Gli azionamenti a velocità variabile adattano il flusso d'aria e il flusso d'acqua alla domanda effettiva. I periodi di ammortamento dell'ammortamento sono generalmente di 1-3 anni.

Ottimizza il funzionamento dell'UPS.La maggior parte dei sistemi UPS funziona continuamente in modalità a doppia conversione, convertendo la CA in CC e nuovamente in CA anche quando l'alimentazione di rete è pulita. I moderni sistemi UPS possono passare alla modalità ecologica quando la qualità dell’energia lo consente, raggiungendo un’efficienza del 99% invece del 94-96%. Il compromesso è un breve tempo di trasferimento alla batteria in caso di interruzione dell'alimentazione di rete. Per i carichi IT con alimentatori progettati per tali trasferimenti, il rischio è minimo.

Adottare una distribuzione ad alta tensione.La distribuzione dell'alimentazione a 415 V anziché a 208 V riduce le perdite di distribuzione di circa il 25%. Ciò richiede PDU e alimentatori per server compatibili, ma molti dispositivi moderni lo supportano.

Che aspetto ha l'efficienza nel mondo reale

Azienda Shangyu CPSY, un'azienda high-tech specializzata nell'infrastruttura dei data center, segnala un PUE di 1,3 per le sue soluzioni di data center modulari. Ciò colloca l'azienda nel livello Gold, spostandosi verso il Platinum.

Il risparmio energetico dichiarato del 25% rispetto ai progetti convenzionali deriva da molteplici fattori. I sistemi UPS modulari con un'efficienza del 97,4% a livello di sistema riducono le perdite di distribuzione che altrimenti sarebbero del 15-20%. I condizionatori d'aria di precisione con compressori a velocità variabile e ventilatori EC regolano la potenza di raffreddamento in base al carico termico effettivo anziché funzionare a capacità fissa. Inoltre, il layout fisico (contenimento del corridoio caldo, spaziatura ottimale dei rack, pavimento rialzato con piastrelle perforate di dimensioni adeguate) affronta la gestione del flusso d'aria che compromette molte strutture altrimenti efficienti.

Il portafoglio di certificazioni dell'azienda comprende ISO 9001 (gestione della qualità) e ISO 27001 (gestione della sicurezza delle informazioni). Le implementazioni tra i suoi clienti includono partnership con Huawei, ZTE e Inspur, con installazioni di esportazione negli Stati Uniti, Regno Unito, Germania, Francia e Australia.

Dove entra in gioco il raffreddamento a liquido

Per anni, il raffreddamento a liquido è stata una tecnologia di nicchia per i centri di supercalcolo. Ciò sta cambiando rapidamente.

I cluster di formazione AI che utilizzano NVIDIA H100 o le prossime GPU B200 generano 30-50 kilowatt per rack in configurazioni puramente raffreddate ad aria. A queste densità, il raffreddamento ad aria richiede flussi d’aria elevati: ventole rumorose, rack profondi e un controllo termico ancora marginale.

Il raffreddamento a liquido diretto al chip rimuove il 60-80% del calore alla fonte. I chip diventano più freddi. I tifosi girano più lentamente. Il condizionatore d'aria della stanza gestisce solo il calore residuo proveniente da alimentatori, memoria e altri componenti.

Il guadagno in termini di efficienza è sostanziale. Le strutture con raffreddamento diretto al chip riportano valori PUE compresi tra 1,1 e 1,2. I compromessi sono costi di capitale più elevati, una gestione delle perdite più complessa e la necessità di un trattamento dell’acqua a livello di struttura.

Il raffreddamento a immersione totale, ovvero l'immersione di interi server in fluido dielettrico, spinge il PUE al di sotto di 1,1 ma rimane specializzato. La maggior parte dei data center commerciali adotterà prima il raffreddamento diretto su chip e poi l'immersione per zone specifiche ad alta densità.

La piattaforma del data center SHANGYU include disposizioni per architetture di raffreddamento sia ad aria che a liquido, riconoscendo che le future implementazioni ad alta densità richiederanno una gestione termica basata sui fluidi indipendentemente dalla progettazione della struttura.

Il gap gestionale: da reattivo a predittivo

La maggior parte dei team operativi dei data center lavora ancora in modo reattivo. Suona un allarme. Qualcuno indaga. Viene applicata una correzione. Il ciclo si ripete.

La transizione alla gestione predittiva richiede tre funzionalità che mancano a molte organizzazioni.

Dati di configurazione completi.Conoscere cosa c'è nel data center (ogni server, ogni switch, ogni PDU, ogni unità di raffreddamento) è fondamentale. Senza dati CMDB accurati, la pianificazione della capacità è un'ipotesi.

Telemetria granulare.La misurazione della potenza a livello di rack è il minimo. La misurazione della potenza per server è migliore. L'attribuzione della potenza a livello di carico di lavoro è la soluzione migliore, ma anche la più difficile da ottenere.

Analisi che distinguono il segnale dal rumore.Un picco di temperatura su un rack potrebbe significare un guasto della ventola. Un picco di temperatura in metà del data center potrebbe significare un guasto del refrigeratore. Il sistema deve differenziare e raccomandare le risposte di conseguenza.

La piattaforma DCIM di SHANGYU fornisce supporto per dispositivi SNMP e Modbus, interfacce per applicazioni Windows e basate sul Web e integrazione con telecamere di rete per l'imaging attivato da eventi. Gli obiettivi dichiarati sono semplici: ridurre i costosi tempi di inattività, tagliare i costi operativi giornalieri attraverso il controllo ambientale completo e migliorare la visibilità e la tracciabilità della gestione.

Perché questo è importante al di là del centro dati

Il consumo energetico dei data center rappresenta circa l’1% della domanda globale di elettricità. Quel numero sembra piccolo finché non viene contestualizzato. È più o meno equivalente al consumo totale di elettricità del Regno Unito.

Ancora più importante, il tasso di crescita sta accelerando. Le proiezioni di settore mostrano che la domanda di energia dei data center aumenterà del 10-15% annuo fino al 2030, grazie all’intelligenza artificiale, all’adozione del cloud e alla continua espansione dei dispositivi connessi. A questo ritmo, entro la fine del decennio, i data center consumerebbero il 3-4% dell’elettricità globale.

I miglioramenti in termini di efficienza che hanno mantenuto stabile il consumo energetico nel decennio precedente sono arrivati ​​dalla virtualizzazione dei server (riducendo il numero dei server fisici), dal miglioramento dell’efficienza delle unità (passando dai dischi rotanti agli SSD) e dall’ampia diffusione del freecooling (utilizzando l’aria esterna invece della refrigerazione meccanica). Quei frutti a portata di mano sono stati in gran parte raccolti.

La prossima ondata di efficienza arriverà dal raffreddamento a liquido, dalla distribuzione a voltaggio più elevato, dai controlli di raffreddamento ottimizzati per l’intelligenza artificiale e, cosa forse più importante, da un migliore allineamento tra la capacità dell’infrastruttura e il carico IT effettivo. Quest’ultimo aspetto richiede il tipo di visibilità in tempo reale e di analisi predittiva che i sistemi DCIM forniscono ma che poche strutture utilizzano pienamente.

Alcune domande che vale la pena porre sulla propria infrastruttura

Conosci il tuo PUE effettivo, non il numero riportato sulla scheda tecnica?Se non hai effettuato la misurazione all'uscita dell'UPS e all'ingresso dell'apparecchiatura IT, non lo sai. La differenza è il tuo reale sovraccarico.

I vostri sistemi di raffreddamento sono in conflitto tra loro?In molti data center, le unità CRAC sono impostate con bande di temperatura e umidità sovrapposte. Un'unità deumidifica mentre un'altra umidifica. Uno si raffredda mentre l'altro si riscalda. Questo non è insolito. Inoltre non è efficiente.

Qual è il consumo energetico inattivo dei tuoi server?I dati di settore mostrano che i tipici server aziendali assorbono il 30-40% della loro potenza di picco quando non fanno nulla. Spegnere o sospendere i server inutilizzati è la misura di efficienza del ROI più elevata disponibile. È anche il più trascurato.

Potresti aumentare la temperatura dell'aria di mandata di due gradi senza violare le specifiche dell'apparecchiatura?Probabilmente sì. La maggior parte delle apparecchiature è progettata per temperature di aspirazione di 25-27 gradi. La maggior parte dei data center funziona a 20-22 gradi. Quel divario di sei gradi rappresenta anni di energia di raffreddamento non necessaria.

Quando è stata l'ultima volta che hai convalidato l'efficienza del tuo UPS?L'efficienza di targa è misurata a pieno carico con un fattore di potenza perfetto. L'efficienza reale a carico parziale con un fattore di potenza reale può essere inferiore di 5-10 punti.





Precedente:Nessuna novità

Invia richiesta

X
Utilizziamo i cookie per offrirti una migliore esperienza di navigazione, analizzare il traffico del sito e personalizzare i contenuti. Utilizzando questo sito, accetti il ​​nostro utilizzo dei cookie. politica sulla riservatezza