Datacenter äter mer kraft än någon förväntat sig. Branschen tävlar för att komma ikapp.

2026-04-29 - Lämna ett meddelande till mig

I åratal har historien omdatacenterenergiförbrukningen följde en förutsägbar båge. Digitaliseringen växte, visst, men effektivitetsvinster från bättre servrar, virtualisering och molnkonsolidering höll den totala elanvändningen förvånansvärt oförändrad. Den globala efterfrågan på datacenters kraft svävade runt 1 procent av den totala elförbrukningen - ungefär 200 terawattimmar årligen - under mer än ett decennium.

Den eran tar slut.

Konvergensen av generativ AI, brytning av kryptovaluta, edge computing och den exponentiella tillväxten av anslutna enheter har brutit den gamla effektivitetskurvan. Branschuppskattningar visar nu att efterfrågan på datacenters kraft växer i årliga takter som inte har setts sedan början av 2000-talet. I vissa regioner – Irland, norra Virginia, Singapore – står datacenter redan för 15 till 25 procent av den totala elförbrukningen, vilket tvingar tillsynsmyndigheter att införa moratorium för nybyggnation.

Mot denna bakgrund har infrastrukturval som en gång verkade vara tekniska detaljer – kylningsarkitektur, strömdistributionstopologi, rackdensitetsplanering – blivit styrelsebeslut. Energikostnad är inte längre en rad. Det är ett hinder för tillväxt.


Det enkla måttet som förändrade allt

Power Usage Effectiveness, eller PUE, har varit datacenterindustrins standardeffektivitetsmått i nästan två decennier. Det är ett enkelt förhållande: total anläggningseffekt dividerad med IT-utrustningseffekt.

En PUE på 2,0 betyder att för varje watt som driver servrar och lagring, går ytterligare en watt till kylning, belysning, effektomvandlingsförluster och andra omkostnader. En PUE på 1,2 betyder att overhead endast förbrukar 0,2 watt per IT-watt.

Branschen har brett accepterade nivåer baserade på PUE:

Nivå PUE DCiE Vad det betyder
Platina <1,25 >0,80 Effektivitet i världsklass, kräver vanligtvis frikylning eller vätskekylning
Guld 1,25 – 1,43 0,70 – 0,80 Mycket effektivt, uppnåeligt med modern design i måttliga klimat
Silver 1,43 – 1,67 0,60 – 0,70 Acceptabelt för äldre anläggningar eller varmare klimat
Brons 1.67 – 2.00 0,50 – 0,60 Typiskt för äldre datacenter utan större ombyggnader
Rättvis 2.00 – 2.50 0,40 – 0,50 Dålig effektivitet, hög driftskostnad
Dålig >2,50 <0,40 Kritisk ineffektivitet, kräver sannolikt omedelbar uppmärksamhet

Problemet är att många organisationer faktiskt inte kan sin PUE. De uppskattar. De gissar. Eller så mäter de bara på huvudmätaren och antar resten.

En branschundersökning från 2023 visade att nästan 40 procent av datacenteroperatörerna aldrig hade mätt PUE på racknivå. Bland dem som gjorde det var skillnaden mellan rapporterad och faktisk PUE i genomsnitt 0,3 poäng – tillräckligt för att flytta en anläggning från guld till silver utan att någon märkte det.

Där kraften faktiskt går

Att förstå varför PUE varierar så mycket börjar med att titta på var kraften lämnar ett datacenter.

I en typisk luftkyld anläggning med en PUE runt 1,8 ser uppdelningen ungefär ut så här:

  • IT-utrustning (servrar, lagring, nätverk): 55-60 procent
  • Kylning (CRAC/CRAH-enheter, kylaggregat, pumpar, torrkylare): 30-35 procent
  • Strömfördelning (UPS, transformatorer, PDU-förluster): 5-8 procent
  • Belysning och annan anläggningsbelastning: 2-4 procent

Kyllasten är den största variabeln. En anläggning i ett tempererat klimat som använder utomhusluft för fri kylning kanske bara spenderar 15 procent av sin icke-IT-kraft på kylning. Samma anläggning i ett tropiskt klimat med mekanisk kylning året runt kan spendera 40 procent.

Det är därför samlokaliseringsleverantörer annonserar PUE på anläggningsnivå men levererar PUE på kundmätaren – olika antal, olika implikationer. Kunden betalar för allt.

Skiftet från traditionell infrastruktur till molnskala

Traditionell datacenterhantering antog en relativt statisk miljö. Ställen fylldes under månader eller år. Kylningen kunde justeras långsamt. Eldistributionen var överdimensionerad från dag ett.

Molntiden förändrade antagandena. Ställen fylls nu i dagar. Arbetsbelastningen flyttas över servrarna automatiskt. AI-kluster med hög densitet kan dra tre gånger så mycket kraft som närliggande datorställ för allmänna ändamål.

Dessa förändringar har tvingat fram ett omtänkande av infrastrukturförvaltningen. Tre trender sticker ut.

För det första ökar densiteten ojämnt.Ett standardserverställ för ett decennium sedan drog 5-8 kilowatt. Idag drar rack för allmänna ändamål 10-15 kilowatt. Högpresterande dator- och AI-träningsställ överstiger rutinmässigt 30 kilowatt per rack. Vissa överstiger 50 kilowatt.

Detta skapar värmehanteringsutmaningar som luftkylning kämpar för att lösa. Med 20 kilowatt per rack förblir luftkylningen effektiv med korrekt inneslutning. Vid 30 kilowatt blir det marginellt. Vid 40 kilowatt och över går flytande kylning från valfri till nödvändig.

För det andra har kapacitetsplaneringen blivit prediktiv.Den gamla metoden – köp mer kapacitet än vad som behövs och låt den stå stilla – fungerar inte längre i stor skala. Tomgångskapacitet har både kapitalkostnad och löpande underhållskostnad.

Moderna infrastrukturhanteringssystem använder historiska data och arbetsbelastningsprognoser för att förutsäga när ström, kylning eller rackutrymme kommer att ta slut. De bästa systemen kan rekommendera om man ska konfigurera om befintlig kapacitet eller beställa ny hårdvara, dagar eller veckor innan en begränsning blir kritisk.

För det tredje har krav på synlighet expanded.Ett traditionellt datacenter kan spåra ström på PDU-nivå. En modern anläggning behöver synlighet på racknivå, ibland på servernivå, och alltmer på arbetsbelastningsnivå – att veta vilken virtuell maskin eller container som driver vilket strömförbrukning.

DCIM-lagret: vad det faktiskt gör

DatacenterinfrastrukturManagement (DCIM) programvara har funnits i över ett decennium, men användningen är fortfarande ojämn. Mindre än hälften av företagens datacenter har implementerat ett helt DCIM-system. Många som använde bara en bråkdel av dess kapacitet.

Ett korrekt implementerat DCIM-system gör fyra saker:

Kapitalförvaltning.Varje server, switch, PDU och kylenhet spåras i en konfigurationshanteringsdatabas (CMDB). Plats, strömstyrka, nätverksanslutningar, underhållshistorik – allt. Detta låter enkelt, men många organisationer spårar fortfarande tillgångar i kalkylblad som går månader mellan uppdateringarna.

Realtidsövervakning.Strömförbrukning på PDU- eller racknivå, temperatur och luftfuktighet vid tillförsel- och returpunkter, kylsystemstatus, UPS-batteritillstånd. Larm utlöses när parametrar avviker från börvärden. Målet är att upptäcka problem innan de orsakar stillestånd.

Kapacitetsplanering.Systemet vet hur mycket kraft och kylkapacitet som är tillgänglig, hur mycket som används och hur mycket som är reserverat för framtida driftsättning. Det kan modellera effekten av att lägga till ett nytt högdensitetsrack eller avveckla en uppsättning äldre servrar.

Visualisering.En digital tvilling i datacentret — ställ för ställ, sida vid sida — visar aktuella förhållanden och tillåter operatörer att simulera förändringar. Lägga till 10 kilowatt belastning på rad tre, kolumn fyra: överskrider det kylkapaciteten? Systemet svarar innan någon flyttar utrustning.

Effektivitetsmatematiken som faktiskt fungerar

Att minska datacentrets energiförbrukning är inte mystiskt. Metoderna är väl förstådda. Utmaningen är implementeringsdisciplin.

Höj tilluftstemperaturen.De flesta datacenter är kalla – 18 till 20 grader Celsius vid kylenhetens retur – eftersom det är vad operatörer alltid har gjort. ASHRAE riktlinjer rekommenderar nu 24 till 27 grader. Varje gradsökning minskar kylenergin med ungefär 4 procent. Att köra i 26 grader istället för 20 grader sparar 20-25 procent av kyleffekten.

Eliminera varm och kall luftblandning.Varmgångsinneslutning, kallgångsinneslutning eller vertikala avgaskanaler tvingar kylluft att gå dit den behövs snarare än att korta cyklar genom framsidan av ställen. Enbart inneslutning minskar vanligtvis kylenergin med 15-25 procent.

Använd frekvensomriktare med variabel hastighet.Fläktar och pumpar med konstant hastighet slösar energi vid dellast. Frekvensomriktare anpassar luftflödet och vattenflödet till det faktiska behovet. Återbetalningsperioder för eftermontering är vanligtvis 1-3 år.

Optimera UPS-driften.De flesta UPS-system körs kontinuerligt i dubbelkonverteringsläge — konverterar AC till DC och tillbaka till AC även när nätströmmen är ren. Moderna UPS-system kan byta till eko-läge när strömkvaliteten tillåter, och uppnå 99 procent effektivitet istället för 94-96 procent. Avvägningen är en kort överföringstid till batteriet om strömförsörjningen avbryts. För IT-laster med strömförsörjning konstruerade för sådana överföringar är risken minimal.

Anta högre spänningsdistribution.Att distribuera ström vid 415V istället för 208V minskar distributionsförlusterna med cirka 25 procent. Detta kräver kompatibla PDU:er och serverströmförsörjning, men många moderna enheter stöder det.

Hur verklighetseffektiviteten ser ut

Shangyu CPSY Company, ett högteknologiskt företag med fokus på datacenterinfrastruktur, rapporterar en PUE på 1,3 för sina modulära datacenterlösningar. Detta placerar företaget i guldnivån och går mot platina.

De påstådda energibesparingarna på 25 procent jämfört med konventionella konstruktioner kommer från flera faktorer. Modulära UPS-system med 97,4 procents effektivitet på systemnivå minskar distributionsförluster som annars löper med 15-20 procent. Precisionsklimatanläggningar med kompressorer med variabel hastighet och EC-fläktar justerar kyleffekten för att matcha den faktiska värmebelastningen istället för att köra med fast kapacitet. Och den fysiska layouten – inneslutning av varma gångar, optimalt ställavstånd, upphöjt golv med perforerade plattor av rätt storlek – adresserar luftflödeshanteringen som undergräver många annars effektiva anläggningar.

I företagets certifieringsportfölj ingår ISO 9001 (kvalitetsledning) och ISO 27001 (informationssäkerhetshantering). Dess kundinstallationer inkluderar partnerskap med Huawei, ZTE och Inspur, med exportinstallationer i USA, Storbritannien, Tyskland, Frankrike och Australien.

Där flytande kylning kommer in i bilden

I flera år var vätskekylning en nischteknik för superdatorcentra. Det förändras snabbt.

AI-träningskluster som använder NVIDIA H100 eller kommande B200 GPU:er genererar 30-50 kilowatt per rack i rent luftkylda konfigurationer. Vid dessa tätheter kräver luftkylning höga luftflöden - höga fläktar, djupa rack och fortfarande marginell termisk kontroll.

Direkt-till-chip vätskekylning tar bort 60-80 procent av värmen vid källan. Chipsen går svalare. Fläktarna går långsammare. Rumsluftkonditioneringen hanterar endast den återstående värmen från strömförsörjning, minne och andra komponenter.

Effektivitetsvinsten är betydande. Anläggningar med direkt-till-chip-kylning rapporterar PUE-värden på 1,1 till 1,2. Avvägningarna är högre kapitalkostnader, mer komplex läckagehantering och behovet av vattenrening av anläggningskvalitet.

Full nedsänkningskylning – nedsänkning av hela servrar i dielektrisk vätska – pressar PUE under 1,1 men förblir specialiserad. De flesta kommersiella datacenter kommer att använda direkt-till-chip-kylning först, nedsänkning senare för specifika högdensitetszoner.

SHANGYU-datacenterplattformen inkluderar bestämmelser för både luft- och vätskekylningsarkitekturer, som inser att framtida högdensitetsinstallationer kommer att kräva vätskebaserad termisk hantering oavsett anläggningsdesign.

The Management Gap: Från reaktiv till prediktiv

De flesta datacenterdriftsteam arbetar fortfarande reaktivt. Ett larm ljuder. Någon utreder. En fix tillämpas. Cykeln upprepas.

Övergången till predictive management kräver tre förmågor som många organisationer saknar.

Komplett konfigurationsdata.Att veta vad som finns i datacentret – varje server, varje switch, varje PDU, varje kylenhet – är grunden. Utan korrekt CMDB-data är kapacitetsplanering gissningar.

Granulär telemetri.Effektmätning på racknivå är minimum. Effektmätning per server är bättre. Effekttilldelning på arbetsbelastningsnivå är bäst men svårast att uppnå.

Analyser som skiljer signal från brus.En temperaturökning vid ett rack kan betyda en misslyckad fläkt. En temperaturökning över halva datacentret kan innebära ett kylaggregatfel. Systemet måste differentiera och rekommendera svar i enlighet med detta.

DCIM-plattformen från SHANGYU tillhandahåller SNMP- och Modbus-enhetsstöd, webbaserade och Windows-applikationsgränssnitt och integration med nätverkskameror för händelseutlöst bildbehandling. De angivna målen är enkla: minska kostsamma stilleståndstider, minska de dagliga driftskostnaderna genom fullständig miljökontroll och förbättra ledningens synlighet och spårbarhet.

Varför detta är viktigt bortom datacentergolvet

Datacenters energiförbrukning står för ungefär 1 procent av den globala efterfrågan på el. Den siffran låter liten tills den sätts i sitt sammanhang. Det motsvarar ungefär den totala elförbrukningen i Storbritannien.

Ännu viktigare är att tillväxttakten accelererar. Branschprognoser visar att efterfrågan på datacenters ström ökar med 10-15 procent årligen fram till 2030, drivet av AI, molnintroduktion och den fortsatta expansionen av anslutna enheter. I den takten skulle datacenter förbruka 3-4 procent av den globala elen i slutet av årtiondet.

Effektivitetsvinsterna som höll strömförbrukningen oförändrad under det föregående decenniet kom från servervirtualisering (minskande av det fysiska serverantalet), förbättrad enhetseffektivitet (övergång från snurrande diskar till SSD-enheter) och bred användning av frikylning (med användning av utomhusluft istället för mekanisk kylning). De där lågt hängande frukterna har till stor del plockats.

Nästa våg av effektivitet kommer från vätskekylning, högre spänningsdistribution, AI-optimerade kylkontroller och – kanske viktigast – bättre anpassning mellan infrastrukturkapacitet och faktisk IT-belastning. Den sista biten kräver den typ av synlighet i realtid och prediktiv analys som DCIM-system tillhandahåller men få faciliteter använder fullt ut.

Några frågor värda att ställa om din egen infrastruktur

Vet du din faktiska PUE, inte numret på specifikationsbladet?Om du inte har mätt vid UPS-utgången och vid IT-utrustningens ingång vet du inte. Skillnaden är din verkliga omkostnad.

Kämpar era kylsystem mot varandra?I många datacenter är CRAC-enheter inställda med överlappande temperatur- och luftfuktighetsband. En enhet avfuktar medan en annan avfuktar. En kyler medan en annan värmer. Detta är inte ovanligt. Det är inte heller effektivt.

Vad är det inaktiva strömförbrukningen för dina servrar?Branschdata visar att typiska företagsservrar drar 30-40 procent av sin maximala effekt när de inte gör något. Att stänga av eller sätta i vila på oanvända servrar är den högsta ROI-effektivitetsåtgärden som finns. Det är också det mest förbisedda.

Skulle du kunna höja din tilluftstemperatur med två grader utan att bryta mot utrustningsspecifikationerna?Troligtvis ja. De flesta utrustningar är klassade för 25-27 graders intagstemperaturer. De flesta datacenter körs i 20-22 grader. Det där sexgradersgapet representerar år av onödig kylningsenergi.

När var sista gången du validerade din UPS-effektivitet?Märkskyltens effektivitet mäts vid full belastning med perfekt effektfaktor. Verklig effektivitet vid dellast med verklig effektfaktor kan vara 5-10 poäng lägre.





Tidigare:Inga nyheter

Skicka förfrågan

X
Vi använder cookies för att ge dig en bättre webbupplevelse, analysera webbplatstrafik och anpassa innehåll. Genom att använda denna sida godkänner du vår användning av cookies. Sekretesspolicy