8 måter å forberede data center for AI er strømforbruk

0
8

Som kunstig intelligens tar av i virksomheten innstillinger, så vil data center strømbruk. AI er mange ting, men energieffektiv er ikke en av dem.

For datasentre kjører typiske enterprise applikasjoner, gjennomsnittlig strømforbruk for et brett på rundt 7 kW. Men det som er felles for AI programmer til å bruke mer enn 30 kW per rack, i henhold til data center organisasjon AFCOM. Det er fordi AI krever mye høyere prosessor utnyttelse, og-prosessorer – spesielt Gpu – er maktsyke. Nvidia Gpu-er, for eksempel, kan kjøre flere størrelsesordener raskere enn en CPU, men at de også spiser dobbelt så mye strøm per brikke. Kompliserer saken er at mange datasentre er allerede makt er begrenset.

LES MER: trenger du virkelig high performance computing?

Kjøling er også et problem: AI-orientert servere krever større prosessor tetthet, noe som betyr mer chips som finnes i boksen, og alle kjører veldig varmt. Større tetthet, sammen med høyere utnyttelse, øker behovet for kjøling i forhold til en typisk back-office server. Høyere kjøling krav i sin tur øke kraften krav.

Så hva kan du gjøre hvis du ønsker å omfavne AI for konkurransemessige grunner, men i kraft av din eksisterende anlegget er ikke opp til high-density krav til infrastruktur av AI? Her er noen alternativer.

Vurdere flytende kjøling

Vifte kjøling vanligvis mister levedyktighet når et brett overstiger 15 kW. Vann, imidlertid, har 3000 ganger varmekapasitet for luft, i henhold til CoolIT Systemer, en produsent av enterprise flytende kjøling produkter. Som et resultat, server skap beslutningstakere har vært å legge flytende rør til sine skap og koble til vann rør til sine kjøleribber i stedet for fans.

“Flytende kjøling er definitivt et veldig godt alternativ for høyere tetthet belastninger, sier John Sasser, senior vice president for data center operations på Sabey, en utvikler og operatør av data sentre. “Som fjerner rotete luftstrømmen problemet. Vann fjerner mye mer varme enn luft gjør, og du kan styre den gjennom rør. Mye av HPC (high performance computing] er gjort med flytende kjøling.”

De fleste datasentre er satt opp for luft-kjøling, så flytende kjøling vil kreve en investering, “men det kan bli en mye mer fornuftig løsning for dette arbeidet, spesielt hvis en bedrift bestemmer seg for å bevege seg i retning [AI],” Sasser sier.

Kjør AI arbeidsbelastninger ved lavere oppløsninger

Eksisterende datasentre kan være i stand til å håndtere AI computational arbeidsbelastninger, men i en redusert mote, sier Steve Conway, senior research vice president for Hyperion Forskning. Mange, om ikke de fleste, arbeidsbelastninger kan bli operert på halv eller kvart presisjon heller enn 64-bit dobbel presisjon.

“For noen problemer, halvparten av presisjon er fint,” sier Conway. “Kjør det til en lavere oppløsning, med mindre data. Eller med mindre vitenskap i det.”

Dobbel presisjon floating point beregningene er først og fremst nødvendig i vitenskapelig forskning, som ofte er gjort på molekylært nivå. Dobbel presisjon er vanligvis ikke brukes i AI trening eller slutning på dyp læring modeller fordi det er ikke nødvendig. Selv Nvidia talsmenn for bruk av enkelt – og halv-presisjon beregninger i dyp nevrale nettverk.

Bygge en AI forurensning segment

AI vil være en del av din bedrift, men ikke alle, og det bør gjenspeiles i datasenteret. “Den nye anlegg som bygges vurderer å tildele en del av sine anlegg til et høyere strømforbruk,” sier Doug Hollidge, en partner med Fem 9s Digital, som bygger og driver datasentre. “Du kommer ikke til å legge alle fasiliteter til høyere tetthet, fordi det finnes andre applikasjoner som har lavere tegne.”

Den første tingen å gjøre er å vurdere energi-forsyning til bygningen, Hollidge sier. “Hvis du er kommer til å øke energibruken i bygningen, du har å gjøre at strøm-leverandør kan øke strømforsyningen.”

Få inn en ingeniør for å vurdere hvilken del av data center som er best utstyrt for høyere tetthet evner. Arbeidsmengden krav vil finne den beste løsningen, enten det er varmt midtgangen forurensning eller flytende kjøling eller noen annen teknologi. “Det er vanskelig å gi one-size-fits-all-løsning siden alle data sentre er forskjellige,” Hollidge sier.

Spre ut din AI-systemer

En alternativ tilnærming – heller enn å tippe alle AI-systemer til ett sted varmere enn Death Valley i August – er å spre dem ut blant stativene.

“De fleste appene er ikke høy tetthet. De kjører på åtte til 10 kilowatt og opp til 15 kilowatt. Du kan håndtere det med luft,” sier David McCall, chief innovation officer med QTS, en byggmester av data sentre.

I en optimalisert heterogent miljø, en sammenstilling leverandør kan ha et brett eller to i et skap for å være vert for en HPC eller AI miljø, og resten av stativer i skapet er dedikert til å arrangere mindre kraft-sultne programmer, som for eksempel databaser og back-office-appene. Som ikke vil gi en 5 kW rack, men det blir en rack nærmere 12 kW eller 15 kW, som er et miljø som luftkjøling kan håndtere, McCall sier.

Kontroll varm luftstrøm i data center

Standard data senter layout er varmt midtgangen/kaldt midtgangen, hvor skapene er lagt ut i alternerende rekker, slik at kald luft inntak møter hverandre på en front-mot midtgangen, og varm luft eksos møter hverandre på vekslende tilbake-mot midtgangen. Som fungerer fint, men tilgang kan være vanskelig hvis en IT-person har behov for å få bak et skap til å arbeide på en server.

Det andre problemet er at luften er “rotete”, som Sasser sette det. Makt er ofte enklere å modellere fordi det strømmer gjennom lederne, og du kan kontrollere (og dermed planlegge og modell) hvor strømmen går. Luften går dit den vil, og som er vanskelig å kontrollere.

Sabey kunder som ønsker høyere tetthet miljøer, bruk en varm midtgangen forurensning pod til å styre luftstrømmen. Selskapet setter døra på slutten av varme midtgangen og plast plater over toppen, så varmen er rettet inn i et tak inntak av rør og barrierer holde varm luft og kald luft blanding.

“I en luft-avkjølt server verden, rådet jeg vil gi er å gå med en varm midtgangen forurensning-miljø,” Sasser sier. “Den andre råd jeg vil gi er å sørge for at data center er testet for luftstrømmen, ikke bare modellert for luftstrømmen. Modellering er avhengig av en rekke variabler, og de gjør det enkelt å endre.”

Vurdere en skorstein kabinett

En annen måte å hjelpe til med å administrere temperaturer i datasentre er å bruke en skorstein kabinett. I stedet for lufting på varme luften ut igjen, en skorstein skap bruker gode gamle fysikk konveksjon å sende varm luft opp i en skorstein, som deretter kobles til et bad vent. Chatsworth Systemer er best kjent for denne stilen av skap.

“Luften vei er mer begrenset på denne måten”, Sasser sier. “Etter at air vei er mer begrenset, kan du få større tetthet inn i et skap enn med en varm midtgangen pod.”

Prosessen data der det bor

Flytting av data rundt har en svært høy energi kostnad: Det kan ta opp til 100 ganger mer energi for å flytte data enn det tar å behandle data, sier Conway. Enhver form for data bevegelse krever strøm, og at strømforbruket øker med volumet av data – et betydelig problem for data-intensive AI programmer. “Du ønsker å flytte data som sjelden og så liten avstand som du kan,” sier Conway.

“Løsningen er ikke å ha for å flytte data mer eller lenger enn det som er absolutt nødvendig. Slik at folk strever for å sette data nærmere der hvor det er behandlet. En ting cloud tjenesteleverandører og folk som bruker skytjenester bli enige om, er det ikke fornuftig å flytte en massiv mengde data til en tredjepart cloud,” sier han.

Vurdere leasing data center plass

De fleste bedrifter som ønsker å implementere AI er selskaper som leier data center plass fra et datasenter operatør, Hollidge sier. Det er noen datasenter operatører som ikke er i stand til å håndtere høy tetthet AI beregning, men noen har gått over til å tilby en del av high density miljøer for AI.

“Du kan ha til å gå gjennom noen leverandører før du finner det, men det er mer oppmerksomhet blir betalt på data center operations side,” Hollidge sier. Og en tredje-part data center leverandør gir deg mer vekst valg. “Mesteparten av tiden du er bedre å inngå en fleksibel leie som gir deg mulighet til å utvide og vokse din AI virksomhet, i motsetning til å bygge bakken og opp.”

Vente på neste-generasjon-servere

Superdatamaskiner til dags dato ikke har blitt svært data vennlige, sier Conway. Som superdatamaskiner har blitt større, design har fått mindre data-sentriske. Resultatet er at mer data må flyttes rundt og skytteltrafikk mellom prosessorer, minne og lagring systemer. Og, som nevnt ovenfor, det koster mer kraft til å flytte data enn å behandle den.

Den første exascale systemer vil komme med flere aktiviteter og mer kraftfulle koblinger for å flytte rundt data. Og mange innovasjoner som starter i supercomputing, inkludert Gpu og lagring-klasse minne (SCM), og til slutt jobbe seg ned til mer mainstream servere.

Fremtidige servere også vil komme med en mer heterogen chip layout, i stedet for alle x86-Prosessorer, vil de inkluderer Gpuer, FPGAs, og AI aktiviteter. Og for høy fart lagring, NVMe-over-Stoff og SCM vil bli mer rimelig. Servere er satt til å endre i de kommende år, og mange av de fremskritt vil ha nytte enterprise AI søknad miljøer.

Les mer om HPC og masserte

  • HPE å kjøpe Cray, tilbyr HPC som en tjeneste
  • Avviklingen av Titan superdatamaskin
  • 10 av verdens raskeste superdatamaskiner
  • Hva er quantum computing og hvorfor bør virksomheter vare?
  • Som utvikler kvante-datamaskiner?

Denne historien, “8 måter å forberede data center for AI er strømforbruk” ble opprinnelig utgitt av