8 modi per preparare il vostro centro dati dell’IA assorbimento di potenza

0
5

Come intelligenza artificiale, decolla enterprise impostazioni, in modo che sarà di alimentazione del data center di utilizzo. AI è molte cose, ma la potenza efficiente non è uno di loro.

Per i centri dati in esecuzione tipiche applicazioni aziendali, il consumo medio di energia per un rack è di circa 7 kW. Ma è comune AI applicazioni per l’utilizzo di più di 30 kW per rack, secondo i dati del centro di organizzazione AFCOM. Questo perché AI richiede molto più alto di utilizzo del processore, e processori – soprattutto Gpu, sono affamati di potere. Le Gpu Nvidia, per esempio, può eseguire diversi ordini di grandezza più veloce di una CPU, ma hanno anche consumare il doppio di potenza per chip. A complicare il problema è che molti centri dati sono già potere vincolato.

LEGGI di PIÙ: Non si ha realmente bisogno di high performance computing?

Il raffreddamento è anche un problema: AI-oriented per i server che richiedono maggiore processore densità, il che significa più chip stipati in scatola, e molto caldo. Maggiore densità, con un maggiore utilizzo, aumenta la domanda di raffreddamento rispetto a un tipico back-office server. Più elevati requisiti di raffreddamento a sua volta aumentare le richieste di potenza.

Così che cosa si può fare se si vuole abbracciare AI per ragioni di concorrenza, ma la potenza del vostro impianto esistente non è ad alta densità di fabbisogno di infrastrutture di AI? Qui ci sono alcune opzioni.

In considerazione di raffreddamento a liquido

Ventola di raffreddamento in genere perde vitalità, una volta un rack supera i 15 kW. L’acqua, tuttavia, è 3000 volte la capacità termica dell’aria, secondo CoolIT Systems, un produttore di enterprise liquido di raffreddamento prodotti. Come risultato, server ebanisti sono stati l’aggiunta di tubi del liquido per i loro armadi e collegamento di tubazioni dell’acqua per i loro dissipatori di calore invece di fan.

“Il raffreddamento a liquido è sicuramente una buona opzione per una maggiore densità di carico”, dice Giovanni Sasser, senior vice presidente per le operazioni di data center a Sabey, sviluppatore e gestore di centri di elaborazione dati. “Che rimuove il disordinato flusso d’aria di problema. L’acqua rimuove un sacco di più il calore rispetto all’aria, e si può indirizzare, attraverso dei tubi. Un sacco di HPC [high performance computing] è fatto con raffreddamento a liquido.”

Maggior parte dei data center sono impostate per l’aria di raffreddamento, in modo che il liquido di raffreddamento richiederà un investimento di capitale, “ma potrebbe essere un molto più ragionevole soluzione per questi sforzi, soprattutto se una società decide di muoversi in direzione di [AI],” Sasser dice.

Eseguire AI carichi di lavoro a risoluzioni inferiori

Data center esistenti potrebbe essere in grado di gestire AI computazionale carichi di lavoro, ma in modo ridotto, dice Steve Conway, senior research vice president di Hyperion di Ricerca. Molti, se non la maggior parte, i carichi di lavoro possono essere gestiti a metà o un quarto di precisione piuttosto che a 64-bit a doppia precisione.

“Per alcuni problemi, precisione di mezzo va bene,” Conway dice. “L’esecuzione è a bassa risoluzione, con meno di dati. O con meno scienza.”

Floating point a doppia precisione calcoli bisogno soprattutto nella ricerca scientifica, che spesso viene fatta a livello molecolare. Doppia precisione non è in genere utilizzato in AI, di formazione o di inferenza su una profonda modelli di apprendimento, perché non è necessario. Anche Nvidia sostiene per l’utilizzo di singola e mezza calcoli e precisione nel profondo reti neurali.

Costruire un’intelligenza artificiale di contenimento segmento

L’IA sarà una parte del vostro business, ma non tutti, e che dovrebbe riflettersi nel data center. “Le nuove strutture che vengono costruite sono contemplando l’allocazione di una parte delle loro strutture, per un maggiore consumo energetico”, dice Doug Hollidge, un partner con Cinque 9s Digitale, che costruisce e gestisce centri di dati. “Non hai intenzione di mettere tutti i vostri impianti a più alta densità, perché ci sono altre app che hanno una minore disegnare.”

La prima cosa da fare è valutare la fornitura di energia per l’edificio, Hollidge dice. “Se avete intenzione di aumentare l’uso di energia nell’edificio, hai avuto modo di assicurarsi che il fornitore del potere può aumentare la potenza di alimentazione.”

Portare un ingegnere per valutare la porzione del data center è equipaggiato al meglio per una maggiore densità di capacità. Requisiti del carico di lavoro, determinano la soluzione migliore, sia esso un corridoio di aria calda di contenimento o di liquido di raffreddamento o qualche altra tecnologia. “È difficile dare un one-size-fits-all soluzione dal momento che tutti i centri dati sono diversi,” Hollidge dice.

Diffondere i vostri sistemi di intelligenza artificiale

Un approccio alternativo, piuttosto che affollano tutti i vostri sistemi di intelligenza artificiale in un punto più caldo della Death Valley nel mese di agosto – è quello di diffondere tra gli scaffali.

“La maggior parte delle applicazioni non sono ad alta densità. Corrono a otto a 10 kw e fino a 15 chilowatt. È in grado di gestire con aria”, dice David McCall, chief innovation officer con QTS, un costruttore di centri di elaborazione dati.

Un ideale ambiente eterogeneo, una collocazione provider potrebbe avere un rack o due in un armadio per ospitare un HPC o AI ambiente, e il resto del rack nel cabinet dedicati all’hosting meno assetato di potere, applicazioni, basi di dati e applicazioni back-office. Che non produrrà un 5 kW per rack, ma diventa un rack più vicino a 12 kW e 15 kW, che è un ambiente che l’aria di raffreddamento in grado di gestire, McCall dice.

Controllo del flusso di aria calda nel data center

Standard di data center layout calde e fredde, dove i mobili sono disposti in righe alternate in modo che l’aria fredda assunzioni di fronte all’altro su un fronte-di fronte a un corridoio di aria calda e scarichi di fronte all’altro sulla alternando avanti-di fronte a navata. Che funziona bene, ma l’accesso può essere difficile, se un lavoratore ha bisogno di avere dietro un armadio a lavorare su un server.

L’altro problema è che l’aria è “disordinato”, come Sasser metterlo. L’alimentazione è spesso più facile a modello, perché attraversa i conduttori, e si può controllare (e quindi di pianificare e modello) in cui il potere passa. Aria va dove vuole ed è difficile da controllare.

Sabey i clienti che vogliono la densità è maggiore negli ambienti di un corridoio di aria calda contenimento pod di controllo del flusso d’aria. L’azienda mette porte alla fine del corridoio caldo e piatti di plastica sopra la parte superiore, in modo che il calore è diretto in un soffitto in tubo di aspirazione e le barriere mantenere l’aria calda e aria fredda da miscelazione.

“In un raffreddato ad aria, il mondo dei server, il consiglio che vi diamo è di andare con un corridoio di aria calda contenimento ambiente,” Sasser dice. “L’altro consiglio che vorrei dare è assicurarsi che il data center è testato per il flusso d’aria, non solo modellato per il flusso d’aria. Modellazione dipende da un sacco di variabili, e sono facilmente cambiare.”

Considerare una canna fumaria di gabinetto

Un altro modo per aiutare a gestire le temperature in centri dati è quello di utilizzare una canna fumaria di gabinetto. Invece di sfiato dell’aria calda nella parte posteriore, un camino armadio usa il buon vecchio fisica convezione per inviare aria calda in un camino, che è poi collegato a una presa d’aria condizionata. Chatsworth Sistemi è meglio conosciuto per questo stile di armadi.

“L’aria di percorso è più vincolato in questo modo,” Sasser dice. “Dal momento che l’aria è un cammino più limitato, è possibile ottenere una maggiore densità in un armadio di un corridoio di aria calda pod.”

I dati di processo in cui risiede

Lo spostamento di dati circa ha un alto costo di energia: Si può richiedere fino a 100 volte più energia per spostare i dati più necessario per elaborare i dati, Conway dice. Qualsiasi forma di movimento dati richiede energia elettrica, e che il consumo di energia aumenta con l’aumentare del volume di dati di un problema significativo per uso intensivo di dati AI applicazioni. “Si desidera spostare i dati più raramente e poco distanza possibile,” Conway dice.

“La soluzione non è necessario spostare i dati più o ulteriore di quanto sia assolutamente necessario. Così le persone si sforzano di mettere i dati più vicino a dove si è trattati. Una cosa che i fornitori di servizi cloud e le persone che utilizzano i servizi cloud concordano è che non ha senso per spostare una quantità enorme di dati a terzi cloud”, dice.

Considerare di leasing spazio per il data center

La maggior parte delle aziende che desiderano implementare AI sono società che il contratto di locazione dello spazio del data center da un data center operatore, Hollidge dice. Ci sono alcuni operatori di data center che non sono in grado di gestire ad alta densità AI calcoli, ma alcuni sono passati a offrire una parte di ambienti ad alta densità di AI.

“Si potrebbe avere a passare attraverso alcuni fornitori prima di trovare il suo, ma c’è più attenzione a che le operazioni di data center lato,” Hollidge dice. E un terzo data center del provider ti dà più opzioni di crescita. “La maggior parte del tempo si sta meglio entrare in un flessibile contratto di locazione che consente di espandere e far crescere il vostro AI business in contrapposizione alla costruzione di terra.”

Attesa per la prossima generazione di server

Supercomputer ad oggi non sono stati dati molto cordiale, Conway dice. Come i supercomputer hanno ottenuto più grande, il design, che hanno ottenuto di meno incentrata sui dati. Il risultato è che più dati deve essere spostato intorno e la spola tra processori, memoria e sistemi di storage. E, come discusso in precedenza, costa di più potenza per spostare i dati rispetto al processo.

Il primo exascale sistemi vengono forniti con altri acceleratori più potenti e interconnessioni per il movimento di dati. E molte innovazioni che hanno inizio in supercomputing, tra Gpu e classe di archiviazione di memoria (SCM), poi lavorare la loro strada giù per più server mainstream.

Futuro server, inoltre, saranno dotati di un più eterogeneo chip layout; invece di tutte le Cpu x86, che includerà Gpu, Fpga e AI tasti di scelta rapida. E ad alta velocità di archiviazione, NVMe su Tessuto e SCM diventi più conveniente. I server sono impostati a cambiare nei prossimi anni, e molti dei progressi andrà a beneficio di enterprise applicazione di intelligenza artificiale degli ambienti.

Saperne di più su HPC e supercomputer

  • HPE comprare Cray, offerta HPC come servizio
  • Lo smantellamento del supercomputer Titan
  • 10 del supercomputer più veloci del mondo
  • Cosa c’è di quantum computing e perché dovrebbero imprese di cura?
  • Che lo sviluppo di computer quantistici?

Questa storia, “8 modi per preparare il vostro centro dati AI power draw” è stato originariamente pubblicato da