8 Möglichkeiten, bereiten Sie Ihre Daten-center für die KI-Kraft schöpfen

0
6

So wie sich die künstliche Intelligenz nimmt ab, in der enterprise-Einstellungen, so werden data-center-power-Nutzung. AI ist viele Dinge, aber stromsparend ist nicht einer von Ihnen.

Für Rechenzentren ausgeführt typischen enterprise-Anwendungen, die Durchschnittliche Leistungsaufnahme für ein rack ist etwa 7 kW. Doch es ist üblich, für KI-Anwendungen mit mehr als 30 kW pro rack, nach Daten-center-Organisation AFCOM. Das ist, weil AI erfordert eine viel höhere Auslastung des Prozessors und die Prozessoren – vor allem GPUs sind macht hungrig. Nvidia-GPUs, zum Beispiel, kann mehrere Größenordnungen schneller als eine CPU, aber auch Sie verbrauchen doppelt so viel Energie pro chip. Verkompliziert das Problem ist, dass viele Rechenzentren sind bereits in Kraft eingeschränkt.

LESEN Sie MEHR: haben Sie wirklich brauchen high-performance-computing?

Kühlung ist auch ein Problem: AI-orientierten Servern erfordern größere Prozessor Dichte, was bedeutet, dass mehr chips vollgestopft in die box, und Sie alle laufen sehr heiß. Größere Dichte, zusammen mit einer höheren Auslastung, steigt auch der Bedarf für Kühlung im Vergleich zu einer typischen back-office-server. Höhere Kühlbedarf im Gegenzug erhöhen den Energiebedarf.

Also, was können Sie tun, wenn Sie wollen, Sie zu umarmen, AI aus Gründen der Wettbewerbsfähigkeit, sondern die Leistung Ihrer bestehenden Anlage ist nicht bis zu den high-density-Anforderungen an die Infrastruktur von AI? Hier sind einige Optionen.

Betrachten Flüssigkeitskühlung

Lüfter in der Regel verliert die Lebensfähigkeit, sobald ein rack größer als 15 kW. Wasser, jedoch hat 3000 mal die Wärmekapazität von Luft, nach CoolIT Systems, ein Hersteller von enterprise-liquid-cooling-Produkte. Als Ergebnis, server cabinet makers wurden Zugabe von Flüssigkeit Rohre, um Ihre Schränke und anschließen von Wasser-Rohrleitungen, um Ihre Kühlkörper statt Lüfter.

“Flüssige Kühlung ist definitiv eine sehr gute option für eine höhere Dichte von Lasten”, sagt John Sasser, senior vice president für data center operations bei Sabey, ein Entwickler und Betreiber von Rechenzentren. “Das entfernt die chaotisch Luftstrom Problem. Wasser entfernt viel mehr Wärme als Luft ist, und Sie können direkt durch die Rohre. Viele HPC [high performance computing] wird mit Flüssigkeitskühlung.”

Die meisten Rechenzentren sind für Luftkühlung, so dass Flüssigkeit Kühlung erfordern Investitionen, “aber das wäre eine viel sinnvollere Lösung für diese Bemühungen, vor allem, wenn ein Unternehmen beschließt, sich in die Richtung [des KI],” Sasser sagt.

Ausführen AI-workloads bei niedrigeren Auflösungen

Bestehende Rechenzentren werden könnte, in der Lage zu handhaben AI Computer-Arbeitslasten, aber in eine reduzierte, Mode, sagt Steve Conway, senior research vice president für Hyperion-Forschung. Viele, wenn nicht die meisten, Aufwand betrieben werden kann halb-oder Viertel-Präzision statt 64-bit-double-precision.

“Für einige Probleme, die Hälfte Präzision” Conway sagt. “Laufen Sie mit niedrigerer Auflösung, mit weniger Daten. Oder mit weniger science in it.”

Double-precision-floating-point-Berechnungen werden in Erster Linie erforderlich, in der wissenschaftlichen Forschung, die Häufig auf der molekularen Ebene. Double-precision ist in der Regel nicht verwendet in AI training oder Inferenz auf deep-learning-Modelle, weil es nicht benötigt wird. Auch Nvidia Verfechter für die Verwendung von single – und half-precision-Berechnungen in der Tiefe neuronale Netze.

Erstellen einer AI-containment-segment

AI wird zu einem Teil Ihres Geschäfts, aber nicht alle, und das sollte sich in Ihrem Rechenzentrum. “Die neuen Anlagen, die gebaut werden in Erwägung ziehen, die Zuteilung, die einen Teil Ihrer Anlagen zu einem höheren Energieverbrauch”, sagt Doug Hollidge, ein partner mit Fünf 9s Digital, baut und betreibt Rechenzentren. “Du wirst doch nicht, alle Ihre Einrichtungen zu einer höheren Dichte, da gibt es andere apps, die unteren ziehen.”

Das erste, was zu tun ist, bewerten die Energieversorgung der Gebäude, Hollidge sagt. “Wenn Sie gehen, um erhöht den Energieverbrauch des Gebäudes, Sie haben um sicherzustellen, dass der Strom-Anbieter erhöhen die Stromversorgung.”

Bringen Sie in einem Ingenieur zu beurteilen, welcher Teil der Daten-center ist bestens gerüstet für die höhere Dichte-Funktionen. Die Workload-Anforderungen wird die Bestimmung der besten Lösung, egal ob es die hot-aisle-containment-oder Flüssigkeitskühlung oder eine andere Technologie. “Es ist schwer zu geben, one-size-fits-all-Lösung, da alle Rechenzentren sind anders”, Hollidge sagt.

Breiten Sie Ihre KI-Systeme

Ein alternativer Ansatz – anstatt drängen Sie alle Ihre KI-Systeme in einer Stelle heißer als das Death Valley im August – ist an Sie verteilt unter den racks.

“Die meisten apps sind nicht mit hoher Dichte. Sie laufen an acht bis 10 Kilowatt bis zu 15 Kilowatt. Sie behandeln können, die mit Luft”, sagt David McCall, chief innovation officer mit QTS, ein generator von Rechenzentren.

In einem optimierten heterogenen Umgebung, ein Anbieter von Colocation-Anbieter haben könnte, ein rack oder zwei in einem Schrank, um host ein HPC-oder AI-Umgebung, und der rest des racks im Schrank sind für das hosten von weniger leistungshungrigen Anwendungen wie Datenbanken und back-office-apps. Das wird nicht die Ausbeute eines 5 kW-rack, aber es wird ein rack näher zu 12 kW oder 15 kW, das ist eine Umgebung, die Kühlung der Luft verarbeiten kann, McCall sagt.

Control hot air flow in the data center

Standard-Daten-center-layout ist hot-aisle/cold-aisle, wo die Schränke gelegt werden, in alternierenden Reihen, so dass kalte Luft Zufuhr Gesicht zueinander auf eine nach vorn gerichtete Gang, und die heiße Luft erschöpft sich gegenüberstehen, auf dem abwechselnd back-gerichteten Gang. Das funktioniert auch, aber der Zugang kann schwierig sein, wenn ein IT-Arbeiter braucht, um hinter einem Schrank, um Arbeit auf einem server.

Das andere problem ist, dass Luft ist “chaotisch”, wie “Sasser” setzen. Macht ist oft einfacher, Modell, weil es fließt durch die Leiter, und Sie kontrollieren kann (und damit plan-und Modell), wo die macht geht. Luft geht dahin, wo es will und ist schwer zu kontrollieren.

Sabey Kunden, die wollen höhere Dichte Umgebungen verwenden Sie einen hot-aisle-containment-pod zu Steuern, die Luft-flow. Das Unternehmen stellt Türen am Ende der heißen Gang-und Kunststoff-Platten über der Oberseite, so dass die Wärme geleitet wird, ist in eine Decke Saugrohr und Barrieren halten heiße Luft und kalte Luft zu mischen.

“In einem Luft-gekühlten server-Welt, den Rat, den ich geben ist, gehen Sie mit einer hot-aisle-containment-Umgebung,” Sasser sagt. “Der andere Rat, den ich geben würde ist, stellen Sie sicher, dass die Daten-center ist getestet für den Luftstrom, nicht nur modelliert für die Luftzirkulation. Die Modellierung ist abhängig von einer Menge von Variablen, und Sie leicht ändern.”

Betrachten Sie einen Schornsteinfeger-Kabinett

Ein weiterer Weg, um zu helfen verwalten die Temperaturen in Rechenzentren, ist die Verwendung eines Kamin-Kabinett. Statt der Entlüftung die heiße Luft aus der Rückseite, ein Kamin, Schrank nutzt die gute alte Physik Konvektion zu senden heiße Luft in einen Schornstein, die dann in Verbindung mit einer Klimaanlage Schlot. Chatsworth-Systeme ist am besten bekannt für diese Art von Schränke.

“Die Luft Weg ist mehr eingeschränkt diese Weise” Sasser sagt. “Da, dass die Luft Weg ist mehr eingeschränkt, Sie können Holen Sie mehr Dichte, in einem Schrank als mit einem heißen Gang-pod.”

Prozess-Daten, wo es wohnt

Verschieben von Daten hat einen sehr hohen Energie-Kosten: Es kann bis zu 100 mal mehr Energie zur Verschiebung von Daten, als es dauert, um Daten zu verarbeiten, Conway sagt. Jede form des data-Bewegung benötigt Strom, und dass die Leistungsaufnahme steigt mit dem Volumen der Daten – ein wichtiges Thema für Daten-intensive KI-Anwendungen. “Sie wollen, um Daten zu verschieben, wie selten und wie wenig Distanz, wie Sie können,” Conway sagt.

“Die Lösung ist nicht zu haben, um die Daten zu verschieben, oder Sie weiter als unbedingt notwendig. So sind die Menschen Streben, um die Daten näher an, wo es verarbeitet wird. Eine Sache, die Anbieter von cloud-Diensten und Menschen, die Sie nutzen cloud-Dienste einig sind, ist es nicht sinnvoll zu bewegen, eine riesige Menge von Daten zu einem Drittanbieter-cloud”, sagt er.

Die leasing data center-Raum

Die meisten Unternehmen sind auf der Suche zu implementieren, die AI sind Unternehmen, die Leasing-data center-Raum von einem Daten-center-Betreiber, Hollidge sagt. Es gibt einige Daten-center-Betreiber, die nicht in der Lage Umgang mit high-density-AI-Berechnung, aber einige gewechselt haben, mit einem Anteil von high-density-Umgebungen für AI.

“Möglicherweise müssen Sie gehen durch ein paar Anbieter, bevor es zu finden, aber es ist mehr Aufmerksamkeit zu schenken, die auf den rz-Betrieb Seite” Hollidge sagt. Und ein third-party-data-center-Anbieter gibt Ihnen mehr Wachstum Optionen. “Die meisten der Zeit, die Sie besser dran, die Eingabe in einen flexiblen Mietvertrag, die Ihnen erlaubt, zu erweitern und zu wachsen Ihre AI-business im Gegensatz zum Bau von ground up.”

Warten Sie, bis die nächste generation von Servern

Supercomputer, die bis dato nicht zu sehr-Daten freundlich, Conway sagt. Als Supercomputer haben größer geworden, die Entwürfe bekommen haben weniger Daten-centric. Das Ergebnis ist, dass mehr Daten bewegt werden und pendelte zwischen Prozessoren, Speicher und storage-Systemen. Und, wie oben diskutiert, es kostet mehr Kraft um Daten zu verschieben, als Sie zu verarbeiten.

Die ersten exascale-Systeme kommen mit mehr Beschleunigung und mehr leistungsfähige verbindungen zum bewegen von Daten. Und viele Innovationen beginnen im supercomputing, einschließlich GPUs und storage-class memory (SCM), schließlich arbeiten Sie Ihren Weg nach unten, um mehr mainstream-Server.

Zukünftige Server auch mit einem mehr heterogenen chip-layout; statt aller x86-CPUs, dazu gehören GPUs, FPGAs und AI-Beschleuniger. Und für high-speed-Speicher, die NVMe-over-Stoff und SCM erschwinglicher werden. Server werden eingesetzt, um in den kommenden Jahren ändern, und viele der Fortschritte, die geschäftlich enterprise AI Anwendungsumgebungen.

Erfahren Sie mehr über HPC-und Supercomputer

  • HPE kaufen Cray, bieten HPC as a service
  • Die Stilllegung der Titan-supercomputer
  • 10 der weltweit schnellsten Supercomputer
  • Was ist Quanten-computing und warum sollte das die Unternehmen interessieren?
  • Wer die Entwicklung von Quanten-Computern?

Diese Geschichte, “8 ways to bereiten Sie Ihre Daten-center für die KI-Kraft schöpfen” wurde ursprünglich veröffentlicht von