Rechenzentrumsplanung mit KI

So stemmt Ihr Datacenter Künstliche Intelligenz

06.03.2020
Von 
Andy Patrizio arbeitet als freier Journalist für die Network World.

Option 4: Verteilte KI-Systeme

Anstatt all Ihre KI-Systeme an einem Ort zu konzentrieren (der in Folge ungefähr so heiß wird, wie das Death Valley in einem gewöhnlichen August), bietet es sich vielmehr an, die betreffenden Systeme auf Ihre Serverracks zu verteilen.

"Die meisten Apps bewegen sich im Bereich zwischen acht und 15 kW - hierfür reicht Luftkühlung voll und ganz aus", weiß David McCall, Chief Innovation Officer beim Datacenter-Spezialisten QTS.

Option 5: Heißluft-Kontrolle im Rechenzentrum

Für gewöhnlich ist ein Rechenzentrum in alternierenden Reihen angelegt, so dass sich Serverschränke mit der jeweils gleichen Luftströmung gegenüberstehen:

Warmgang-Kaltgang-Rechenzentrum
Warmgang-Kaltgang-Rechenzentrum
Foto: Bill Fehr - shutterstock.com

Das funktioniert in der Regel gut, kann aber unter Umständen Probleme verursachen, wenn ein Techniker Zugang zu einem einzelnen Server benötigt. Dazu kommt, dass Luft - im Gegensatz zu Elektrizität - nur schwer zu kontrollieren ist. Deswegen setzen zum Beispiel die Kunden von Sabey, die höhere Prozessordichten benötigen, auf ein "hot aisle containment pod", um den Luftstrom zu kontrollieren. Dieses System führt heiße Luft über eine Leitung direkt ab, so dass sich kalte und warme Luft nicht vermischen können.

Sabey-Manager John Sasser hat darüber hinaus einen wertvollen Tipp auf Lager: "Stellen Sie sicher, dass Ihr Datacenter in Sachen Airflow getestet und nicht nur auf optimale Luftführung hin konzipiert ist. Diese Konzeption hängt in der Regel von vielen Faktoren ab - die sich allerdings schnell verändern können."

Option 6: Kamine für Server

Ein anderer Weg zur Temperaturkontrolle im Rechenzentrum ist der Einsatz sogenannter "chimney cabinets". Diese bieten den Vorteil, dass die warme Abluft nicht "hinten herausgeblasen" wird. Stattdessen wird sie über einen Kamin direkt abgeleitet und einem Klimasystem zugeführt.

Der Weg, den die Abluft hierbei nimmt, ist wesentlich komprimierter als das bei einem "hot aisle pod" der Fall wäre. Deswegen kann hier auch Hardware mit höheren Prozessordichten zum Einsatz kommen.

Option 7: Datenverarbeitung vor Ort

Daten zu bewegen verursacht hohe Energiekosten. Nach den Worten von Steve Conway kann ein solcher Vorgang bis zu einhundert mal mehr Energie verbrauchen, als nötig wäre, um dieselben Daten direkt zu verarbeiten. "Eine signifikante Herausforderung bei datenintensiven KI-Applikationen ist, dass jede Bewegung von Informationen Elektrizität benötigt. Bei großen Datenmengen potenziert sich der Bedarf. Sie sollten Daten also so wenig wie möglich bewegen und wenn, dann über möglichst kurze Distanzen", rät der Research-Spezialist.

Die Lösung sei es, so Conway weiter, Daten möglichst nahe am Ort ihrer Verarbeitung vorzuhalten: "Eine Sache, in der sich Cloud Provider und die Nutzer von Cloud Services einig sind ist, dass es keinen Sinn macht, große Datenmengen in eine externe Cloud zu verlagern."

Option 8: Rechenzentrums-Leasing

Es sind im Regelfall Großunternehmen, die Künstliche Intelligenz mit Nachdruck in ihr Geschäft tragen wollen. Diese setzen in Sachen Datacenter des Öfteren auf Leasing-Modelle - was auch daran liegt, dass einige Datacenter-Betreiber sich inzwischen auf IT-Umgebungen für den Einsatz von Künstlicher Intelligenz spezialisiert haben.

"In den meisten Fällen fahren Sie mit einem flexiblen Leasing-Modell besser. Es bietet den Vorteil, dass Sie Ihr KI-Business schrittweise und nach Bedarf erweitern können, statt komplett bei null anzufangen", weiß Doug Hollidge.

Option 9: Warten auf neue Server

Supercomputer sind - Stand heute - eher wenig "datenfreundlich". Die Rechenkolosse sind immer weitergewachsen, ihr Design wurde dabei immer weniger datenzentrisch. Mit der Folge, dass mehr Daten zwischen Prozessoren, Arbeitsspeicher und Storage hin- und hergeschoben werden müssen. Das wiederum kostet mehr Energie als die Verarbeitung der Daten.

Die ersten Exascale-Systeme werden verschiedene Features an Bord haben, die den Datenfluss wesentlich beschleunigen und effizienter machen werden. Darüber hinaus werden künftige Server-Generationen auch ein wesentlich heterogeneres Chip Layout mitbringen: Dann kommen nicht nur x86-CPUs zum Einsatz, sondern auch GPUs, FPGAs und KI-Beschleuniger. NVMe-oF und SCM werden immer kostengünstiger und werden den Storage-Bereich umkrempeln. Die Server-Welt befindet sich im Umbruch - und vor allem Unternehmen mit KI-Applikationen können und werden davon profitieren. (fm)