Erfolgreich im Datenzeitalter - mit neuen Maßstäben bei Leistung, Flexibilität und Skalierbarkeit

Künstliche Intelligenz, Advanced Analytics, Cloud Computing und neue Storage-Technologien helfen Unternehmen bei der Problemlösung, Entscheidungsfindung und Skalierung. Erfahren Sie hier, wie Sie mit moderner, effizienter IT-Infrastruktur im Zeitalter der Daten erfolgreich sein können.

RZ-Technologie

KI wird zum Gamechanger

26.11.2022
RZ-Automatisierung ist nichts Neues. Inzwischen aber erobern immer mehr KI-Tools den RZ-Betrieb und schaffen damit ungeahnte Optimierungs-Möglichkeiten.
KI dringt in immer mehr Bereiche vor. Die IT-Operations sind da keine Ausnahme mehr.
KI dringt in immer mehr Bereiche vor. Die IT-Operations sind da keine Ausnahme mehr.
Foto: Gorodenkoff - shutterstock.com

Künstliche Intelligenz (KI) hat das Rechenzentrum erreicht, denn deren Komplexität steigt so rasant an, dass es oftmals kaum noch manuell gemanagt werden kann. "Wir sehen ein deutliches Wachstum von KI-basierten RZ-Automatisierungen", sagt Paul Bevan, Analyst bei Bloor Research. "Die CIOs, die das ignorieren, werden schon bald abgehängt sein", so Bevan weiter.

KI wird inzwischen schon für viele Zwecke in Rechenzentren eingesetzt. So gibt es Algorithmen für die Kapazitätsplanung mit Blick auf den Strombedarf und die erforderlichen IT-Ressourcen. Andere Bereiche sind Fehler- und Anomalie-Erkennung, Ursachenanalysen und Ausfallvorhersagen. Durch die Verwendung von Internet-of-Things-Geräten und den entsprechenden KI-Analysen von den gesammelten Daten können viele Leistungsprobleme proaktiv angegangen werden.

Dabei ist die Nutzung von Algorithmen im RZ-Betrieb nicht neu. Beispielsweise gibt es automatische Backup-Appliances, prädefinierte Konfigurations- und Deployment-Funktionen schon recht lange.Was die neuen KI-Tools von diesen althergebrachten Automatisierungs-Einrichtungen unterscheidet, ist die Fähigkeit, auf Grundlage vieler verschiedener Faktoren zu "lernen" und sich anzupassen und auf diese Art die RZ-Administration zu vereinfachen und dessen Zuverlässigkeit deutlich zu erhöhen.

Erster Schritt: Datenakquisition

Ein wichtiges Hilfsmittel zur Steigerung der RZ-Zuverlässigkeit ist das detaillierte Monitoring aller Leistungsdaten der eingesetzten Hardware. Diese sogenannte Hardware-Telemetrie erlaubt eine Analyse einzelner, dedizierter Komponenten in Fast-Echtzeit. Das wichtigste Einsatzgebiet dieser Telemetrie ist das Erkennen von Überlastungen bei Servern oder einzelner Bauteile. Die Ursachen dafür können Gerätefehler sein; doch zumeist sind es Lastspitzen durch eine unzweckmäßige Workload-Verteilung. Das führt dann zu Ressourcenkonflikten, hoher Temperatur der Prozessoren und ähnlichen Problemen. Je größer ein Rechenzentrum ist, desto wahrscheinlicher ist es, dass solche Performance-Einbrüche sehr häufig auftreten.

Das Auslesen von Hardware-Leistungsdaten ermöglicht es, diese Probleme schnell zu erkennen, einzugrenzen und stockende Prozesse wieder zum Laufen zu bringen. Zudem lassen sich solche Telemetriedaten auch für die Feinabstimmung des Prozess-Managements einsetzen, denn die ermittelten Messwerte können über einen längeren Zeitraum mit der Verteilung der Workloads korreliert werden, sodass dann vorausschauende Maßnahmen zur Vermeidung von Performance-Engpässe implementiert werden können.

Die Hardware ist entscheidend

Für diese Telemetrie müssen die Systemkomponenten entsprechende Einrichtungen zur Generierung der erforderlichen Messwerte aufweisen. So verfügen etwa die skalierbaren Intel® Xeon™ Prozessoren über entsprechende Performance Monitoring Units, die Taktfrequenzen, Cache-Nutzung und ähnliche Parameter überwachen. Den Einstieg in die Telemetrie ermöglicht der Intel Telemetry Collector (ITC), der die wichtigsten Messwerte zum Energieverbrauch, Speichereinsatz oder zur Ressourcenauslastung bereitstellt. Für eine effizientere Nutzung der Telemetriedaten, insbesondere bei größeren Serverkonstellationen, empfiehlt sich jedoch die Einrichtung eines eigenen skalierbaren Software-Stacks, der die Daten über alle eingesetzten Cluster hinweg sammeln, speichern, kategorisieren und auswerten kann. Ein entsprechender Ausbau unter Einsatz von KI ermöglicht dann vorausschauende Maßnahmen und eine automatische Orchestrierung.

Das Datacenter of the Future ist schon konzipiert

Intel hat soeben seine Roadmap für die Nutzung von KI im Rechenzentrum veröffentlicht. Eine wichtige Säule darin ist der skalierbare Intel® Xeon® Prozessoren der 4. Generation, der ab Herbst 2022 verfügbar sein soll. Dabei handelt es sich um den funktionsreichsten Xeon-Prozessor mit einer bis zu 30-fachen Leistungssteigerung bei allen KI-Anwendungen.

Außerdem hat Intel bereits eine Vision für das Rechenzentrum der Zukunft (DCoF) entwickelt. Dazu gehört Intelligent Fabric, ein neuartiges Ethernet-Konnektivitäts-Framework, das darauf abzielt, alle Rechenzentren von der Cloud bis zur Edge zu verbessern und die Konnektivität für Cloud-native und Remote-Anwendungen zu optimieren. Es vereint eine umfassende Palette von verschiedenen Konnektivitäts- und Netzwerk- und Chip-Technologien unter der Intel Infrastructure Processing Unit (Intel IPUs) zur Bereitstellung von Intelligenz, Leistung, Skalierbarkeit und Managebarkeit.

Alles über Intels RZ-Automatisierung erfahren Sie hier