Service-Qualität in der Cloud

Lernende Algorithmen im Rechenzentrum

31.01.2019
Von 


Als CEO von gridscale verantwortet Henrik Hasenkamp die Strategie und Ausrichtung des Infrastructure- und Platform-as-a-Service-Anbieters, der mit seiner innovativen Technologie die Basis für anspruchsvolle Cloud-Lösungen schafft. Mit gridscale ebnet der Diplom-Wirtschaftsinformatiker mittelständischen Unternehmen den Weg in ein neues Zeitalter der IT-Skalierung und bietet ihnen eine IaaS- und PaaS-Lösung, die Qualität, Transparenz und leichte Anwendbarkeit zu ihren Markenzeichen gemacht hat.  

 

IT-Maintenance als mehrstufiges System

In der Praxis ist ein mehrstufiges hierarchisches Modell sinnvoll, das im Notfall warnt, aber eben auch datenbasiert vorausschaut. Die oberste Stufe eines solchen Systems deckt extreme Situationen ab, etwa wie bei einem herkömmlichen Monitoring. Sticht ein Wert aus den erfassten Daten so heraus, dass sofort eingegriffen werden muss? Wenn beispielsweise der Datenstrom von oder zu einer Datenbank abgebrochen ist, gibt es genügend Gründe zu der Annahme, dass hier ein Problem vorliegt. Gegenmaßnahmen sollten sofort und möglichst automatisiert angestoßen werden.

Kern eines intelligenten Systems ist Hierarchiestufe 2. Auf der Basis der zuvor definierten Features und Werte-Korridore sowie der gelernten Zusammenhänge zwischen den Daten entwickelt sich ein System, welches vorausschauend arbeitet. Devices werden gewartet oder getauscht, kurz bevor sie kaputt gehen, in einem Zeitfenster, welches perfekt in den laufenden Betrieb eingetaktet ist. In diesem Ansatz der Predictive Maintenance steckt viel Optimierungspotential, eben genau weil die Abhängigkeiten untereinander und die gegenseitigen Beeinflussungen berücksichtigt werden.

Lesetipp: Predictive Maintenance in der Verpackungsindustrie

Im Praxis-Einsatz beginnt sich darüber hinaus eine Stufe 3 zu entwickeln. Aufsetzend auf dem optimierten Betrieb der Cloud-Infrastruktur sind Cloud-Anbieter nun in der Lage proaktive Services aufzusetzen. So könnten zusätzlich benötigte Ressourcen beispielsweise genau dann automatisch skaliert werden, wenn sie benötigt werden und nicht erst dann, wenn ein Engpass bereits entstanden ist. Der Algorithmus kann dann berechnen, welche Umlagerung für welchen Workload in Frage kommt – unter Berücksichtigung von Risiken und Aufwand. Oder aber der Dienstleister kann hinsichtlich der Infrastruktur-Dimensionen beraten, wenn anhand der Telemetrie-Daten deutlich wird, dass Datenbank und Speicher dauerhaft an ihrer Leistungsgrenze arbeiten.

Künstliche Intelligenz mag noch in den Kinderschuhen stecken. Doch schon jetzt eröffnen die Analyse und Interpretation von Daten neue Möglichkeiten, die, wenn sie mit einem lernenden Algorithmus überdacht werden, weit über das herkömmliche Monitoring hinaus gehen. Doch erst wenn solche Systeme in der Lage sind, weitgehend automatisiert Entscheidungen zu treffen, können sie sinnvoll zum Einsatz kommen und die Servicequalität in der Cloud erhöhen.