Kurzeinführung zu OpenStack

OpenStack - Was ist das?

Tim Serewicz unterrichtet Systemadministratoren und lehrt die neuesten Technologien des sich ständig weiterentwickelnden und wachsenden Linux-Ökosystems. Er arbeitete unter anderem als Coach bei IBM, Sun Microsystems, Oracle und Red Hat. Momentan unterrichtet er Kurse in OpenStack sowie Linux Performance und Tuning für das Trainingsprogramm der Linux Foundation.
OpenStack ist ein Verbund an Services, der oft als ,die Cloud’ beschrieben wird, und der über mehrere Knoten verteilt als IT-Infrastruktur auf Basis von Standard-Hardware fungiert. Was genauer dahinter steckt, lesen Sie in diesem Artikel.

Die Umsetzung von Cloud Computing ermöglicht eine große Entwicklergemeinde und das Engagement großer Technologieunternehmen. Um genau zu sein, bedeutet aber der Zugriff auf eine Anwendung über ein Netzwerk nicht zwangsläufig, dass die Cloud im Spiel ist. Wir setzen auf die Cloud, um große Teile von Datenzentren zu virtualisieren. Durch den Einsatz von OpenStack erhöhen wir die Flexibilität, senken die Kosten und ermöglichen der IT-Abteilung mit der Geschwindigkeit heutiger Geschäftsabläufe Schritt zu halten.

OpenStack ist vielleicht nicht die Antwort auf alle Anforderung einer dynamischen IT-Abteilung. Aber es kann die erforderlich Flexibilität und Skalierbarkeit liefern und gleichzeitig die Anforderungen an Personal und physische Ressourcen minimieren.
OpenStack ist vielleicht nicht die Antwort auf alle Anforderung einer dynamischen IT-Abteilung. Aber es kann die erforderlich Flexibilität und Skalierbarkeit liefern und gleichzeitig die Anforderungen an Personal und physische Ressourcen minimieren.
Foto: OpenStack

Will man seine IT-Infrastruktur anpassen, um die Vorteile von Cloud Computing zu nutzen, ergeben sich daraus natürlich auch Kosten und die ein oder andere Herausforderung. Aber die Investitionsrentabilität ist auch immer Teil einer klugen Strategie. Je dynamischer sich die Anforderungen an die IT gestalten, desto eher kann sie von einer Virtualisierung des Datenzentrums profitieren. Schnelle Bereitstellung, Umgruppierung und Anpassung machen Cloud Computing für große und kleine Unternehmen über komplette Projektlebenszyklen hinweg zu einer lohnenden Investition.

Infrastructure-as-a-Service (IaaS)

Die Bereitstellung von Datenzentren als Service ermöglicht mehr Flexibilität und Anpassungsmöglichkeiten. Herkömmliche Konfigurationen in Datenzentren werden mit der Zeit sehr komplex, wenn funktionsspezifische Systeme erweitert sowie Netzwerkkonfigurationen geändert werden oder die Hard- und Softwareanbieter ihre Support-Matrix ändern. Um bei diesen konstanten Veränderungen den Überblick zu behalten, müssen die IT-Führungskräfte viel Zeit aufwenden, um die jeweils aktuellen IT-Konfigurationen zu verstehen und bei Eingriffen keine Probleme zu verursachen. Das kostet Zeit und Mühe, die besser in den Entwurf von Best Practices und Entscheidungen zur Gesamtstruktur investiert wären.
OpenStack ermöglicht den IT-Kräften ein einmaliges Anschließen bei mehrfachem Verwerten. Die Konfiguration von Speicherplatz, Netzwerk und anderen Ressourcen wird zentral verwaltet, was Zeit beim Erfassen des physischen Umgebungsaufbaus einspart.

Dank Compute Engines (Nova), Software Defined Networking (Neutron), verteiltem Speicher (Ceph) und anderen OpenStack-Services muss die physische Vernetzung der Infrastruktur nur einmal erfolgen, während die Konfiguration und Neukonfiguration auf der Software-Ebene erfolgt. Vorbei sind die Zeiten, in denen ganze Flure aufgerissen werden mussten, um herauszufinden, wie das Netzwerk vor Jahren konfiguriert und irgendwann einmal - womöglich ohne Ankündigung und ordentliche Dokumention - modifiziert wurde. Neue Geräte können der Umgebung dynamisch hinzugefügt werden, während bestehende Hardware dank der verschiedenen Virtualisierungsebenen mit minimalem Aufwand ausgetauscht werden kann.

Virtualisierung

Die Trennung von Stack-Ebenen mit einfach zu konfigurierender Software, oder auch Virtualisierung, ist zentral für den Gebrauch der Cloud. Virtualisierung erlaubt den Betrieb mehrerer Instanzen eines Betriebssystems auf der selben Hardware-Einheit. Das gleiche Konzept wird auf den Zugang zu Netzwerk und Speicher angewandt. Jeder wichtige Baustein eines Computers wird über eine komplexe Struktur an Konfigurationen und APIs referenziert, wodurch es möglich wird, einzelne Ebenen flexibel zu ändern, ohne die gesamte Umgebung neu konfigurieren oder Hardware und Kabel physisch bewegen zu müssen.

Virtualisierung hat selbstverständlich seinen Preis. Software wie Hardware muss so entwickelt werden, dass sie virtualisierungsfähig sind. Layering beeinflusst die Systemleistung und erfordert mehr Ressourcen, um dem Anwender ein identisches Service-Niveau zu bieten. Anstelle von spezialisierten Geräten kann man aber kleinere Standard-Hardware einsetzen und den Vorteil von virtueller Skalierung für eine verbesserte Wirtschaftlichkeit nutzen.

IT-Ressourcen auf Tempo gebracht

Das Tempo in der Geschäftswelt nimmt nicht ab, was IT-Abteilung vor besondere Herausforderungen stellt. Herkömmliche Systemumgebungen sind von langen Bereitstellungszyklen geprägt, angefangen beim Ankauf bestimmter Systeme, über die Integration in die physische Umgebung, bis hin zur kontinuierlichen Wartung und Instandsetzung. Die gleichmäßige Auslastung kann sich als schwierig erweisen, was zu Systemen mit geringer Nutzung führt. Der virtualisierte Zugriff auf eine dynamische Infrastruktur hingegen vereinfacht die Bereitstellung und Anpassung von Ressourcen und beseitigt auch die Abhängigkeit von einem bestimmten Anbieter für die Instandhaltung oder Erweiterung einer Systemumgebung. Darüber hinaus führt der Wegfall der Anbieterbindung häufig zu einem besseren Service und Kostensenkungen.

Skalierung zur Bedarfsdeckung

Technologie bedarf im Lauf der Zeit regelmäßiger Anpassungen und erfordert dann häufig mehr Ressourcen, als während der Anschaffungsphase eingeplant wurde, die nicht selten Monate oder Jahre vor dem eigentlichen Projektbeginn liegt. Der Einsatz von verteilten Services und mehreren unabhängigen Schedulern in Cloud-Software erlaubt eine dynamische Erweiterung von Ressourcen.

Ein kleines Start-up mit 20 Knoten kann buchstäblich so schnell wachsen, wie es technische Ausrüstung hinzukaufen kann, vorausgesetzt, es hat von Anfang an auf Cloud-Nutzung gesetzt. Traditionell konnten die technischen Anforderungen bereits das vorzeitige Aus für ein bestimmtes Projekt bedeuten. Mit der Verwendung von Public Clouds können Ressourcen mit wesentlich weniger Kosten bereitgestellt werden. Falls das neue Geschäftsmodell nicht erfolgreich ist, können die Ressourcen ohne Folgekosten, Wartungsaufwand oder Speicherbedarf wieder freigegeben werden.

Unternehmen aller Größen stehen außerdem im Wettbewerb um qualifizierte Arbeitskräfte. Cloud-Infrastrukturen reduzieren die Komplexität laufender Prozesse erheblich und erfordern immer das selbe Niveau an Fertigkeiten, egal ob es sich nur um einige wenige oder Tausende von Knoten handelt. Die Vielzahl an Cloud-orientierten Anbietern hat zu einer großen Menge an gut ausgebildeten Arbeitskräften geführt, so dass sich Unternehmen nur noch die besten heraussuchen müssen.

Public-Private Clouds

Kapazitätsplanung und Disaster Recovery können beim Management für schlaflose Nächte sorgen. Traditionelle Umgebungen müssen für die maximal zu erwartende Auslastung ausgelegt sein, die aber vielleicht nur an einigen Tagen des Jahres tatsächlich vorliegt. Ein Wasserrohrbruch kann zum Verlust von Produktionsanlagen führen und den gesamten Betrieb lahmlegen.

Um für das Unbekannte gewappnet zu sein, kann eine Private Cloud so konfiguriert werden, dass sie im Bedarfsfall Ressourcen einer Public Cloud verwendet. Sollten Kundenanfragen zu einem unvorhergesehenen Zeitpunkt ausschlagen, werden innerhalb kürzester Zeit zusätzliche Ressourcen hinzugeschaltet. Für planbare Hochlastphasen, wie beispielsweise Quartalsabschlüsse oder das Feiertagsgeschäft, werden nur im tatsächlichen Bedarfsfall zusätzliche Ressourcen freigegeben. Sollte der Betrieb von einer Naturkatastrophe oder einer Havarie betroffen sein, können alle geschäftsrelevanten Anwendungen dank weltweiter Ressourcen in Public Clouds wiederhergestellt werden.

Zusammenfassung

OpenStack ist zu einer unerlässlichen Option bei der Einrichtung, Konfiguration und Verwaltung von Datenzentren geworden. Die breite Verfügbarkeit an Entwicklern und Anwendern sowie die große Auswahl an Anbietern haben dafür gesorgt, dass es aus kleinen wie großen Datenzentren nicht mehr wegzudenken ist. (bw)