Insider-Portal

Das Insider Portal: Für alle, bei denen die Umsetzung mehr zählt als die Theorie: Mit echten Fallbeispielen und Erfahrungsberichten zu den aktuellsten IT-Themen
Intel Inside®. Leistungsstarke Cloud-Services Outside.
Dell Lösungen powered by Intel®

Projekte aus der Praxis

Cloud Computing: Spannende Zukunftsaussichten

Thomas Fischer schreibt seit über 20 Jahren für unterschiedliche namhafte PC-Zeitschriften über IT-Themen sowie Business-Software, war beteiligt an der Entwicklung von Konzepten neuer IT-Magazine und arbeite mehrere Jahre in einem Verlag im Bereich Corporate Publishing. Sein Slogan ist: Technik einfach erklärt..
Um Rechenzentren jetzt und zukünftig rentabel und konkurrenzfähig zu betreiben, realisieren nicht nur die Hoster innovative Projekte. Auch die Forschungsabteilungen der IT-Konzerne und die Hersteller von IT-Komponenten tragen mit neuen Entwicklungen dazu bei, Cloud Computing effizienter und schlanker zu machen.

Die wachsende Digitalisierung in Unternehmen lässt zugleich die Anforderungen an ein modernes Rechenzentrum und die Cloud-Infrastruktur steigen. Eine Umfrage des Verbandes Bitkom zu den Top-Themen des deutschen IT-Mittelstands ergab für das Jahr 2015, dass für 67 Prozent der vom Verband befragten mittelständischen ITK-Unternehmen Cloud Computing zu den maßgeblichen Technologie- und Markttrends im deutschen Markt zählt. Das sind 20 Prozent mehr als im Jahr zuvor.

»
Infografik: Cloud Computing wird zum Topthema im deutschen IT-Mittelstand | Statista

Um im Markt der Cloud-Hoster und Hersteller von Hard- und Software für Server-Strukturen wettbewerbsfähig zu bleiben, sind innovative Ideen gefragt.

Freie Fahrt auf dem digitalen Daten-Highway

Am 12. Oktober 2015 startete beispielsweise die praktische Umsetzung solch einer Idee. Finnland und Deutschland sollten mit einem Glasfaserkabel verbunden werden, das die digitale Datenwelt zwischen Ost- und Westeuropa enger miteinander verknüpft. Das Projekt ist aus einer Initiative der finnischen Regierung und der EU entstanden. Damit wurde eine bessere - also sicherere und flottere - Verbindung wichtiger Datacenter zwischen Mittel- und Nordeuropa hergestellt. Finnland ist zudem ein wichtiger Knotenpunkt im Datenverkehr zwischen West- und Osteuropa.

Das 1.172 Kilometer lange Kabel wurde zwischen Helsinki und Rostock durch die Ostsee verlegt. Die günstigen Witterungsbedingungen trugen dazu bei, dass die Verlegung des Kabels nach nur drei Monaten erfolgreich abgeschlossen werden konnten. Das Kabel selbst besteht aus acht Glasfaser-Paaren und erreicht eine Bandbreite von 15 Terabit pro Sekunde. Gleichzeitig hat es eine nur sehr geringe Latenz von rund 10 Millisekunden. Vor allem Betreiber von Datacentern sowie Unternehmen mit intensiven Datenaufkommen profitieren von dieser Technik.

So beteiligte sich die Hetzner Online GmbH als Co-Investor an diesem Projekt. Das Unternehmen plant zeitnah einen weiteren Datacenter-Park für Cloud Computing in der Nähe von Helsinki zu errichten. Die Hightech-Glasfaseranbindung spielt dabei sicherlich eine große Rolle. Zudem sind die Energiekosten in Finnland wesentlich günstiger als etwa in Deutschland. Unter dem Kostenaspekt betrachtet käme zwar auch Frankreich in Frage, aber hier wird der Strom hauptsächlich in Atomkraftwerken erzeugt. Finnland ist zwar nicht komplett frei von Atomstrom, nutzt aber zur Stromerzeugung einen größeren Anteil an Wasserkraft und erneuerbarer Energie. Hinzu kommt, dass sich die klimatischen Bedingungen mit niedrigeren örtlichen Temperaturen für die Kühlung der Server positiv nutzen lassen. Letztendlich spielen bei der Standortwahl auch Datensicherheitsrichtlinien für europäische Unternehmen eine Rolle. Denn Finnland ist Teil der europäischen Gemeinschaft und somit bleiben die Daten eines dort befindlichen Datacenters innerhalb der europäischen Grenzen.

Datencenter am Meeresgrund

Einen komplett anderen Ansatz für die Bereitstellung und den Betrieb von Datacentern für das Cloud Computing verfolgt ein Microsoft-Projekt, das den Namen "Natick" trägt. Microsofts Idee berücksichtigt dabei die Bevölkerungsverteilung in den USA: "50 Prozent von uns leben in der Nähe der Küste. Warum nicht auch unsere Daten?" Auch wenn sich daraus nicht erschließt, welche Entfernung für Microsoft "Nähe" bedeutet, spricht viel für den Erfolg von Natick. Worum geht es also?

Ein Microsoft White Paper beschreibt die Vorteile eines Datacenters, das sich unter Wasser auf dem Meeresgrund befindet. Als Norman Whitaker aus der Microsoft-Führungsetage Anfang des Jahres 2013 den Inhalt des White Papers las, war er von der Idee so beeindruckt, dass er umgehend ein Team mit der Untersuchung zur Realisierung beauftragte. Eineinhalb Jahre später, im August 2014, gab Microsoft grünes Licht für das Projekt Natick, ein Jahr danach war es dann soweit: Der Prototyp des Datencenters wurde auf den Namen "Leona Philpot" getauft und anschließend vor der Küste Kaliforniens versenkt.

Microsoft versenkt den Prototyp eines Datacenters für erste Tests vor der kalifornischen Küste im Meer.
Microsoft versenkt den Prototyp eines Datacenters für erste Tests vor der kalifornischen Küste im Meer.
Foto: Microsoft

Nach einer Reihe umfangreicher Test wurde der Prototyp im Dezember 2015 wieder an die Oberfläche geholt und für Analysen sowie Instandhaltungsarbeiten nach Redmond gebracht.

Das Datacenter ist komplett auf Basis umweltfreundlicher Materialien aufgebaut. Derzeit sind Wartungszyklen von fünf Jahren geplant. Angestrebt wird eine Gesamtlebensdauer von mindestens 20 Jahren. Danach ist ein vollständiges Recycling möglich. Für den Betrieb, zur Kühlung oder für irgendwelche andere Zwecke wird kein Meerwasser genutzt. Die Platzierung im Meer erfolgte so, dass keine Schäden an der Umwelt verursacht wurden. Die Energieversorgung des Prototyps erfolgte über das örtliche Stromnetz, in Zukunft sind aber andere Quellen geplant, etwa Offshore-Windkraft-, Solar- oder Gezeitenkraftwerke. Die Verbindung zum Internet erfolgte hier per Kabel, das ans Land führte und dort mit dem Internet verbunden wurde. Zukünftig ist geplant, Unterwasser-Datacenter direkt mit den Unterseekabeln des Internets zu verbinden. Derzeit ist Natick noch ein Forschungsprojekt - ob und wann Natick massentauglich sein wird, hängt davon ab, wie Microsoft und andere Cloud-Provider das Konzept annehmen werden.

Intel® Xeon® Prozessoren- für schnelles und effizientes Cloud Computing

Die Verlustleistung von Prozessoren bei gleichbleibender oder verbesserter Rechenleistung zu reduzieren, stellt für Entwicklungsingenieure immer wieder eine Herausforderung dar. Intel präsentierte Mitte Februar 2016 mit seinen Server-CPUs der Intel® Xeon® Prozessor D-1570 Produkt-Familie wieder solch einen Fortschritt. So wurde die Anzahl der CPU-Kerne auf 16 verdoppelt und der L3-Cache hat jetzt eine Kapazität von 24 MByte. Der Intel® Xeon® Prozessor D-1571 und der Intel® Xeon® Prozessor D-1577 werden mit 1,3 GHz getaktet und haben hier eine Verlustleistung von 45 Watt. Der jeweils maximale Turbo-Takt der beiden CPUs beträgt 2,1 GHz. Sie unterstützen zudem DDR3 und DDR4 RAM mit einer maximalen Kapazität von 128 GByte.

Foto: Intel

Für Hersteller von Server-Hardware sowie für Betreiber von Rechenzentren dürften die Modelle der Intel® Xeon® Prozessor D-1570 Produkt-Familie nicht nur unter Performance-Aspekten interessant sein. Denn die vergleichsweise geringe Verlustleistung bedeutet auf Dauer eine nicht zu unterschätzende Energieersparnis. Die Intel® Xeon® Prozessoren, die bislang in bestehenden Servern zum Einsatz kommen, weisen eine Verlustleistung von mehr als 100 Watt auf.

Endgeräte für Cloud-Anwendungen

Das Speichern und Auswerten der Daten für das Internet der Dinge oder für Produktionsanlagen in Industrie-4.0-Strukturen erfordert nicht nur leistungsstarke Cloud-Lösungen und Analysetools, sondern auch robuste Endgeräte. Hierfür hat Dell im Februar 2016 passende Industrie-PC-Lösungen gezeigt. Dabei handelte es sich um Embedded-Box-PCs. Der Vorteil dieser Geräte liegt unter anderem darin, dass sie den Unternehmen kurze Vorlaufzeiten für ihre Produkte ermöglichen. Zudem haben sie einen Lebenszyklus der Enterprise-Klasse. Für die meisten Unternehmen ist außerdem ein umfassender Support wichtig, den Dell zur Verfügung stellt.

Die Geräte benötigen keinen Lüfter. Daher eignen Sie sich sehr gut für Einsatz-Umgebungen, in denen wenig oder kein Lärm verursacht werden soll. Die PCs lassen sich je nach Anforderung mit oder ohne Tastatur, Maus und Monitor verwenden. Des Weiteren stehen umfangreiche kabelgebundene sowie drahtlose Input-Output-Optionen zur Verfügung.

Die Embedded-Box-PCs der 3000er-Serie sind mit Intel® Atom™ Prozessoren ausgestattet und eignen sich vor allem für Anwendungen mit wenig Platz, etwa für Kioske, Verkaufsautomaten oder Fahrzeuge. Die 5000er-Serie dagegen ist für hohe Leistung und Input-Output-Skalierbarkeit optimiert. Hier kommen Intel® Atom™ Prozessoren zum Einsatz. Zudem verfügen diese PCs über zwei PCI-/PCIe-Steckplätze. Ihre hohe Bandbreite spezialisiert sie für Industrie-PC- und IoT-Anwendungsfälle, etwa in der Fertigung und bei der Automatisierungssteuerung.

Dell Embedded Box PC 5000.
Dell Embedded Box PC 5000.
Foto: Dell

Fazit

Ob Forschung, Infrastrukturausbau oder Neuankündigungen im Bereich Cloud Computing - die hier vorgestellten Projekte sind nur ein Auszug von vielen spannenden aktuellen Entwicklungen. Denn Cloud-Strukturen werden für fast jedes Unternehmen zukunftsbestimmend sein. Dafür sind schnelle und stabile Verbindungen mit geringer Latenz nötig, wie sie etwa das durch die Ostsee verlegte Glasfaserkabel bereitstellt, das Datencenter in Mittel-, Nord- und Osteuropa verknüpft.

Aber auch ganz neue Wege und Ansätze, wie sie Microsoft mit seinem Natick-Projekt verfolgt, sind für die Zukunft des Cloud Computing wichtig. Wer weiß heute schon, wie die Datacenter von morgen aussehen? Vielleicht arbeiten diese irgendwo tief unter dem Meeresspiegel, gespeist mit umweltfreundlich erzeugter Energie und bestückt mit energiesparenden und leistungsfähigen Intel® Xeon® Prozessoren.

Letztendlich braucht es in einer perfekten Cloud-Struktur die passenden Endgeräte. Trends wie das Internet der Dinge und Industrie 4.0 erzeugen riesige Datenmengen, die gefiltert und zur Verarbeitung oder Big Data Analyse in die Cloud geschickt werden. Hier liefert beispielsweise Dell mit seinen Endgeräten und seinem Knowhow die Mittel für effizientes Cloud Computing.

Weiterführende Links