Blade-Server, Virtualisierung und IT-Kosten

Die wichtigsten Server-Trends für IT-Manager

27.01.2009
Von 
Bernhard Haluschak war bis Anfang 2019 Redakteur bei der IDG Business Media GmbH. Der Dipl. Ing. FH der Elektrotechnik / Informationsverarbeitung blickt auf langjährige Erfahrungen im Server-, Storage- und Netzwerk-Umfeld und im Bereich neuer Technologien zurück. Vor seiner Fachredakteurslaufbahn arbeitete er in Entwicklungslabors, in der Qualitätssicherung sowie als Laboringenieur in namhaften Unternehmen.

Ausblick 2009, Fortsetzung

Jörg Dehnen, IBM: Wir sehen anhaltenden Trend in Richtung Miniaturisierung der Komponenten und Optionen zum Wohle verbesserter Density und Energieeffizienz, mehr Cores bei den Prozessoren, höhere Performance im SAN und Netzwerk. Und wir sehen eine Umschichtung der Server-Segmente zugunsten x86-High-End-Server und Blades. Außerdem werden die Themenbereiche Konsolidierung und Virtualisierung uns weiterhin mit neuen Lösungen beschäftigen.

Ingo Frobenius, Sun Microsystems: Die Technologien werden sich im Server-Bereich in mehrere Richtungen weiterentwickeln:

  • Multicore-CPUs sind heute bereits Standard. Hier geht der Trend dahin, noch mehr Threads auf einem Kern zu realisieren. Die Herausforderung besteht immer darin, die CPU auch noch schnell genug mit Daten zu versorgen. Eine Steigerung der Taktrate ist nicht mehr zu erwarten, da mit 5 Gigahertz bereits physikalische Grenzen angekratzt werden. So ist bei 5 GHz eine Taktperiode nur noch 0,2 Nanosekunden lang. Das heißt, dass innerhalb der CPU auf der Taktleitung 0,1 ns eine logische „1“ steht und 0,1 ns eine logische „0“. In 0,1 ns legt das Licht aber nur noch drei Zentimeter zurück, der elektrische Strom etwa 1,5 cm – das ist in etwa die Diagonale eines heutigen CPU-Chips inklusive der Onchip-Caches. Eine Taktratensteigerung ließe sich nur noch durch eine Verkleinerung des Chips erreichen. Die Entwicklung geht hier in Richtung der asynchronen Prozessoren – Architekturen, bei denen kein zentraler Takt mehr die Verarbeitungszyklen angibt. Die Architekturen sind aber schwieriger zu verstehen und zu gestalten. Als erster kommerzieller Prozessor mit asynchronem Design gilt heute der ARM996HS. Weitere Entwicklungen in diesem Bereich werden sicher folgen.

  • Multi-Threads werden ebenfalls vermehrt auftauchen, zwei Threads pro Prozessorkern sind heute vielfach schon realisiert. Sun bietet bereits CPUs mit 4 beziehungsweise 8 Threads pro Core an.

  • Im Bereich Stromspartechnologien versucht man durch gezieltes Abschalten von CPU-Teilen den Stromverbrauch der CPU zu senken. Während ein Prozessor auf den Hauptspeicher wartet, kann er ja nicht besonders viel tun. Während dieser Latenzzeiten könnte man CPU-Elemente, die nicht benötigt werden, deaktivieren. Hier ist aber auch sicherzustellen, dass eine Aktivierung solcher stillgelegten Regionen nicht zu lang dauert.

  • Mit den hohen Taktraten der Prozessoren gibt es große Bestrebungen, die Cache-Technologien zu verbessern. Heutige Caches nutzen eine statische Architektur mit 4 Transistoren pro Speicherzelle. Hohe Geschwindigkeit geht dabei zulasten des Platzes. Viel schöner wäre ein Cache-Speicher mit einem ähnlichen Aufbau wie dynamisches RAM – dort ist eine Speicherzelle mit nur einem Transistor realisierbar, was zulasten der Zugriffszeit geht. Es gibt Forschungen, um Cache-Speicher mit nur einem Transistor zu realisieren. Nur in diesem Fall kann man die hohen Taktungen der Prozessoren noch weiter ausreizen, da größere Caches machbar wären.

  • Für hochparallele Floatingpoint-Routinen wird es zukünftig wieder Coprozessoren geben. Die treibende Kraft kommt hier aus dem Bereich der Grafikprozessoren. Die Hersteller von Grafikprozessoren realisieren mittlerweile auf ihren Chips extrem viele Microcores, die alle parallel Fließkommaroutinen ausführen können. So stellt zum Beispiel Nvidia Grafikprozessoren her, die über ein CUDA-Interface für hochparallele Fließkommaoperationen vom eigentlichen Prozessor aus angesprochen werden. Dabei liegt der Schwerpunkt auf SIMD-Anweisungen, da die „Intelligenz“ der Fließkommaelemente beschränkt ist.

  • Im Bereich des Hauptspeichers gibt es bei den Servern heute einerseits Handlungsbedarf in Richtung Kapazität. 8 GB pro DIMM sind heute üblich, 16 GByte ist der nächste Schritt. Andererseits in Richtung Bandbreite, und drittens hin zur Reduktion des Stromverbrauchs. Heute sind bereits sogenannte Low-Power-DIMMs erhältlich. Die Herausforderung für den Server-Entwickler liegt hier wieder in der Störanfälligkeit. Geringere Signalstärken auf Platinenleitungen machen das System auch anfälliger gegenüber Störsignalen von außen. Die Kunst liegt darin, die richtige Balance zu finden.

Die Firma Sun selbst forscht auch weiter. Die Proximity-Communication ist nur ein Beispiel für neue Technologien, die heute in unseren Laboren entwickelt werden. Relevant für neue Server-Prozessoren ist aber auch immer die Software. Hier sind die Prozessor- und Server-Entwickler ebenso wie die Hersteller von Entwicklungs-Software dazu angehalten, den Anwendern auch Technologien zur Verfügung zu stellen, die eine Ausnutzung der Parallelität in Systemen vereinfachen. Zukünftige Prozessoren werden vereinfachte Technologien für die Synchronisation von parallelen Prozessoren bereitstellen müssen. Schon seit Dijkstras Semaphor-Prinzip wünschen sich Entwickler zum Beispiel einen transaktionsorientierten Speicher, um das lästige Semaphor-Handling zu vereinfachen. Solche Technologien sind zukünftig in Prozessoren zu realisieren, damit die Geschwindigkeit und Parallelität in kommenden Server-Generationen auch ausgenutzt werden können.

Thomas Krenn, Thomas Krenn AG: Virtualisierung wird weiterhin das tonangebende Thema sein. Vor allem in großen Unternehmen ist Virtualisierung zwar schon heute im Einsatz. Es gibt aber nach wie vor eine sehr große Anzahl an Servern ohne Virtualisierung. Wenn diese in den nächsten Jahren schrittweise ersetzt werden, wird das neue Server-System meistens virtualisiert sein. Der Trend heißt hier: höhere Effizienz – niedrigere Betriebskosten. (hal)

Dieser Artikel basiert auf einem Beitrag von TecChannel.de