IT-Infrastrukturen auf dem Prüfstand

Datacenter im Wandel - IT-Herausforderungen 2018

21.03.2018 von Bernhard Haluschak
Cloud, IoT und Digitalisierung sind die Themen, die die IT-Welt in Aufruhr bringen. In diesem Kontext erläutern namhafte IT-Experten, mit welchen Herausforderungen sich IT-Fachleute im Bereich Datacenter-Technologien zwingend beschäftigen müssen.
Datacenter müssen schon heute die technologischen Weichen für zukünftige IT-Herausforderungen stellen.
Foto: Timofeev Vladimir - shutterstock.com

Aktuell unterliegen IT-Abteilungen einen Wandel, wie nie zuvor. Der Digitalisierungszwang von Unternehmen in Verbindung mit neuen Technologien wie Internet of Things (IoT), Big Data oder künstliche Intelligenz (KI) zwingen IT-Verantwortlich ihre herkömmliche IT-Infrastruktur zu überdenken und gegebenenfalls massiv zu verändern. Dieser oft disruptive Ansatz kann die komplette IT-Landschaft eines Unternehmens verändern. So lösen sich die IT-Abteilungen von dem Hardware-basierten Konzept und nutzen verstärkt flexible Cloud-Lösungen, um ihre IT-Infrastrukturen auf die zukünftigen Herausforderungen vorzubereiten.

Dieser Wandel wirkt sich auch auf Datacenter aus. Denn sie müssen die Plattformen liefern, die für diese neuen Technologien benötigt werden und das geht weit über einfache Virtualisierungs-Lösungen hinaus - Software-defined-Datacenter sind angesagt. In diesen werden alle Komponenten wie Server (Computing-Leistung), Storage und Netzwerk zentral per Software gesteuert und mit einer darüber liegenden Management-Software verwaltet. Für spezielle hochperformante Workloads stehen hyperkonvergente Systeme zur Verfügung oder High-Performance-Computing-Einheiten HPC). Auch Grafikleistung für VDI-Anwendungen in Form von Workstation gehören mittlerweile zum festen Service-Umfang von Datacentern.

Im Hinblick auf die genannten Themen erläutern Experten der wichtigsten Server-Hersteller, mit welchen wichtigen IT-Trends sich IT-Verantwortliche 2018 im Bereich Server beziehungsweise Server-Virtualisierung sowie im Datacenter 2018 auseinandersetzten müssen.

Server, Virtualisierung und Data Center 2018
Heinz-Jörg Robert, Axians
"Der Weg zu einem einheitlichen Hybrid-Cloud-Betriebsmodell wird die Agenda der IT-Abteilungen 2018 dominieren."
Uwe Müller, Cisco
"Die Verwaltung von hybriden Umgebungen erfordert Management-Systeme, die in der Lage sind, multiple Clouds und verschiedene Technologien unter eine einheitliche Oberfläche zu stellen.“
Peter Dümig, Dell EMC
"Ein zentraler Trend sind hyperkonvergente Infrastruktur-Lösungen. Hier beobachten wir ein starkes Wachstum und großes Interesse an solchen Lösungen als Plattform für Virtualisierung und Software Defined Storage (SDS) in allen Ausprägungen."
Michael Homborg, Fujitsu
„In den Bereichen Server, Server-Virtualisierung und Datacenter setzen sich 2018 insbesondere drei Trends fort: Software-Defined Datacenter (SDDC), die Implementierung von modularen Servern sowie der Einsatz von OpenStack als universeller Cloud-Plattform.“
Stefan Weber, HPE
„Hybride IT-Infrastrukturen umfassen nicht mehr nur das lokale Rechenzentrum und verschiedene Clouds, sondern zunehmend auch IT außerhalb der Rechenzentren, sprich: Edge Computing direkt am Ort der Datenentstehung, in Fabriken, Stadien oder Einkaufszentren. Durch die Verzahnung von verschiedenen Formen von lokaler IT und Clouds steigt aber die Komplexität."
Ingolf Wittmann, IBM
"Aktuelle und kurzfristige Themen sind Edge Computing, Persistent Memory und Docker. In Zeiten von IoT und Industrie 4.0 fallen unglaublich viele Daten von Sensoren und Geräten an, welche in Echtzeit verarbeitet werden müssen. "
Dieter Stehle, Lenovo
„2018 werden sich IT-Verantwortliche im Bereich Server bzw. Server-Virtualisierung ganz stark mit schlüsselfertigen Lösungen auseinander setzen. Die Modularität und Skalierbarkeit hyperkonvergenter Lösungen gewinnt künftig eine immer stärkere Bedeutung. Im Bereich Datacenter spielen 2018 unserer Ansicht nach die Hybrid Cloud sowie As-a-Service Angebote und Managed Service Provider eine ganz wichtige Rolle."
Michael Haderer, Thomas Krenn
„Allgemeine IT-Trends wie Machine Learning, IoT, und Industrie 4.0 bestimmen 2018 auch die Trends in der Serverlandschaft. Dafür müssen schnell wachsende Datenmengen sowohl gespeichert als auch analysiert werden."

Heinz-Jörg Robert, Manager Solution Line Data Center, Axians

Uwe Müller, Head of Sales & PreSales Datacenter; Cisco

Peter Dümig, Sr. Server Product Manager; Dell EMC

Michael Homborg, Category Manager Datacenter Central Europe; Fujitsu

Stefan Weber, Strategic Sales Consultant HPE Server; Hewlett Packard Enterprise

Ingolf Wittmann, Technical Director, CTO & Leader of HPC Europe; IBM

Dieter Stehle, General Manager Lenovo Data Center Group DACH; Lenovo

Michael Haderer, Business Developer/Systems Engineering; Thomas-Krenn

Server, Virtualisierung und Datacenter - IT-Herausforderungen 2018

Heinz-Jörg Robert, Axians: "Über allem steht die Cloud - ob Private, Public oder Hybrid, sie ist einfach und schnell für Applikationen zu nutzen und bietet je nach Anwendung die passende Performance und Verfügbarkeit. Und dieser Cloud-Fokus wird 2018 auf die europäische Datenschutz-Grundverordnung (EU-DSGVO) treffen."

"Richtlinienkonformität der Cloud ist also das A und O. Das verlangt eine ganzheitliche Betrachtung von Applikationen, Server, Speicher, Netzwerk, Sicherheit und Personal. Die Komplexität in der Planung und im Betrieb steigt dadurch und belastet so manches Unternehmen."

"Folglich wird der Weg zu einem einheitlichen Hybrid-Cloud-Betriebsmodell die Agenda der IT-Abteilungen 2018 dominieren. Dabei verbleiben die kritischen Infrastrukturen im Rechenzentrum und die nicht kritischen Applikationen werden in die Public Cloud verlagert. Beides benötigt definierte SLA, Automation und standarisierte Prozesse. Das wiederum benötigt in der Planung ein hohes Maß an Flexibilität für Server, Speichersysteme, Security und Netzwerk mit einer zentralen Verwaltung über Analyse, Optimierung, Überwachung bis zur Abrechnung nach Nutzungsgrad der Lösung. Unternehmen reduzieren so ihre OPEX- Kosten und können sich auf wirtschaftliche IT-Interessen konzentrieren."

Uwe Müller, Cisco: "Virtualisierte Server sind heute schon Standard in Rechenzentren. Doch immer mehr Unternehmen ergänzen ihre On-Premise-Lösungen mit Private und Public Clouds. Applikationen verschiedenster Arten werden miteinander verbunden. Hybride Umgebungen entstehen. Virtualisierung ist weiterhin eine wichtige Technologie neben Bare Metal, aber auch Container-Lösungen. Die Verwaltung von hybriden Umgebungen erfordert Management-Systeme, die in der Lage sind, multiple Clouds und verschiedene Technologien unter eine einheitliche Oberfläche zu stellen."

"Ein weiterer Trend sind Intent-Based-Datacenter (Absichts-basierte Infrastrukturen). Damit ein einzelnes Device nicht mehr manuell konfiguriert werden muss, erhalten Infrastrukturen auf den Anwendungszweck ausgerichtete gesamtheitliche Konfigurationen, erkennen automatisch den Kontext einer Situation und reagieren darauf. So nehmen sie Aktionen vorweg, entdecken und beheben Anomalien, wehren Gefahren ab und entwickeln sich ständig weiter. Dadurch werden IT-Experten in die Lage versetzt, umfassende und agile Anforderungen von "morgen" zu erfüllen und zusätzlich zur Entwicklung neuer Lösungen beizutragen."

Peter Dümig, Dell: "Ein zentraler Trend sind hyperkonvergente Infrastruktur-Lösungen. Hier beobachten wir ein starkes Wachstum und großes Interesse an solchen Lösungen als Plattform für Virtualisierung und Software Defined Storage (SDS) in allen Ausprägungen. Damit einher geht auch die Veränderung der internen Organisation bei vielen Unternehmen vom klassischen Säulenmodell, also der Aufteilung in Server, Storage und Netzwerk, hin zu einem Plattform- oder Infrastruktur-Modell. Diese Umstellung ist beim Einsatz einer hyperkonvergenten Infrastruktur erforderlich und trägt zu beschleunigten und vereinfachten internen Prozessen bei. Außerdem sehen wir großes Interesse an Persistent Memory, einer neuen Technologie, die die Lücke zwischen SSDs und dem Arbeitsspeicher schließt. Sie bringt als neuer Cache Tier noch einmal deutliche Leistungsverbesserungen bei High-End-Anwendungen im Big-Data-Bereich oder bei In-Memory Datenbanken und speziell für Real-Time-Applikationen."

Glossar zu Big Data und Data Analytics
Predictive Analytics
das Treffen von Prognosen durch die Analyse von Daten. Im Gegensatz zur Analyse historischer Zusammenhängen und Erkenntnissen; auch durch die Analyse von Daten, die möglicherweise urächlich nicht miteinander in Zusammenhang stehen (Quelle: Bitkom)
Open Source
quelloffene Werke, zum Beispiel Software bei der man den Quellcode erhält (Quelle: Bitkom)
Open Data
Konzept zum Zugang zu hoheitlichen Daten zu jedermann, beispielsweise Auskunft über die bei einer Meldestelle gespeicherten Daten über einen Bürger und die Einrichtungen, an die die Daten übermittelt worden sind. (Quelle: Bitkom)
Metadaten
Daten zur Beschreibung von Daten, unter anderem, um Datenmodelle zu entwickeln. (Quelle: Bitkom)
Mahout
wörtlich: Elefantentreiber; hier: eine Apache-Komponente zum Aufbau von Bibliotheken für das Machine Learning MapReduce Verfahren zur Datenverwaltung und Indizierung (Quelle: Bitkom)
Machine Learning
Oberbegriff für die künstliche Generierung von Wissen aus Erfahrung: Ein künstliches System lernt aus Beispielen und kann nach Beendigung der Lernphase verallgemeinern. Das System „erkennt“ Gesetzmäßigkeiten und kann somit auch unbekannte Daten beurteilen. (siehe Wikipedia). (Quelle: Bitkom)
Lustre
Linux-basierendes Betriebssystem für den Betrieb von Cluster-Architekturen (Quelle: Bitkom)
Lambda-Architektur
Eine konstruktiv nutzbare Vorlage für den Entwurf einer Big-Data-Anwendung. Die in der Architektur vorgesehene Modularisierung spiegelt typische Anforderungen an Big-Data-Anwendungen wider und systematisiert sie. (Quelle: Bitkom)
In-Memory
Bei In-Memory werden die Daten nicht physisch auf Datenträger gespeichert und wieder ausgelesen, sondern im Arbeitsspeicher gehalten und dadurch mit sehr hoher Geschwindigkeit verarbeitet. (Quelle: Bitkom)
HANA
Ursprünglich: High-Performance Analytical Appliance; ein von SAP entwickeltes Produkt zum Betrieb von Datenbanken im (sehr großen) Hauptspeicher eines Computersystems (Quelle: Bitkom)
Hadoop
Open-Source-Version des MapReduce-Verfahrens, in verschiedenen Distributionen erhältlich. (Quelle: Bitkom)
Fraud Detection
Erkennung von Betrugsversuchen durch die Analyse von Transaktionen und Verhaltensmustern (Quelle: Bitkom)
Eventual Consistency
Eine Schnittmenge des CAP-Modells hinsichtlich der ereignisbezogenen Konsistenz von Modellen. (Quelle: Bitkom)
Data Science
Datenkunde: die Kenntnis bzw. Anwendung neuer Verfahren zur Arbeit mit Daten und Informationen, z.B. Verwendung semantischer Verfahren oder die Erschließung neuer Datenquellen (Sensordaten) und die Erarbeitung von Mustern oder statistischen Verfahren zur Auswertung solcher Daten. (Quelle: Bitkom)
Data Mining
Anwendung statistischer Methoden auf sehr große Datenmengen, bspw. Im Gegensatz zur manuellen Auswertung über Funktionen eines Tabellenkalkulationsprogrammes (Quelle: Bitkom)
Data Management
Methoden und Verfahren zur Verwaltung von Daten, oft über Metadaten (Daten, die Daten beschreiben) (Quelle: Bitkom)
Customer Analytics
Gewinnung von Erkenntnissen über das Kundenverhalten (überwiegend in Consumer-orientierten Unternehmen), beispielsweise mit dem Ziel der Entwicklung massenindividualisierter Produkte und Dienstleistungen (Quelle: Bitkom)
CEP
Sammelbegriff für Methoden, Techniken und Werkzeuge, um Ereignisse zu verarbeiten, während sie passieren. CEP leitet aus Ereignissen höheres Wissen in Form von komplexen Ereignissen ab, d. h. Situationen, die sich nur als Kombination mehrerer Ereignisse erkennen lassen (vgl. Wikipedia). (Quelle: Bitkom)
Complex Event Processing (CEP)
Complex Event Processing (CEP, Verarbeitung komplexer Ereignisse) ist ein Themenbereich der Informatik, der sich mit der Erkennung, Analyse, Gruppierung und Verarbeitung voneinander abhängiger Ereignisse beschäftigt. (Quelle: Bitkom)
CEPH
ein Dateisystem, das gleichzeitig Objekte, Dateien und Datenblöcke verwalten kann (Quelle: Bitkom)
CAP-Theorem
Laut dem CAP-Theorem kann ein verteiltes System zwei der folgenden Eigenschaften erfüllen, jedoch nicht alle drei: C = Consistency = Konsistenz, A = Availability = Verfügbarkeit, P = Partition Tolerance = Partitionstoleranz (siehe Wikipedia)
Business Intelligence
Gewinnung von Erkenntnissen über Zusammenhänge zwischen Informationen aus polystrukturierten Daten aus unterschiedlichsten Quellen (Quelle: Bitkom)
Broker
Makler/Buchmacher, hier: Rolle des Übermittlers von Daten zwischen Quelle und Anwender Business Analytics Ermittlung von Kennzahlen für Unternehmen, durch die Analyse größerer Datenmengen mit dem Ergebnis neuer Erkenntnisse aufgrund einer breiteren Datenbasis. (Quelle: Bitkom)
Big Data
die Gewinnung neuer Informationen – die in kürzester Zeit sehr vielen Nutzern zur Verfügung stehen müssen – mittels enorm großer Datenbestände aus unterschiedlichsten Quellen, um dadurch schneller wettbewerbskritische Entscheidungen treffen zu können. (Quelle: Bitkom)
Analytics Appliance
vorkonfigurierte oder paketierte Lösungen aus Hardware und Software für die Koordinierung von polystrukturierten Daten, die Ausführung von Analysen und die Präsentation der Erkenntnisse. (Quelle: Bitkom)
Analytics Analyse
Gewinnung von Erkenntnissen durch komplexe Abfragen auf polsystrukturierte Daten, Datenbanken und Data-Warehouses mit spezifischen Abfragesprachen wie SQL oder Pig. (Quelle: Bitkom)

Michael Homborg, Fujitsu: "In den Bereichen Server, Server-Virtualisierung und Datacenter setzen sich 2018 insbesondere drei Trends fort: Software-Defined Datacenter (SDDC), die Implementierung von modularen Servern sowie der Einsatz von OpenStack als universeller Cloud-Plattform."

"Unternehmen müssen in der Lage sein, noch schneller auf Veränderungen auf dem Markt zu reagieren, etwa beispielsweise eine stark steigende Nachfrage. Hinzu kommt, dass die Digitalisierung von Geschäftsprozessen und Angeboten agilere und flexiblere Rechenzentren erfordert. Die Automatisierung von IT-Prozessen ist daher unerlässlich. Eine Schlüsselrolle spielen dabei softwarebasierte Rechenzentren. Durch SDDC wird im Rechenzentrum eine Abstraktionsschicht eingezogen, welche die Steuerung, Kontrolle und Bereitstellung der IT-Infrastruktur vereinfacht und automatisiert. Kern des Konzepts ist es also, eine vollständig virtualisierte, durch Software gesteuerte IT-Infrastruktur zu schaffen."

"Der Vorteil: IT-Ressourcen lassen sich nach Bedarf innerhalb kurzer Zeit und weitgehend automatisch bereitstellen. Fachabteilungen haben zudem die Möglichkeit, selbstständig Server- oder Storage-Kapazitäten zu "buchen" - aber stets unter Kontrolle der IT-Abteilung. Eine Studie von Fujitsu belegt, dass bereits viele Unternehmen den Nutzen von SDDC anerkennen. So sind 24 Prozent bereits dabei, ein Software-Defined Datacenter einzurichten. Ebenfalls 24 Prozent planen dies, in naher Zukunft zu tun. Die verbleibenden 52 Prozent der eher konservativen Unternehmen laufen Gefahr, zu hohen Anteilen in die Schatten-IT abzudriften mit später quasi unbeherrschbaren Security-, Compliance- und Kostenproblemen."

"Durch SDDC gewinnen neue Formfaktoren wie modulare Server an Bedeutung. Sie bieten im Vergleich zu älteren Systemen einen hohen Grad an Flexibilität im Hinblick auf Rechenleistung, Speicherkapazität, Netzwerkanbindung und Server-Management und das bei geringstem Platzbedarf. Dank des modularen Aufbaus lassen sich solche Systeme im laufenden Betrieb warten. Außerdem können Compute- und Storage-Knoten in einem Chassis zusammengefasst werden. Diese hohe Variabilität in einem SDDC bietet viele Vorzüge."

"Ein weiterer Trend, der im kommenden Jahr deutlich an Fahrt gewinnen wird, ist OpenStack. Diese Open-Source-Lösung hat sich zum de-facto-Standard einer offenen Managementplattform für Hybrid-Cloud-Infrastrukturen entwickelt. Kombiniert mit geeigneten Plattform Lösungen wie z.B. PRIMEFLEX von Fujitsu, können Nutzer mit OpenStack Workloads jeder Art zwischen Private und Public Clouds verlagern. Mit Wechsel auf eine solche strategische Innovationsplattform sichern sich die Unternehmen die Möglichkeit Zukunftsthemen wie IoT, Big Data und KI souverän zu meistern."

"Laut einer Studie, die Freeform Analytics im Auftrag von Fujitsu erstellte, nutzen bereits 31 Prozent der Unternehmen Virtualisierungs-Stacks auf Basis von Open Source. Rund 11 Prozent setzen OpenStack ein, weitere 26 Prozent haben die Absicht, diese Plattform in ihrem Rechenzentrum zu verwenden."

Stefan Weber, HPE: "Hybride IT-Infrastrukturen umfassen nicht mehr nur das lokale Rechenzentrum und verschiedene Clouds, sondern zunehmend auch IT außerhalb der Rechenzentren, sprich: Edge Computing direkt am Ort der Datenentstehung, in Fabriken, Stadien oder Einkaufszentren. Durch die Verzahnung von verschiedenen Formen von lokaler IT und Clouds steigt die Komplexität. Firmen stehen damit vor der Aufgabe, ihre hybriden IT-Umgebungen zu vereinfachen. Dafür brauchen sie zum Beispiel Lösungen, die alle Ressourcen-Pools einheitlich managen können: virtuell, Bare Metal, Container und Cloud. Um ihre hybriden IT-Landschaften zu vereinfachen, werden Firmen zudem den Einsatz von hyperkonvergenten Systemen ausweiten. Diese werden im kommenden Jahr nicht nur in Außenstellen oder für spezielle Anwendungen wie virtuelle Desktops eingesetzt, sondern in verstärktem Maße auch für geschäftskritische Kernanwendungen. Parallel dazu wächst die Bedeutung von künstlicher Intelligenz für die vorausschauende Problembehebung in der hybriden IT-Landschaft."

Ingolf Wittmann, IBM: "Aktuelle und kurzfristige Themen sind Edge Computing, Persistent Memory und Docker. In Zeiten von IoT und Industrie 4.0 fallen unglaublich viele Daten von Sensoren und Geräten an, welche in Echtzeit verarbeitet werden müssen. Bandbreitenprobleme im Internet und auch in Firmennetzwerken macht eine Aggregation und Verarbeitung der Informationen schwierig. Hier kommt Edge Computing ins Spiel, wo die Informationen dezentral bzw. wo die Daten anfallen vorverarbeitet werden um Vorort wieder zur Steuerung eingesetzt zu werden - oder über das Internet transferiert in den großen Data Lake."

"Speichergröße und Zugriffsgeschwindigkeiten in Speichertechnologien sind eine wichtige Komponente bzgl. Anwendungsgeschwindigkeiten. Persistent Memory schließt hier die Lücke zwischen SSDs und NVMe SSDs und dem Arbeitsspeicher. Kompatibel zu normalen DDR4 Arbeitsspeicher werden NV-DIMM Module alternativ in freien vorhandenen Steckplätze eingebaut werden. Ein Vorteil ist, dass der Inhalt des Speichers auch beim Abschalten des Rechners erhalten bleibt. Die ist insbesondere für In-memory-Datenbanken interessant, wo die Datenbank nicht neu generiert werden muss, sondern sofort wieder zur Verfügung steht."

"Container Virtualisierung wie Docker ist weiter auf dem Vormarsch. Zum einen ist es größtenteils OpenSource-basiert und zum anderen ist nicht mehr die Abschottung der virtuellen Maschinen wichtig, sondern deren Fähigkeiten miteinander zu kommunizieren. Als Nebeneffekt ist Docker effizienter und ressourcenschonender als die klassische Virtualisierung."

"High Performance Computing (HPC) und High Performance Data Analytics (HPDA) sind mit den neuen Servertechnologien ausgestattet mit Accleratoren wie GPUs, FPGAs oder gar Neuromorphic Technologien auch in der Industrie angekommen. Es werden dieselben Software- und Hardwaretechnologien wie im HPC verwendet, allerdings in einem kleineren Umfang, um neue Produkte oder Serviceleistungen für die Kunden zu entwickeln."

"Zu den langfristigen Themen zählen Quantum und Neuromophic Computing. Quantum Computing wird der zukünftige Accelerator für die IT speziell um Probleme zu adressieren, welche heute nicht mit einen klassischen Computer zu lösen sind. Alle großen IT-Unternehmen investieren stark in die Entwicklung dieser neuen Technologie und bilden wie die IBM Kooperationen mit der akademischen Welt, aber auch Industrieunternehmungen, um Use Cases in Quantum-Lösungen umzusetzen. Klassische Programmierer sind hier aktuell eher weniger gefragt, sondern Mathematiker und Quantenphysiker."

"Neuromophic Computing: KI und neuronale Netzwerke werden aktuell mit GPUs in entsprechenden Clustern gebaut mit dem Nachteil, dass der graphische Anteil in GPUs dafür nutzlos ist und GPUs wenig energieeffizient sind. Die Alternative sind Neuromophic Chips, welche sich eher wie das menschliche Gehirn verhalten, extrem energieeffizient sind und sich besser, aber nicht einfacher, programmieren lassen. Die Einsatzgebiete gehen vom mobilen Bereich mit Bilderkennung bis hin zu massiv parallelen HPC-Systemen mit Deep Neuronal Networks."

Künstliche Intelligenz aus der Cloud
Microsoft Machine Learning
Azure Machine Learning ist ein vollständig verwalteter Cloud-Dienst, mit dem Anwender Predictive Analytics-Lösungen generieren und bereitstellen können.
Microsoft Cognitive Services
Die Cognitive Services von Microsoft enthalten unter anderem Dienste für Bildanalyse und Gesichtserkennung.
Amazon ML
Amazon Machine Learning unterstützt den Anwender bei der Fehleranalyse von Vorhersagemodellen.
Amazon Bot
Mit Amazon Lex können Chatbots beispielsweise für Verbraucheranfragen erstellt werden.
Google API
Über APIs lassen sich Google AI-Services in eigene Anwendungen integrieren.
Google Tensorflow
Das von Google stammende Open-Source Framework Tensorflow ist die Basis von Cloud ML.
IBM Bluemix
IBM bietet auf der Cloud-Plattform Bluemix zahlreiche Watson-basierte AI-Anwendungen.
IBM ML
IBM Machine Learning ermöglicht die Entwicklung und den Einsatz selbstlernender Analysemodelle in der Private Cloud.
HPE Haven
Mithilfe der Gesichtserkennungs-API von HPE können Entwickler in Fotos gefundene Daten importieren, extrahieren und analysieren.
Salesforce Einstein
Salesforce Einstein: Predictive Content liefert Kunden auf Basis von maschinellem Lernen eine individuelle Empfehlung für das beste Produkt.

Dieter Stehle, Lenovo: "2018 werden sich IT-Verantwortliche im Bereich Server bzw. Server-Virtualisierung ganz stark mit schlüsselfertigen Lösungen auseinander setzen. Die Modularität und Skalierbarkeit hyperkonvergenter Lösungen gewinnt künftig eine immer stärkere Bedeutung. Ferner steht die noch stärkere Vereinfachung und Beschleunigung der System Administration sowie des Monitoring vor dem Hintergrund von Anwendungsszenarien wie Artificial Intelligence, High Performance Computing und Big Data & Analytics sicherlich im Fokus der IT-Entscheider."

"Daneben sind die weitere Steigerung der Energieeffizienz zum Beispiel durch direkte Flüssigkeitskühlung und der Einsatz neuer Technologien immer ein ganz wichtiges Thema."

"Im Bereich Datacenter spielen 2018 unserer Ansicht nach die Hybrid Cloud sowie As-a-Service Angebote und Managed Service Provider eine ganz wichtige Rolle. Technologisch werden neue Netzwerktechnologien (25/50/100 Gbit) sicherlich aber auch ein Thema für die IT sein."

Michael Haderer, Thomas Krenn AG: "Allgemeine IT-Trends wie Machine Learning, IoT, und Industrie 4.0 bestimmen 2018 auch die Trends in der Serverlandschaft. Dafür müssen schnell wachsende Datenmengen sowohl gespeichert als auch analysiert werden. Für die Server-Hardware ergibt sich daraus, dass der Bedarf nach sehr leistungsfähigen Systemen mit hoher Leistungsdichte wird weiter steigen wird und damit einhergehend auch der Stromverbrauch pro System. Das wird bei herkömmlicher Kühltechnik zum Problem, alternative Kühlkonzepte kommen deshalb zunehmend aus der Planungsphase heraus und gelangen in die Umsetzung."

"GPU Computing wird hardwareseitig eines der großen Themen werden, durch AMD kommt hier wieder mehr Wettbewerb ins Spiel, doch Nvidia wird auch 2018 noch diesen Markt dominieren."

"Getrieben durch IoT gewinnen Edge und Fog Computing massiv an Bedeutung gegenüber der Cloud, da hier große Datenmengen lokal anfallen und auch nur lokal benötigt werden und oft Verarbeitung in Echtzeit nötig ist. Dafür sind die Latenzen in der Cloud zu hoch und Storage- und Compute-Modelle von Public-Cloud-Anbietern zu unwirtschaftlich. Der Bedarf an Micro Datacentern und speziellen Servern für die Industrie wird daher steigen."