Entwickler-Summit in Berlin

AWS baut Cloud-Infrastruktur in Deutschland weiter aus

22.05.2017 von Martin Bayer
Amazon Web Services (AWS) setzt auf wachsende Cloud-Geschäfte in Deutschland. Dafür erweitert der Primus im Infrastructure-as-a-Service-Markt (IaaS) seine Kapazitäten hierzulande und bringt mehr Services in seiner deutschen Cloud an den Start.

Der deutsche Markt scheint für den Cloud-Giganten Amazon Web Services (AWS) durchaus vielversprechende Perspektiven zu bieten. Während im angloamerikanischen Bereich sowie in sich schnell entwickelnden Märkten wie China und Indien das Thema Cloud Computing längst selbstverständlich ist, taten sich deutsche Unternehmen zuletzt immer noch schwer, ihre IT der Public Cloud anzuvertrauen. Das scheint sich jetzt aber zu ändern.

AWS Summit 2017 in Berlin
Foto: Amazon Web Services

"Cloud Computing ist als Kernkomponente in den deutschen Unternehmen gesetzt", sagt beispielsweise Björn Böttcher, Senior Analyst & Data Practice Lead bei Crisp Research. Die Mehrheit der Unternehmen beschäftige sich mittlerweile intensiv mit Cloud Computing. Nur noch in knapp 15 Prozent der Unternehmen stehe Cloud Computing nicht auf dem Programm. Angesichts dieser Entwicklungen hoffen die Cloud-Provider auf gute Geschäfte und bauen ihre Kapazitäten hierzulande aus.

Dritte Availability Zone in Frankfurt

Im Herbst 2014 hatte AWS eigene Cloud-Rechenzentren in Deutschland eröffnet. Diese Kapazitäten will der Konzern nun weiter ausbauen. Chef-Architekt Glenn Gore kündigte eine zusätzliche Availability Zone (AZ) in Frankfurt am Main an. Availability Zones bestehen laut AWS-Lesart aus einem oder mehreren Rechenzentren, jedes mit redundanter Energieversorgung, Netzwerk und Konnektivität, untergebracht in getrennten Räumlichkeiten. Damit stünden deutschen Kunden hierzulande nun insgesamt drei AZs für ihren Cloud-Betrieb zur Verfügung.

Glenn Gore, Chief Architect von AWS, kündigte auf dem Summit in Berlin eine dritte Availability Zone (AZ) für Deutschland an.
Foto: Amazon Web Services

Gore sprach auf dem AWS Summit in Berlin von umfangreichen Investitionen in die eigene Cloud-Infrastruktur. Einige AZs setzten sich aus bis zu acht Rechenzentren zusammen, mehrere Data Center in diesem Cloud-Verbund würden 300.000 Server und mehr betreiben. Wie sich dezidiert die Rechenzentrumsstruktur der AZs in Deutschland zusammensetzt, wollte der Konzern indes nicht verraten. Insgesamt wächst damit die AWS-Cloud auf weltweit 43 AZs, die über 16 geografische Regionen verteilt sind. Diese Botschaft kam bei den Kunden und Entwicklern in Berlin gut an. Die Ankündigung, die Cloud-Infrastruktur hierzulande mit einer dritten AZ zu erweitern, begrüßten die über 3600 Besucher mit Applaus.

Service-Vielfalt wächst - und auch die Unübersichtlichkeit

Public-Cloud-Plattformen im Vergleich
Amazon Web Services
Forrester attestiert AWS ein marktführendes Portfolio an Cloud-Services. Hybrid-Cloud-Szenarien aber deckten die Konkurrenten zum Teil besser ab.
Microsoft Azure
Im Azure-Portfolio loben die Forrester-Experten besonders die Services für Softwareentwickler.
IBM Bluemix
IBM kann die Vorteile seines Cloud-Angebots vor allem in Unternehmen mit etablierten IT-Strukturen ausspielen.
Google Cloud
Googles Cloud-Portfolio punktet vor allem mit Machine-Learning- und Data-Services.
Oracle Cloud
Die Oracle-Cloud ist in erster Linie für Bestandskunden des IT-Konzerns interessant, urteilt Forrester.
Interoute Virtual Data Center
Der britische Anbieter Interoute profitiert im Forrester-Vergleich von seiner starken lokalen Präsenz in Europa.
Salesforce App Cloud
Vor allem die Entwickler-Services der App Cloud von Salesforce finden das Lob der Forrester-Analysten.
CenturyLink
Die Stärken des Cloud-Portfolios von CenturyLink liegen in den ausgefeilten Konfigurations- und Automation-Features.
CloudSigma
Cloud-Services aus der Schweiz offeriert CloudSigma. Kunden profitieren von besonders flexiblen und feingranularen Konifgurationsoptionen, kommentiert Forrester.

AWS-Architekt Gore zog in seiner Keynote Bilanz und gab einen Ausblick über die anstehenden Entwicklungen rund um die AWS-Cloud. Neben den grundlegenden Infrastrukturdiensten wie Compute und Storage hat der Cloud-Provider in der jüngeren Vergangenheit vor allem sein Service-Portfolio kontinuierlich ausgebaut. "AWS hat die breiteste Cloud-Plattform der Welt", sagte der Manager und verwies auf die mittlerweile 19 verschiedenen Service-Segmente, die sich wiederum in zahllose Einzeldienste aufteilen.

Allein im Bereich Compute könnten Anwender heute unter 13 verschiedenen Leistungsklassen wählen - von einfachen "Simple Virtual Private Servers (Simple VPS) über Field Programmables Gate Arrays (FPGAs), mit denen Entwickler spezielle Hardwarebeschleuniger für ihre Anwendungen buchen können, bis hin zu zusätzlichen GPU-Kapazitäten (Graphic Processing Unit), mit deren Hilfe sich vor allem KI- und ML-Funktionen schnell und effizient abarbeiten lassen.

Diese Vielfalt hat Vor- und Nachteile. Anwender können sich ihre Infrastruktur in der AWS-Cloud granular und individuell zusammenstellen. Allerdings wird das Angebot mit der wachsenden Zahl an Services auch immer unübersichtlicher, wie viele Experten mittlerweile monieren.

Aurora-Datenbank macht Oracle und Microsoft Konkurrenz

Das hält den Cloud-Provider indes nicht davon ab, sein Service-Portfolio auszubauen. Mit dem Ausbau der Region EU-Central würden hier auch mehr Services verfügbar, kündigte AWS an - beispielsweise "Lightsail". Damit könnten Anwender virtuelle Maschinen vorkonfiguriert mit SSD-Speicher und der notwendigen Konnektivität innerhalb weniger Minuten in der AWS-Cloud aufsetzen, versprach der Anbieter.

Gore kündigte in Berlin außerdem eine weitere Ausprägung der eigenen Cloud-Datenbank-Engine "Aurora" an. Neben der bereits existierenden, auf MySQL-Kompatibilität getrimmten Variante soll im Laufe des Jahres eine näher an PostgreSQL angelehnte Version von Aurora herauskommen. Damit offeriere AWS auch Oracle-Anwendern eine Cloud-Alternative, da PostgreSQL durchaus Ähnlichkeiten mit Oracle-Datenbanken aufweise, sagte AWS-Manager Gore.

In-Memory-Systeme lösen klassische Datenbanken ab
Basis: 2864 Befragte.jpg
2864 Anwender hat Crisp Research zum Thema In-Memory befragt: 42 Prozent haben sich mit der Technik bereits beschäftigt. Doch nur für 150 von ihnen steht der Einsatz von SAP HANA fest.
Eingesetzte Datenbank.jpg
Vor allem Microsoft- und Oracle-Systeme sind die bevorzugten Datenbanken in den befragten Anwenderunternehmen.
Pläne für In-Memory-Datenbanken
Gut vier von zehn Befragten haben bereits eine In-Memory-Datenbanktechnik evaluiert. Allerdings sagen auch fast 60 Prozent, dass derzeit eine In-Memory-basierte Datenverarbeitung für sie nicht von Interesse sei.
Entscheidung in Sachen HANA
200 Anwenderunternehmen von den 2864 Befragten beschäftigen sich intensiver mit SAP HANA. Rund ein Drittel setzt das System bereits produktiv ein. Fast die Hälfte prüft noch und knapp jeder Fünfte kann sich noch nicht so recht entscheiden.
Ziel: HANA als Beschleuniger.jpg
Mehr als die Hälfte der HANA-Interessenten erwartet, dass das In-Memory-System die Unternehmensprozesse beschleunigt. Außerdem soll HANA dabei helfen, Systeme zu konsolidieren, um so die Komplexität zu verringern. Immerhin jeder Achte ist unzufrieden mit Oracles Lizenzpolitik und will deshalb den Anbieter wechseln.
Strategische Ziele.jpg
Vor allem im Umfeld von Big Data, dem Customer Relationship Management (CRM) und Industrie 4.0 sowie dem Internet der Dinge solle HANA zum Einsatz kommen. Simulationen neuer Geschäftsmodell spielen bei der strategischen Zielsetzung allerdings noch keine besonders große Rolle.
HANA-Einführung.jpg
Das Gros der HANA-Interessenten will das System für Business Intelligence (BI) und das Reporting einsetzen. Der Einsatz als Betriebsplattform für neue Workloads kommt nicht einmal für ein Viertel der Unternehmen in Frage. Als Innovations-Show-Case spielt HANA derzeit nur eine untergeordnete Rolle.
HANA-Architektur.jpg
Die meisten Anwender sehen HANA derzeit als ergänzendes System und Beschleuniger für ihre bestehenden Architekturen. Nur jeder Fünfte der Befragten will HANA als Primär-System einsetzen und bestehende Systeme abschalten.
Anwendern fehlt HANA-Knowhow.jpg
Vor allem das fehlende Knowhow für HANA im eigenen Haus wie bei potenziellen Partnern bereitet den Verantwortlichen Kopfzerbrechen. Außerdem fehlen den Befragten Migrationskonzepte für Nicht-SAP-Systeme.
Anwender monieren technische Probleme.jpg
Neben den Klassikern wie Zeit- und Budget-Überschreitungen beklagen die HANA-Anwender auch Probleme mit der Systemstabilität sowie nicht erfüllte Erwartungen hinsichtlich der Leistung.
Anwendern ist HANA zu teuer.jpg
Verbesserungspotenzial sehen die Befragten vor allem bei den Kosten. Sie wünschen sich ein attraktiveres Lizenzmodell, mehr Out-of-the-Box-Lösungen sowie günstigere Wartungskosten.

Seiner Beobachtung zufolge suchten derzeit viele Unternehmen nach Auswegen aus der klassischen Datenbankwelt, die Gore zufolge teuer ist und Unternehmen durch einen Vendor-Lock-in und wenig anwenderfreundliche Lizenzkonditionen einenge. Aurora sei der am schnellsten wachsende AWS-Service aller Zeiten, berichtete der Manager. Im Zuge des "Database Migration Service" (DMS) seien bereits mehr als 23.000 Datenbank-Installationen in die AWS-Cloud umgezogen worden.

Stärkerer Fokus auf Künstliche Intelligenz und Machine Learning

Ein weiterer Entwicklungsschwerpunkt sind für AWS die Bereiche Analytics, Künstliche Intelligenz (KI) und Machine Learning (ML). Beispielsweise könnten Anwender mit dem Service "Redshift Spectrum" Abfragen direkt über große Datenvolumina laufen lassen, die im Amazon-Speicher S3 abgelegt sind. In Sachen KI und ML geht es für AWS in erster Linie darum, den Kunden smartere Applikationen zur Verfügung zu stellen, berichtete Ralf Herbich, Director Machine Learning bei AWS. Der Manager spricht dabei von ML as a Service. Damit könnten beispielsweise Dienste wie Bild- oder Spracherkennung beziehungsweise -analyse direkt in andere Applikationen integriert werden.

Künstliche Intelligenz aus der Cloud
Microsoft Machine Learning
Azure Machine Learning ist ein vollständig verwalteter Cloud-Dienst, mit dem Anwender Predictive Analytics-Lösungen generieren und bereitstellen können.
Microsoft Cognitive Services
Die Cognitive Services von Microsoft enthalten unter anderem Dienste für Bildanalyse und Gesichtserkennung.
Amazon ML
Amazon Machine Learning unterstützt den Anwender bei der Fehleranalyse von Vorhersagemodellen.
Amazon Bot
Mit Amazon Lex können Chatbots beispielsweise für Verbraucheranfragen erstellt werden.
Google API
Über APIs lassen sich Google AI-Services in eigene Anwendungen integrieren.
Google Tensorflow
Das von Google stammende Open-Source Framework Tensorflow ist die Basis von Cloud ML.
IBM Bluemix
IBM bietet auf der Cloud-Plattform Bluemix zahlreiche Watson-basierte AI-Anwendungen.
IBM ML
IBM Machine Learning ermöglicht die Entwicklung und den Einsatz selbstlernender Analysemodelle in der Private Cloud.
HPE Haven
Mithilfe der Gesichtserkennungs-API von HPE können Entwickler in Fotos gefundene Daten importieren, extrahieren und analysieren.
Salesforce Einstein
Salesforce Einstein: Predictive Content liefert Kunden auf Basis von maschinellem Lernen eine individuelle Empfehlung für das beste Produkt.

Ein anderes wichtiges Betätigungsfeld für AWS ist das Thema Sicherheit. Gerade in Deutschland sind viele Unternehmen auch hinsichtlich der Europäischen Datenschutzgrundverordnung (DSGVO), die im Mai 2018 in Kraft tritt, sensibilisiert, was die Sicherheit ihrer IT-Systeme und den Schutz der dort verarbeiteten Daten anbelangt. AWS-Architekt Gore versichert daher auch: "Security ist unsere Nummer-1-Priorität." Der Manager spricht in diesem Zusammenhang von Security by Design. Das heißt laut AWS: Sicherheitsaspekte würden direkt und von vornherein in der Entwicklung von Cloud-Services berücksichtigt. Gore verspricht, dass die AWS-Cloud die Regeln der DSGVO vollumfänglich erfüllen werde.

Machine Learning - Technologien und Status quo
Bilderkennung ist wichtigstes Anwendungsgebiet für Machine Learning
Heute kommen Machine-Learning-Algorithmen vor allem im Bereich der Bildanalyse und -erkennung zum Einsatz. In Zukunft werden Spracherkennung und -verarbeitung wichtiger.
Machine Learning im Anwendungsbereich Customer Experience
Heute spielt Machine Learning im Bereich Customer Experience vor allem im Bereich der Kundensegmentierung eine Rolle (hellblau). In Zukunft wird die Spracherkennung wichtiger (dunkelblau).
Machine Learning in den Bereichen Produktion und Prozesse
Unternehmen erhoffen sich im Bereich Produktion/Prozesse heute und in Zukunft (hell-/dunkelblau) vor allem im Bereich Prozessoptimierung positive Effekte durch Machine Learning.
ML im Bereich Kundendienst und Support
Sentiment-Analysen werden eine Kerndisziplin für Machine Learning im Bereich Kundendienst und Support
Auch IT-Abteilungen profitieren
Schon heute wird Machine Learning für die E-Mail-Klassifizierung und Spam-Erkennung genutzt. In Zukunft (dunkelblau) werden Diagnosesysteme wichtiger.
Was Management, Finance und HR von Machine Learning erwarten
Heute und in Zukunft ist in diesem Bereich das Risikomanagement eine vorrangige ML-Disziplin. In Zukunft soll auch das Talent-Management beflügelt werden.
Massive Effekte für Einkauf und Supply Chain Management
Machine Learning wird sich auf verschiedenste Bereiche des Procurements und des Supply Managements auswirken (hellblau = heute; dunkelblau= in Zukunft)
Diese Lernstile sind bekannt
Beim bekanntesten Lernstil, dem Überwachten Lernen (Supervised Learning), werden Bildern oder Dokumenten von Hand eine gewisse Menge an Tags oder Labeln zugewiesen. So werden die ML-Algorithmen trainiert.
Diese Lernstile verwenden Branchen
Während Autobauer eher auf "Semi-supervised Learning" setzen, sammeln andere Branchen mit Supervised Learning Erfahrung.
Machine-Learning-Algorithmen
Die meisten Unternehmen setzen auf einen Mix von Verfahren, um ihre vielfältigen Aufgaben zu lösen.
Einsatz von Machine-Learning-Algorithmen nach Branchen
Neuronale-Netzwerk-Algorithmen finden vor allem im Automotive-Sektor Verwendung - und natürlich in der ITK-Branche selbst.
Diese Programmiersprachen und Frameworks kommen im ML-Umfeld zum Einsatz
Mit knapp 70 Prozent Einsatzgrad ist Java die führende Programmiersprache im Bereich ML. Allerdings holen speziellere Sprachen und Frameworks auf.
Deep-Learning- und Machine-Learning-Packages
DeepLearn Toolbox, Deeplearning4j, das Computational Network Toolkit und Gensim werden auf Dauer die führenden Pakete sein.
Zielinfrastruktur für ML-Workloads
Die Deployments von Machine Learning gehen zunehmend in die Breite und erreichen auch die Cloud und das Internet der Dinge. Auf die Unternehmen kommt mehr Komplexität zu.
Bedenken und Herausforderungen
Datenschutz und Compliance-Themen machen Anwender am meisten zu schaffen, geht es um den Einsatz von Machine Learning. Außerdem vermissen viele einen besseren Überblick über das Marktangebot.
Machine Learning ist Sache der BI- und Analytics-Spezialisten
Die organisatorische Einführung von ML obliegt meistens den BI- und IT-Profis. Viele Anwender holen sich aber auch externe Hilfe.
Wo Externe helfen
Datenexploration, Skill-Aufbau und Implementierung sind die Bereiche, in denen Machine-Learning-Anfänger am häufigsten externe Hilfe suchen.

AWS-Marktplatz bietet Entwicklern neue Möglichkeiten

Die Aufgabe, die eigene Cloud-Infrastruktur so sicher wie möglich zu machen, dürfte in Zukunft nicht einfacher werden, zumal der Kosmos aus Anwendungen und Services immer weiter wächst - gerade auch durch Erweiterungen von Kunden und Partnern. Gore zufolge hat die Softwareliste im AWS-Marktplatz bereits mehr als 3800 Einträge. 1200 unabhängige Softwarehäuser würden bereits Applikationen für die AWS-Cloud programmieren, die wiederum von über 135.000 Kunden genutzt würden.

Die Zahl der Services könnte in Zukunft regelrecht explodieren. Gore zufolge werden die klassischen Softwaremonolithen immer stärker aufgebrochen und in Microservices zerlegt. Durch das Aufkommen von Container-Techniken werde dieser Trend weiter angeheizt. AWS unterstützt diese Entwicklungen mit eigenen Services. So erhalten Entwickler über die "EC2 Container Services" (ECS) eine komplette Container-Plattform, auf der sie Microservices bauen und betreiben könnten. Für die Orchestrierung solch verteilter Micro-Services-Welten bietet der Cloud-Provider das Werkzeug "AWS Step Functions". Visualisierte Workflows sollen den Kunden dabei helfen, Anwendungen aus solchen Microservices zusammenzusetzen.

Es geht nur um den Code

Den Prozess, Code zu entwickeln und schnell in Betrieb zu nehmen, will AWS eigenen Angaben zufolge so einfach wie möglich gestalten. So könnten Entwickler unter dem Motto "Serverless Applications" via "AWS Lambda" beliebigen Code (Java, Node.js, Python etc.) in die Cloud hochladen. Sämtliche Infrastrukturaspekte, die für den Ablauf dieses Codes notwendig sind, würden automatisch im Hintergrund konfiguriert, ohne dass sich der Entwickler darum kümmern müsse, verspricht der Cloud-Anbieter. Abgerechnet werde dabei sekundengenau nach Laufzeit. Gebühren werden AWS zufolge nur dann fällig, wenn der Code läuft.

Mehr als 3600 Besucher konnte AWS auf seinem diesjährigen Summit in berlin begrüßen.
Foto: Amazon Web Services

Gore sieht AWS mit seiner Strategie auf dem richtigen Weg und verweist auf stattliche Wachstumsraten, jenseits der 40 Prozent. Damit führe AWS in Sachen Wachstumstempo die Phalanx der Cloud-Verfechter an - der AWS-Manager nennt hier Unternehmen wie ServiceNow, Workday und Salesforce. Schon etwas abgeschlagen folgten Gore zufolge IT-Traditionsunternehmen wie SAP, Microsoft und Oracle, die derzeit massive Anstrengungen unternehmen, ihr Geschäft in Richtung Cloud umzubauen.

AWS-Summit findet wachsenden Zuspruch der Entwickler

Neben dem Cloud-Ausbau stellte der Anbieter auf seinem Entwickler-Summit am 18. Mai drei Themen in den Fokus: Digitalisierung, Cloud-Adaption und Next Generation Applikationen. Damit begrüßte der seit März dieses Jahres amtierende neue General Manager von AWS in Deutschland, Klaus Bürg, die AWS-Community in "Der Station", einem alten Bahnhofsgebäude nahe des Landwehrkanals. In diesem Jahr zog die Konferenz des weltgrößten Cloud-Infrastruktur-Anbieters deutlich mehr Interessenten an als noch im vergangenen Jahr. Im April 2016 fanden rund 1000 Menschen weniger den Weg zur AWS-Konferenz in der Bundeshauptstadt. Bei über 70 Ausstellern und in 60 Sessions konnten sich die Besucher in diesem Jahr über die aktuellen Entwicklungen rund um die Amazon-Cloud informieren.