Von iPhone bis Data Center

Das Cloud-Portfolio von T-Systems

23.02.2012 von René Büst
Schon seit 2004 ist T-Systems mit seinen "Dynamic Services" im Cloud-Computing-Markt aktiv. Das Portfolio der Bonner wächst stetig.
Foto: T-Systems

Auf Basis eben dieser "Dynamic Services" baut T-Systems sein Cloud-Angebot immer weiter aus. Neben Infrastruktur- und darauf aufbauenden Beratungsdienstleistungen deckt der Dienstleister auch Themen wie Collaboration und Mobility Services ab. Am Cloud Portfolio ist gut zu erkennen, dass T-Systems bereits seit mehreren Jahren langfristig geplant und sowohl aktuelle als auch zukünftige Bedürfnisse von Unternehmenskunden erkannt hat. Was sich genau hinter dem Cloud-Portfolio der Bonner verbirgt, erläutert dieser Artikel.

Eine Roadmap für die Cloud

Ohne Beratung kann sich der Weg in die Cloud insbesondere für Unternehmen als steinig erweisen. Es gibt viele kleine Rädchen innerhalb von Organisationen und auch außerhalb in der Cloud, die zum Erfolg oder Misserfolg einer Einführung von Cloud-Services führen.

T-Systems bietet deshalb mit seinen "Cloud Readiness Services" ein Paket von Beratungsdienstleistungen und Lösungen für die Systemintegration, um Unternehmen die optimale Nutzung des Cloud Computing zu ermöglichen. Grundsätzlich sollen die "Cloud Readiness Services" Unternehmen dabei helfen, die Transformation der internen IT für das Cloud Computing zu bewerkstelligen und sie bei der gesamten Planung und Durchführung unterstützen. Das Paket setzt sich aus den drei aufeinander aufbauenden Bereichen "Cloud Readiness Assessment", "Cloud Migration & Integration" sowie "Cloud Optimierung" zusammen.

Das Cloud Readiness Assessment gehört zu den Cloud Readiness Services von T-Systems und trägt zur ganzheitlichen Cloud Computing Beratung bei.
Foto: T-Systems

Mit Hilfe des "Cloud Readiness Assessment" wird zunächst der sogenannte Current Mode of Operation (CMO) ermittelt, um anschließend auf dessen Basis den "Future Mode" (FMO) bestimmen zu können. Neben der ITK-Architektur werden zudem die Infrastruktur, sämtliche Anwendungen und darüber hinaus die grundlegende Unternehmensarchitektur, darunter die Geschäftsstrategie und die Geschäftsprozesse, betrachtet. Aus diesen vorbereitenden Schritten wird im Anschluss eine gemeinsame Cloud-Strategie entwickelt und die Cloud-Roadmap, also der eigentliche Weg in die Cloud, erarbeitet.

Mit der Systemintegrationslösung Fit4DCS migiert T-Systems die Anwendungslandschaften seiner Kunden auf sein Cloud Computing Plattform.
Foto: T-Systems

Den nächsten Bereich, "Cloud Migration & Integration", bezeichnet T-Systems auch als "Fit4DCS". Er beinhaltet sämtliche Systemintegrationslösungen für die Transformation der Unternehmens-IT hin zum Cloud Computing. Dabei besteht "Fit4DCS" aus vier aufeinanderfolgenden Phasen: Zunächst erfolgt die Analyse der Anwendungslandschaft des Unternehmens. Daraus werden die jeweiligen Applikationen und Technologie Stacks dem sogenannten Dynamic-Services-Modell zugewiesen. Darauf folgen das Erstellen einer Roadmap für die Migration sowie die eigentliche Anwendungsmigration und die Testläufe.

Der letzte Bereich "Cloud-Optimierung" umfasst weitere Beratungsleistungen und Lösungen für die Systemintegration. Hierunter fallen Themen wie die Prüfung von Altanwendungen, die aus technischen oder wirtschaftlichen Gründen nicht in die Cloud migriert wurden, um zu sehen, wie diese etwa durch Modernisierung doch noch in die Cloud übernommen werden können.

Kunde bleibt Herrscher über die eigene Cloud

Mit seinem Application Performance Management hilft T-Systems seinen Kunden dabei, auch im Zeitalter überlasteter Netze schnelle Antwortzeiten von den Anwendungen zu erhalten.
Foto: T-Systems

Die grundlegenden Eigenschaften des Cloud Computing sind Skalierbarkeit, Flexibilität und Verfügbarkeit. Alle drei Bereiche führen zu einer höheren Dynamisierung bei der Nutzung von IT-Ressourcen und fördern die Agilität innerhalb des Unternehmens, da die IT schneller auf die Anforderungen der Fachabteilungen reagieren und die benötigen Ressourcen bereitstellen kann.

Diese Art der flexiblen Ressourcenzuteilung ist allerdings nur direkt an der "Front", also in der Infrastruktur sichtbar und zu beeinflussen. Hier setzt T-Systems mit seinem Infrastructure-as-a-Service-Angebot "Dynamic Services for Infrastructure" an: Es stellt Unternehmen virtualisierte Ressourcen innerhalb einer Private-Cloud-Umgebung bereit.

Über sichere Netzwerkverbindungen wie MPLS (Multiprotocol Label Switching) und IP-VPN (Virtual Private Network auf der Basis von IP) wird dann eine dedizierte Verbindung zwischen dem Unternehmensnetz und dem T-Systems Rechenzentrum hergestellt. Mit Hilfe eines Self-Service-Portals erhalten Kunden die Möglichkeit, sich eine eigene virtuelle Infrastruktur zusammenzubauen und diese dort ebenfalls zu verwalten und den Ressourcenbedarf entweder manuell oder automatisiert anzupassen.

Zwei Virtualisierungs-Varianten

Hier unterscheidet T-Systems zwischen zwei Varianten. Die erste beinhaltet nur die virtualisierte Hardware. Das bedeutet, dass der Kunde selbst die Konfiguration bezüglich Rechenleistung und Arbeitsspeicher der virtuellen Maschinen vornimmt und sich darüber hinaus persistenten Speicher hinzumieten kann. Die zweite Variante geht einen Schritt weiter.

Dabei stehen die virtualisierte Hardware und zusätzliche Appliances zur Verfügung. Eine Appliance ist ein für bestimmte Anwendungen vorkonfiguriertes System. Das bedeutet, dass auf die virtuelle Maschine zusätzlich noch ein Betriebssystem inklusive möglicher Anwendungen installiert wird. Für die Appliance kann entweder ein durch T-Systems vorkonfiguriertes und bereitgestelltes Image oder ein eigenes Image genutzt werden.

Eine virtuelle Maschine kann mit 512 MB bis 64 GB RAM ausgestattet werden und über eine Gesamtrechenleistung von 160.000 tpmC verfügen. Diese wird auf eine bis acht virtuelle CPUs aufgeteilt. Die "Dynamic Services for Infrastructure" bieten dazu beispielsweise die folgenden Konfigurationen: vServer "Small" mit 1x vCPU 32 / 64 Bit, 1x PU (= 10.000 tpmC) und 512 MB RAM. vServer "Medium" mit 1x vCPU 32 / 64 Bit, 8x PU (= 80.000 tpmC) und 3,5 GB RAM. vServer "Large" mit 2x vCPU 32 / 64 Bit, 16x PU (= 160.000 tpmC) und 12 GB RAM. Eine PU (Processing Unit) ist eine T-Systems spezifische Einheit, die mit dem TPC-Benchmark ermittelt wurde. Dabei entspricht eine PU genau 10.000 tpmC.

Anders als bei den anderen großen Infrastructure-as-a-Service Anbietern handelt es sich bei T-Systems um ein rein deutsches Unternehmen, das somit auch dem deutschen Rechtsrahmen verpflichtet und dem weltweit höchsten Datenschutzniveau entspricht. Darüber hinaus werden die Daten ausschließlich in deutschen Rechenzentren gespeichert, was ebenfalls in einem entsprechenden Rahmenvertrag inklusive Service Level Agreements festgehalten wird.

Acht Tipps für virtuelle Clients
CIO der Dekade
Die begehrten Pokale gab es für insgesamt sechs Preisträger.
CIO der Dekade
Klaus Straub, CIO der Audi AG, ist CIO der Dekade. Neben dem Pokal nahm er von Moderatorin Katrin Müller-Hohenstein eine Flasche Rotwein aus dem Jahr 2001 entgegen.
CIO der Dekade
Und noch ein Preis für Klaus Straub: Die Gewinner der Kategorie "Wertbeitrag der IT" sind Audi-CIO Klaus Straub (links) und - nicht im Bild - Michael Gorriz, CIO der Daimler AG. Frank Riemensperger, Vorsitzender der Geschäftsleitung von Accenture, hielt die Laudatio für beide Preisträger in dieser Kategorie.
CIO der Dekade
Gewinner der Kategorie "Überzeugungsstärke im Unternehmen": Rainer Janßen, CIO der Munich Re zusammen mit Moderatorin Katrin Müller-Hohenstein auf der Bühne.
CIO der Dekade
Gewinner der Kategorie "Internationale Ausrichtung": Guus Dekkers (links), CIO bei EADS und Patrick Naef, CIO von Emirates.
CIO der Dekade
Gewinner in der Kategorie "Strahlkraft in die Gesellschaft": Lufthansa-CIO Thomas Endres (links) neben Johannes Pruchnow, Managing Director Business bei Telefónica.
CIO der Dekade
Alle anwesenden Preisträger.

Cloud Collaboration á la T-Systems

Cloud Computing ermöglicht nicht nur die flexible Ressourcennutzung von virtueller Hardware, sondern trägt auch zu einer besseren Zusammenarbeit der Mitarbeiter bei. Auf Basis von Software-as-a-Service- oder Platform-as-a-Service-Lösungen erhalten Mitarbeiter die Möglichkeit, in Echtzeit von unterschiedlichen Orten aus etwa an ein und demselben Dokument zu arbeiten. Hier existieren bereits viele Kollaborationslösungen, die in der Regel als Public Cloud Service angeboten werden.

Die Dynamic Services for Collaboration sind das Pendant von Microsoft Office 365 in der T-Systems Cloud.
Foto: T-Systems

T-Systems hat sein Cloud Service Portfolio in diesem Bereich mit seinen "Dynamic Services for Collaboration" angereichert. Ähnlich dem bekannten Office 365 von Microsoft bietet das Unternehmen eine Private-Cloud-Umgebung in deutschen Rechenzentren, die dem deutschen Datenschutzrecht und deutschen Datensicherheitsbestimmungen unterliegen. Auf Basis einer Allianz mit Microsoft bietet T-Systems Messaging-, Collaboration- sowie Communication-Lösungen an. Es handelt sich bei den "Dynamic Services for Collaboration" quasi um ein Microsoft Office 365 á la T-Systems.

Die Messaging Lösung auf Basis von Microsoft Exchange 2010 umfasst dabei E-Mail- und Kalenderfunktionen. Die Collaboration Lösungen werden durch einen Microsoft SharePoint 2010 realisiert und beinhalten Möglichkeiten für den Aufbau eines Portals für Web-Content, Dokumentenablage sowie Social Networking und Präsentationen. Auf Basis von Microsoft Lync 2010 können Unternehmen zudem Echtzeit-Kollaborationslösungen wie Instant-Messaging und Konferenzen beziehen.

T-Systems übernimmt Updates und Upgrades

Im Vergleich zu einer gehosteten Public-Cloud-Lösung direkt von Microsoft haben Unternehmen bei T-Systems den Vorteil, nicht auf Updates oder Upgrades von Microsoft angewiesen zu sein, beziehungsweise auf diese zunächst zu verzichten. Dieses wird stattdessen durch T-Systems übernommen. Dasselbe gilt für das Auditing beispielsweise eines Rechenzentrums oder der Infrastruktur. Im Normalfall erhält ein Kunde nicht die Erlaubnis, einen eigenen Audit bei seinem Cloud-Anbieter vorzunehmen, um so die geforderten Compliance-, Datenschutz- und weiteren Sicherheitsanforderungen zu überprüfen.

T-Systems lässt - nach eigenen Angaben und selbstverständlich nach Absprache - ein personalisiertes Audit zu. Neben diesen Unterschieden zur Nutzung eines Standard-Public-Cloud-Angebots sind die "Dynamic Services for Collaboration" zudem anpassbar. Das bedeutet, dass die Sharepoint Services bei Bedarf in die Webseite des Unternehmens oder in die bestehenden Geschäftsprozesse individuell integriert werden.

Die Abrechnung der "Dynamic Services for Collaboration" erfolgt nach dem Verbrauch. So werden bei einer Anzahl von 10.000 Benutzern zirka 13 EUR pro Benutzer pro Monat berechnet. Im Preis enthalten sind dann die Lizenzen für die Serverinfrastruktur und der Benutzerzugriff (Standard CALs). Die Abrechnung wird jedoch von Kunde zu Kunde individuell vorgenommen.

T-Systems garantiert ein Service Level mit einer Verfügbarkeit von 99,9 Prozent bei 365 x 24 x 7 Betrieb, dass durch die Spiegelung der Kundensysteme auf mehrere Rechenzentren (Twin-Core-Rechenzentrum) in Deutschland gewährleistet werden soll. Zudem erhält jeder Kunde ein eigenes, von anderen Kunden getrenntes VLAN, ein Teilstück, um die Sicherheit innerhalb des Mehrbenutzersystems sicherzustellen.

Vor- und Nachteile einer Sicherung in der Cloud
Alles sicher(n) in der Cloud?
Eine Speicherung der eigenen Daten außerhalb des eigenen Büros beziehungsweise der eigenen Firma bietet Vor- und Nachteile:
Vorteile einer Sicherung in der Cloud
Eine Speicherung der eigenen Daten außerhalb des eigenen Büros beziehungsweise der eigenen Firma bietet eine Menge Vorteile:
Vorteil 1:
Bereitstellung und Betreuung von Speichersystemen und -Medien im eigenen Büro/Unternehmen entfallen in der Regel komplett.
Vorteil 2:
Grundsätzlich gibt es keine Beschränkung in Bezug auf den Speicherplatz: Wer mehr Platz für seine Daten braucht, erwirbt einfach zusätzlichen Speicherplatz von seinem Provider.
Vorteil 3:
Dadurch sind natürlich auch die Kosten besser kalkulierbar. Der Anwender zahlt nicht mehr für die Hardware, deren Betreuung und Betrieb. Er zahlt nur für den Speicherplatz und die damit verbundenen Dienste.
Vorteil 4:
Zudem hosten professionelle Anbieter ihre Storage-Angebote in Rechenzentren mit einer entsprechend hohen Sicherheit. Sie garantierten Backups und damit auch eine Wiederherstellung der Daten.
Nachteile einer Sicherung in der Cloud
Neben diesen offensichtlichen Vorteilen sollte man sich aber auch der Probleme bewusst sein, die beim Einsatz einer derartigen Lösung auftauchen können:
Nachteil 1:
Eine schnelle und stabile Anbindung an das Internet ist Pflicht - ohne sie ist eine solche Lösung nicht sinnvoll: In einer ländlichen Gegend sollte also zunächst einmal sichergestellt werden, dass eine entsprechende Internet-Verbindung überhaupt verfügbar ist.
Nachteil 2:
Ebenso wichtig ist ein vertrauenswürdiger Provider: Ein Anwender möchte gerne wissen, wer seine Daten wo (in Deutschland/ Europa oder gar auf einem anderen Kontinent?) speichert und sichert.
Nachteil 3:
Mindestens so wichtig: Die Kontinuität des gewählten Dienstes/Dienstleisters, denn niemand möchte jedes Jahr nach einem neuen Anbieter suchen, weil der gewählte Provider die Dienste vielleicht aus Rentabilitätsgründen einstellt.
Nachteil 4:
Die Sicherheit und hier speziell die Sicherheit der Übertragung: Im Idealfall stellt der Anbieter eine End-to-End-Verschlüsselung bereit und die Daten werden auf seinen Systemen nur verschlüsselt abgelegt, so dass selbst die Systemspezialisten des Providers diese Daten nicht einsehen können.

Unternehmensanwendung on Demand

Eine von vielen Herausforderungen der Unternehmens-IT besteht im Betrieb von geschäftskritischen Anwendungen. Dazu gehören neben ERP und CRM auch Software für das Personalmanagement und natürlich Systeme, die für die Öffentlichkeit, also Kunden bestimmt sind.

T-Systems Zentrale in Frankfurt.
Foto: T-Systems

Diese Systeme gilt es durch die eigene IT-Abteilung zu installieren, zu konfigurieren und insbesondere ständig zu aktualisieren. Hinzu kommen komplexe Zusammenhänge zwischen der Middleware und den Infrastruktur-Komponenten. Hier setzt T-Systems mit seinen "Dynamic Services for Business Applications" an. Dabei ist der Anbieter für den Betrieb, die Pflege und Wartung von Systemen wie Middleware, Datenbanken und Unternehmensanwendungen zuständig und stellt die Sicherheit, das Benutzermanagement, Logging und das Performance Management sicher.

In Zukunft möchte T-Systems zudem ein Platform-as-a-Service (PaaS-)Cloud-Angebot inklusive eines umfangreichen Customer-Self-Service-Portal zur Verfügung stellen, mit dem die Bereitstellung von Applikations-Landschaften mit einem Mausklick vorgenommen werden kann.

T-Systems verspricht Unternehmen durch die Nutzung der "Dynamic Services for Business Applications" durchschnittliche Kosteneinsparungen von ca. 30 Prozent im Vergleich zum eigenen Hosting der Anwendungslandschaft.

Ein Beispiel der "Dynamic Services for Business Applications" sind die Application Operations for SAP Solutions. Dabei werden die SAP-Anwendungen in den T-Systems Rechenzentren gehostet, wodurch der Betrieb der kompletten SAP-Landschaft durch T-Systems übernommen wird. T-Systems sorgt somit dafür, dass die SAP-Services technologisch auf dem neuesten Stand bleiben.

Unternehmen können sich entweder per MPLS (Multi Protocol Label Switching) oder Internet VPN (Virtual Private Network) mit den SAP-Systemen verbinden, wodurch eine schnelle und sichere Verbindung garantiert wird. Neben den Infrastruktur-Services gehören die Beratung, Konfiguration, Installation, Inbetriebnahme und Überwachung zu den Application Operations for SAP Solutions.

So schützen Sie sich vor Cloud Katastrophen
So schützen Sie sich vor Cloud Katastrophen
"Die Cloud hat keine Fehler, die es zuvor nicht auch beim In-House-Betrieb gegeben hat", meint Rackspace CSO Moorman. Eine absolute Sicherheit gibt es auch mit der Cloud nicht. Wer sich dessen bewusst ist, wird nicht unvorbereitet in einen Wolkenbruch geraten. Unsere Tipps für Sie:
Tipp 1:
Wenn Sie einen Teil ihrer IT in die Cloud verlagern wollen, sollten sie bei der System-Planung Verluste und Ausfälle von Anfang an berücksichtigen.
Tipp 2:
Wenn es um ihre Daten geht, sollte Sie nicht auf andere vertrauen, sondern sich selber darum kümmern. Sorgen Sie selbst für ein Backup und überprüfen sie das Disaster Recovery-Setup Ihres Cloud-Providers.
Tipp 3:
Es ist nicht unbedingt nötig, alle Daten doppelt zu sichern. Ein zusätzliches Backup der kritischsten Daten kann aber sinnvoll sein.
Tipp 4:
Cloud-Nutzer sollten gründlich auf die Sicherungsmechanismen achten und eventuell vorsorglich eine Backup- oder Offline-Zugriffs-Lösung aufsetzen.
Tipp 5:
Bei Cloud-Diensten kann es sinnvoll sein, Daten auf verschiedenen Servern in unterschiedlichen Rechenzentren zu sichern – Es lohnt sich auch, die Dienste mehrerer Provider zu nutzen.
Tipp 6:
Sie sollten sich folgende Frage stellen: Ist es für unser Unternehmen tragbar, wenn Geschäftsdaten temporär nicht abrufbar sind?

Cloud-Anwendungen mit Höchstgeschwindigkeit nutzen

Mit seinen "Dynamic Services for Infrastructure" stellt T-Systems ein IaaS Angebot auf Basis einer Virtual Private Cloud bereit, mit der Unternehmen ein eigenes virtuelles Rechenzentrum innerhalb einer geschützten Umgebung in einem deutschen Rechenzentrum aufbauen können.
Foto: T-Systems

Ein Problem, das Unternehmen und die ganze IT-Branche nicht erst seit dem Aufkommen des Cloud Computing beschäftigt, ist die Performance der Netze. Das gilt zum einen für das Internet, aber ebenso für die internen Unternehmensnetze oder dedizierte WAN-Verbindungen. Diese Problematik ist in erster Linie auf die eingesetzten Anwendungen und deren Kommunikationsfreudigkeit zurückzuführen. Mit Cloud Computing verschärft sich die Situation jedoch dramatisch.

Anwendungen werden nun nicht mehr nur lokal betrieben oder müssen via Client-Server-Architektur ihre Daten laden und speichern. Die gesamte Verarbeitung inklusive Ein- und Ausgabe der Daten findet nun in der Ferne - in der Regel auf einem Server - über das Internet statt.

Es werden also auch mehr sicherheitskritische Bits in den Netzen bewegt. Das hat auch T-Systems erkannt und versucht mit seinen "Advanced Network Services" und dem darin enthaltenen Angebot "Application Performance Management" Lösungen dafür zu finden.

Zum Portfolio der "Advanced Network Services" zählen neben der Beratung, der Analyse und dem Design auch das Projektmanagement, die Dokumentation und Schulungen. Alles zusammen soll Unternehmen helfen, ihre Netze performanter zu betreiben und Anwendungen leistungsfähig und bedarfsgerecht über das Netz zu beziehen. Das "Application Performance Management" ist ein Teil dieses Portfolios und soll dabei unterstützen, die Performance im WAN zu erhöhen und die Übertragungsqualität sicherzustellen, indem den bekannten Problemen wie die Latenz oder Jitter entgegengewirkt wird.

Neben der Kontrolle der Qualität und der Sicherstellung der Performance für den Endnutzer besteht die Aufgabe darüber hinaus darin, die Anwendungslaufzeit zu optimieren, indem etwa die Doppelübertragung von Daten vermieden wird.

Application Performance Management

Das "Application Performance Management" setzt sich aus den drei Modulen ICT Analyse, ICT Monitor und ICT Optimize zusammen. ICT Analyse erstellt auf Basis von Beratungsdienstleistungen umfangreiche Leistungsanalysen der Anwendungen, der Netzinfrastruktur sowie der Geschäftsprozesse eines Unternehmens. Anhand dieser Ergebnisse werden individuelle Strategien sowie Optimierungs- und Monitoring-Prozesse entwickelt.

Mit ICT Monitor werden fortlaufende Analysen der Qualitäts- und der Performance-Kontrolle der ICT-Infrastruktur des Unternehmens vorgenommen. Die daraus resultierenden Ergebnisse können sowohl annähernd in Echtzeit als auch für bestimmte Intervalle abgerufen und ausgewertet werden, wodurch in kürzester Zeit zu erkennen ist, wer mit welcher Anwendung wann und warum Performance-Probleme hat. Das dritte Modul ICT Optimize ist für die Optimierung des Datenverkehrs zuständig.

Damit sollen redundante Datenübertragungen und komprimierte Datenpakete verhindert und das TCP-Protokoll optimiert werden. Zudem soll die Übertragungsleistung von (Cloud)-Anwendungen mit der Application-Acceleration-Technologie verbessert werden. Damit verspricht T-Systems eine Beschleunigung des Datenverkehrs um das 20- bis 50-fache.

Mobil in der Magenta-farbenen Cloud

Die Mobilität der Mitarbeiter hat in den vergangenen Jahren stark zugenommen und gewinnt weiter an Bedeutung. So sieht T-Systems in den kommenden drei Jahren mobile Endgeräte wie Smartphones und Tablets in 20 bis 30 Prozent der Unternehmen als primäres Arbeitsgerät für die "Knowledge Worker".

Daher hat sich der Anbieter mit seinen "Mobile Enterprise Services" Gedanken gemacht, wie die Produktivität der Mitarbeiter durch die Nutzung von Tablets und dem damit verbundenen Einsatz von E-Mail, Kalender und weiteren Kollaborationstools sowie der Zugriff auf Geschäftsanwendungen verbessert werden können und wie Unternehmen iPhones und iPads in die IT-Infrastruktur integrieren können.

Die Bonner bieten dazu unterschiedliche Lösungen für den Einsatz mobiler Technologien im Unternehmen. So wird mit den "Mobile Workplace Services" etwa das komplette Management der mobilen Endgeräte eines Unternehmens übernommen. Das beinhaltet die Wartung der Geräte sowie die Aktualisierung der Gerätesoftware und die Installation von mobilen Applikationen. Das "Mobile Device Management" verlagert die Administrationsaufgaben auf die Seite des Unternehmens selbst.

Engeräteverwaltung als SaaS-Lösung

Hierbei stellt T-Systems eine Software-as-a-Service-Lösung bereit, mit der die Endgeräte verwaltet werden können. Damit kann die IT-Abteilung selbst weitere Software installieren sowie Anwendungen sperren oder Daten verschlüsseln. Mit den "Mobile Standard Applications" ermöglicht T-Systems das Nutzen von Standardapplikationen auf den mobilen Endgeräten. Damit sind Mitarbeiter in der Lage, zum Beispiel SAP-Funktionen wie das Genehmigen einer Beschaffung überall vorzunehmen.

Die Welt wird immer mobiler und der Durchbruch der Mobile Cloud steht kurz bevor. Mit seinen Mobile Enterprise Services hilft T-Systems seinen Kunden dabei auch das mobile Zeitalter mit dem Cloud Computing zu verbinden.
Foto: T-Systems

Die Motivation von T-Systems, Unternehmen zu helfen, iPhones und iPads in die IT-Infrastruktur und die Prozesse zu integrieren, findet sich im Angebot "Managed Mobile Service für iPhone und iPad" wieder. Damit können Unternehmen zu einem Festpreis von 2.999 Euro netto den "Mobile Workplace Service" über einen Zeitraum von 6 Wochen mit bis zu 10 Apple Geräten (iPhone ab 3GS und / oder iPad, Version 4.2.1) nutzen.

Im Angebot enthalten sind ein Setup-Workshop vor Ort, in dem der "Mobile Workplace Service" gemeinsam definiert wird, sowie die Anbindung an die E-Mail-Infrastruktur auf Basis von Microsoft Exchange und den Push-Service via ActiveSync. Darüber hinaus wird die E-Mail-Konfiguration der mobilen Endgeräte und deren Integration in die Security Policy sowie die Konfiguration des mobilen App-Stores vorgenommen.

Fazit

Das Cloud-Portfolio von T-Systems ist gut durchdacht und abgerundet. Der Anbieter konzentriert sich nicht ausschließlich auf die Auslieferung von Cloud-Services, sondern reichert diese mit umfangreichen Beratungsdienstleistungen an.

Mit seinen aufeinander abgestimmten Lösungen für Unternehmen erscheint T-Systems unterm Strich attraktiver als ein Cloud-Anbieter, der sich "nur" auf die Auslieferung von Cloud Services spezialisiert. Bei der Entwicklung des Portfolios verbinden die Bonner zudem das Thema Mobility mit Cloud Computing. Sie sind damit insbesondere den Public-Cloud-Anbietern einen Schritt voraus.

Ein weiterer nicht zu unterschätzender Vorteil ist der Unternehmenssitz in Deutschland und das deutsche Datenschutzrecht, dem T-Systems damit unterliegt. Alle Verträge, die Kunden mit T-Systems Deutschland schließen, fallen somit unter deutsches Recht. Insbesondere in den aktuellen Diskussionen um den Patriot Act und dem damit verbundenen unbemerkten Zugriff der US-Regierung auf Kundendaten in den Rechenzentren US-amerikanischer Anbieter ist das ein Wettbewerbsvorteil. Wie sich die Mobile Services weiter entwickeln werden und ob T-Systems hier - ähnlich der "Telekom Cloud" - ein Angebot für Geschäftskunden entwickeln wird, bleibt abzuwarten. (wh)

Die Geschichte der Telekom
Die Geschichte der Telekom
Aufstieg, Krisen und Skandale. Wie sich die Telekom vom verkrusteten Staatsbetrieb zum internationalen ITK-Player entwickelte.
2015
Den Sponsoring-Vertrag mit dem FC Bayern München hat die Telekom bis 2017 verlängert.
Vectoring statt Glasfaser
Den Netzausbau treibt die Telekom nicht, wie viele wünschen, vor allem mit Glasfaser voran, sondern auch mit Vectoring, einer Technologie, die mehr aus den vorhandenen Kupferadern holen soll, aber auch beim Endkunden viel Strom verbraucht.
All-IP und IPTV
Mit dem IPTV-Service Entertain bringt die Telekom eine stetig steigende Programmflut nach überall.
November 2015
Das neue Twin-Core-Rechenzentrum der Telekom in Biere realisiert mit seinem unweit gelegenen Zwilling eine hochsichere Public Cloud.
Connected Car
Die Connected Cars, in deren Entwicklung die Telekom beträchtlich investiert, sind untereinander und stets auch mit einer (Telekom-)Cloud verbunden.
Smart Home
Mit Qivicon lassen sich alle vernetzten Systeme in Haushalten zentral steuern.
Smart City
In der mit Sensor- und M2M-Technik gespickten Smart City werden Autofahrer bei der Parkplatzsuche unterstützt.
Innovationen sollen die ...
... Telekom endlich dauerhaft aus der Defensive bringen. Zuständig dafür: der Leiter des P&I-Bereichs, Thomas Kiessling
Timotheus Höttges, ...
... muss sich unter anderem mit Altlasten aus dem US-Markteinstieg von T-Mobile herumschlagen. Zudem steht ein großer personeller Aderlass an mehreren Standorten bevor.
Neue Frauen für den Telekom-Vorstand:
Ex-McKinsey-Beraterin Claudia Nemat übernimmt den Bereich EMEA, Ex-Hochschulchefin Marion Schick die Personalleitung.
Noch Wüstenei, ...
... bald Deutschlands größtes Rechenzentrum: Bei Magdeburg baut die Telekom neue Ressourcen fürs Cloud-Geschäft
Noch-Telekom-Boss ...
... und der inzwischen verstorbene Apple-CES Steve Jobs feiern zusammen 20 Jahre Mobilfunk, natürlich mit dem iPhone
Mit neuen Anwendungen ...
... wie Smart Meters (siehe Bild) oder Remote-Gesundheitskontrolle versucht die Telekom, noch mehr Verkehr auf die Mobilnetze zu bringen und gleichzeitig neuartige Endgeräte zu verkaufen
Zur Mobile World 2011 ...
... präsentiert die Telekom ihren ersten LTE-Stick.
2008:
Fehltritt mit Folgen – Manfred Balz tritt als erster Vorstand für Datenschutz, Recht und Compliance der Telekom sein Amt an.
Anja Feldmann:
Feldmann leitet seit 2006 den Lehrstuhl für „Intelligent Networks“ und „Management of Distributed Systems“ der Deutsche Telekom Laboratories, einem An-Institut der Technischen Universität Berlin. Sie erhält den Leibnitz-Preis für ihre Konzepte eines Internet 2.
2007:
Friedrichshafens Oberbürgermeister Josef Büchelmeier, Ferdinand Tempel, Leiter T-City Repräsentanz und Bereichvorstand Technik T-Home Friedrich Fuß freuen sich über die Auswahl von Friedrichshafen als T-City.
2006:
Nach Kai-Uwe Ricke soll der ehemalige T-Online-Manager René Obermann Ordnung in das Telekom-Geschäft bringen.
Am 1. Januar 2005 ...
startete die LKW-Maut, an deren Realisierung T-Systems maßgeblich beteiligt war.
Von 2002 bis 2006 ...
steuerte Kai-Uwe Ricke als Telekom-Vorstand die Geschicke des Unternehmens.
2000:
Der schicke Robert T-Online wirbt für den Börsengang des gleichnamigen Telekom-Ablegers. Für die Anleger am Ende eine Pleite. Insofern wäre ein Pleitegeier wohl das bessere Symbol gewesen.
1998:
Die Regulierungsbehörde für Post und Telekommunikation – heute Bundesnetzagentur – die in diesem Gebäude in der Bonner Tulpenallee residiert, nimmt ihre Arbeit auf und sollte der Telekom noch viel Ärger bereiten.
1996:
28,50-DM-Mann (so hoch war der Aktienpreis für Privatanleger) Ron Sommer zieht als CEO den ersten Börsengang der Telekom durch.
Tim Berners Lee:
Der Erfinder des World Wide Web, das ab Anfang der 90er seinen Siegeszug antrat und auch das Geschäft der Telekom mit DSL-Anschlüssen beflügelte.
Start des D1-Netzes 1992:
Dieser Chip machte es möglich, über D1 zu telefonieren
Erst 1966 ...
wurde die letzte Handvermittlungsstelle auf automatisierten Betrieb umgestellt. Das Fräulein vom Amt starb aus.
1965:
Telefonieren auch in die USA über den Satelliten Early Bird.
1961:
Für heutige Verhältnisse gigantisch mutete das erste Telefon für das A-Netz an, das 1958 startete.
1904 ...
installierte Quante in Berlin die erste Telefonzelle
1877 ...
funktionierte in Berlin das erste Telefon, hergestellt von Siemens.