Das Jahrzehnt der Consumerization und Vernetzung

10 Jahre Top 100

30.09.2013
Von 
Jan-Bernd Meyer betreute als leitender Redakteur Sonderpublikationen und -projekte der COMPUTERWOCHE. Auch für die im Auftrag der Deutschen Messe AG publizierten "CeBIT News" war Meyer zuständig. Inhaltlich betreute er darüber hinaus Hardware- und Green-IT- bzw. Nachhaltigkeitsthemen sowie alles was mit politischen Hintergründen in der ITK-Szene zu tun hat.
Nach den Befürchtungen um den Millennium-Bug, der zur Jahrtausendwende weitgehend unbemerkt in die Geschichte einging, und den Höhen und Tiefen der Dotcom-Ära ist die IT das folgende Jahrzehnt relativ entspannt angegangen.

Das änderte sich als der Harvard-Studienanfänger Mark Zuckerberg in seinem Studentenwohnheim im Oktober 2003 „Facemash“ programmierte. Innerhalb weniger Monate verbreitete sich „Thefacebook“ auf andere Eliteuniversitäten der Vereinigten Staaten von Amerika. Es wurde zum globalen Phänomen, das – zusammen mit anderen sozialen Netzen – buchstäblich die Gesellschaft veränderte. Connectivity war nicht mehr genug. Jetzt ging es darum, miteinander verbunden zu sein.

Entwicklung in der Hardware

In Sachen Hardware hielt der Trend zu immer leistungsfähigerer Komponenten an. AMD und Intel stellten Multi-Core-Prozessoren vor. Die Ankündigung, dass der gemeinsam von IBM, Toshiba und Sony entwickelte Multi- Kern-Prozessor „Cell“ die „Playstation- 3“-Spielekonsole antreiben würde, war ein Signal für weitere zu erwartende wegweisende Veränderungen. In dem Maße, in dem für Konsumenten gedachte Geräte leistungsfähiger wurden, bereitete sich die Bühne für einen Trend, der heute als „Consumerization of IT“ ein Gemeinplatz geworden ist.

Was folgte, ist bekannt: Die Anwender bekamen immer leistungsstärkere Geräte in die Hände, flankiert wurde diese Entwicklung von hilfreicher Software sowie Dienstleistungen aus dem Web – nicht selten kostenlos zu beziehen. wie etwa Business Intelligence (BI) und Customer-Relationship-Management (CRM) geschuldet. Die Aktivitäten in der Online-Welt steigerten sich kontinuierlich, und die Geschäftswelt begann, sich zunehmend Gedanken über die Potenziale des Internets zu machen, um die Geschäfte im Web zu unterstützen.

Gleichzeitig aber lief eine subtilere Veränderung an. IT-Frischlinge wie Google oder Salesforce.com erkannten frühzeitig die Chancen, die sich mit der digitalen Welt bieten würde. Unter anderem wurde jetzt die Idee des Cloud Computings geboren. Demgegenüber waren etablierte Anbieter wie beispielsweise Microsoft immer noch ihrem Produkt- In der Folge verloren traditionelle ITAbteilungen zunehmend die Kontrolle über die Anwender. Diese befreiten sich peu à peu aus der Umklammerung und Kontrolle, die bis dahin in der Welt der Geschäfts-IT die Regel waren. Diese Entwicklung hatte – in schöner IT-Tradition – auch ein Akronym: Bring your own Device (ByoD) war geboren.

Fusionen und Zukäufe

Fusionen und Zukäufe gehörten auch im abgelaufenen Jahrzehnt, in dem sich die Branche konsolidierte, zu den Standardthemen. Einige waren dabei erfolgreicher als andere. Umsätze stiegen mit den wachsenden IT-Investments. Die Ausgaben waren neuen Entwicklungen. modell verhaftet, das immer mehr Rechenpower am Frontend vorsah.

Anwender wurden immer vertrauter mit der Nutzung des Internets und gewöhnten sich unter anderem daran, das Web als gigantisches Kaufhaus anzusehen. Davon profitierten Firmen wie Ebay oder Amazon. Letzterer konnte erstmals im Jahr 2003 einen Unternehmensgewinn ausweisen. Im Jahr 2012 übertrafen die gesamten E-Commerce-Verkäufe erstmals die Eine-Billion-Dollar-Marke. Diese Entwicklung beschleunigt sich weiter.

Fragezeichen Cloud

Allerdings wird die Bereitschaft, Cloud-Service-Konzepte (etwa das Zurverfügungstellen von Rechenleistung und Speicherkapazitäten und sonstiger Services) anzunehmen, immer noch von Sicherheits- und Datenschutzbedenken sowie von komplexen und teils uneinheitlichen gesetzlichen Vorgaben behindert. Wenn wir auf die vergangenen zehn Jahre zurückblicken, vergessen wir nur zu gern, wie rasend schnell sich die Technik in unserem privaten Leben und in der Geschäftswelt eingenistet hat. Das ist nirgends augenscheinlicher als in der Welt der mobilen Geräte. Das vergangene Jahrzehnt war dasjenige, in dem Mobiltelefone erwachsen wurden.

Startschuss für Transformation

Obwohl es uns wie Altertumsgeschichte vorkommt, war es „erst“ der 9. Januar 2007, als Steve Jobs das iPhone vorstellte. Damit gab er den Startschuss für die Transformation einer ganzen Industrie. Der bisherige Platzhirsch Nokia verstand die entscheidende Weichenstellung überhaupt nicht, die sich auftat. Im Lauf der kommenden Jahre verlor das finnische Unternehmen zunehmend an Boden gegenüber Apple und einer Reihe asiatischer Firmen wie LG, Samsung und anderen.

Als das iPhone erstmals in die Läden kam, bildeten sich lange Schlangen von Kaufwilligen, die das neue Gerät besitzen wollten. Damit gewann die IT-Industrie wieder etwas an Glanz, nachdem sie zuletzt etwas langweilig geworden war. Apple erfand aber auch die Art und Weise neu, wie Applikationen entwickelt und vertrieben wurden. Hierzu bauten die Kalifornier auf dem Fundament ihrer iTunes-Plattform ihren App Store auf. Steve Jobs gab sich aber nicht damit zufrieden, den Markt für Mobiltelefone neu zu definieren.

Nur drei Jahre nach der iPhone-Einführung stellte er das iPad vor – in einer Welt, die bevölkert war von Laptops und kostengünstigen Netbooks. Marktexperten zeigten sich ob des neuen Produkts skeptisch – aber den Nutzern war das völlig egal. Die aus iPhone-Zeiten gewohnten Szenen vor den Apple-Geschäften wiederholten sich, und sie füllten wieder die Schlagzeilen der Medien.

Ära des Tablets und des 3D-Drucks

Die Ära der Tablets war geboren. Und obwohl IT-Abteilungen zunächst sehr zurückhaltend waren, diesen neuen Gerätetyp zu akzeptieren, sind iPads und mit Googles Betriebssystem Android arbeitende Konkurrenzprodukte heute in den Geschäftsalltag integriert. Beispielhaft für das sich ständig erweiternde Spektrum der IT sind die 3D-Drucker. Diese Gerätekategorie wird eine ähnliche Preisentwicklung nehmen wie Laserprinter vor Jahrzehnten – also immer kostengünstiger werden.

3D-Druck kann Produkte direkt aus einem Digital-Design heraus kreieren. Und das mit einer Vielzahl von Materialien. Die 3D-Druck Technik hat eindeutig ein disruptives Potenzial für Produktionsweisen und Lieferketten. Das vergangene Jahrzehnt war gekennzeichnet durch eine erhebliche Transformation der IT. Hatten IT-Abteilungen vormals die Kontrolle ausgeübt, wich dieses dominante Verhältnis nun einem anderen Szenario: In diesem machen auf Nutzerbedürfnisse zugeschnittene Gerätetypen die Handlungsvorgaben. Heute weisen Cloud- Dienstleistungs- und Applikations-Angebote den Weg.

Eine wesentliche Veränderung aus dem vergangenen Jahrzehnt ist, dass die Betonung nicht mehr darauf liegt, technisch „einfach“ verbunden zu sein. Die heutige IT-Welt ist charakterisiert durch das Bedürfnis der Anwender und Konsumenten, im weitesten Sinn angedockt zu haben an die Kommunikation der Welt: angekoppelt an Informationen, an Nachrichten, an Unterhaltungen, verbunden mit der Geschäftswelt, mit Freunden und zunehmend auch mit Dingen und Orten.

Web als Internet der Dinge

„Cloud“ und „Web“ mögen – zumindest als Begrifflichkeit – das Internet ersetzt haben. Aber dieses feiert seine Wiedergeburt als das Internet der Dinge oder, wie Einige formulieren, als Internet von allem oder Internet 4.0. Es wird Milliarden und Abermilliarden von „intelligenten“ Geräten mit Orten, Menschen, Dingen verbinden und damit unausweichlich die digitale Welt mit ihrem physischen Gegenüber verbandeln.

Mobile Geräte und soziale Netze tragen bei zum anschwellenden Daten-Ozean mit seinen Zettabyte an Informationen – eine Zahl mit 21 Nullen. Ausgefeilte Analysekonzepte werden Unternehmen helfen, Echtzeitdaten zu ihren Produkten zusammenzuschmieden mit der physischen Welt draußen, um Kundenwünsche zu verstehen und sich einen Wettbewerbsvorteil zu verschaffen. All diese Analysen werden nicht in eigenen Rechenzentren vorgehalten, sondern in der Cloud.

Welt ohne Geheimnisse

Gleichzeitig aber werden auch Regierungen diese Möglichkeiten nutzen, etwa um kriminelle oder terroristische Aktivitäten zu entdecken. In solch einer Welt wird es keine Geheimnisse mehr geben. In ihr werden bisherige Konzepte von Privatsphäre ersetzt durch das Prinzip der erzwungenen Transparenz. Zwangsläufig ergeben sich hieraus rechtliche und ethische Herausforderungen.

Wir werden eine akzeptable Balance finden müssen zwischen widerstreitenden Anforderungen, ein Gleichgewicht zwischen der Erzielung von Wettbewerbsvorteilen bei gleichzeitiger Förderung der nationalen Sicherheit und Gewährleistung des Datenschutzes. Von einer Annahme darf man heute schon ausgehen: Die kommende Dekade wird sich mehr um das Thema „Information“ drehen. Und weniger um Technik. (mhr)