Gartner: IT-Industrie im Umbruch

12.12.2005
Das Marktforschungs- und Beratungshaus erwartet gravierende Umwälzungen in der IT-Branche. Die wachsende Nachfrage privater Anwender beeinflusst die Produktpläne der Hersteller.
Gartner rechnet damit, dass die Virtualisierung von IT-Komponenten rasant zunimmt.
Gartner rechnet damit, dass die Virtualisierung von IT-Komponenten rasant zunimmt.

Nach Einschätzung der Gartner-Experten bestimmen vier Trends die Zukunft der IT: "Consumerisierung", Virtualisierung, der allgegenwärtige Zugang zu Informationen und die Verlagerung von unternehmenseigener IT hin zu extern bezogenen Dienstleistungen.

Hier lesen Sie …

• welche Trends den IT-Markt beeinflussen werden;

• warum Consumer-Produkte immer wichtiger werden;

• wie IT-Verantwortliche auf die Veränderungen reagieren sollten.

Gartner sieht das Wachstum der Consumer-Industrie als größten Einzelfaktor, der in der nächsten Dekade die Nachfrage in der Halbleiterindustrie antreiben wird. Der Endkundensektor werde aber auch andere Bereiche der Informationstechnik massiv beeinflussen. Beispielsweise werde die Position von Technikanbietern und großen Unternehmen schwächer, während Personen oder Gruppen, die Produkte mit Mehrwert ausstatten, mehr Bedeutung erlangen.

"Bis 2013 werden mehr als 200 Milliarden Prozessoren weltweit im Einsatz sein", davon geht Steve Prentice, Director Research Emea bei Gartner, aus. Gesteigerte Performance und neue Produktionstechniken sollen in den kommenden Jahren zu weiter erhöhten Bandbreiten führen und die Vorteile ausschöpfen, die dem Medium Glasfaser noch innewohnen. "Schon heute werden pro Tag mehr Informationen über ein einziges Kabel geschickt als noch 1997 in einem Monat über das gesamte Internet übertragen wurden", erklärt Prentice.

Höhere Bandbreite steigert IT-Nutzung

Gesteigerte Bandbreite und mehr Anschlüsse sollen die Nutzung und damit den generellen Wert des Netzes noch weiter steigern. "Und permanent fallende Preise für Speicher (um 32 Prozent pro Jahr) schüren den Hunger auf immer mehr Speicher", so der Analyst. Prentice erwartet, dass die Speicherlieferanten ihren Output von 21 Millionen Terabyte im Jahr 2004 auf 220 Millionen Terabyte 2009 erhöhen. "Gleichzeitig fällt der Preis von rund einem Dollar pro Gigabyte auf 20 Cent pro Gigabyte."

Der Trend zur "Consumerisation" wird die IT laut Prentice in den nächsten zehn Jahren am stärksten beeinflussen. Im Jahr 2013 sollen beispielsweise über 50 Prozent aller Chipverkäufe in Produkte für den Endkundenbereich gehen. "Die Grenzen zwischen Endverbraucher- und Unternehmenstechnik verschwinden. Die Technikakzeptanz der Anwender hat sich in den vergangenen zehn Jahren radikal verändert und wird sich in den nächsten fünf bis zehn Jahren noch gravierender ändern", so der Analyst.

Der Consumer-Markt gewinne in den kommenden zehn Jahren im Vergleich zum klassischen IT-Markt immer mehr an Bedeutung. Deutlich werde dies beispielsweise daran, dass neue Techniken zuerst im Endverbrauchermarkt Einzug halten und erst anschließend im gewerblichen Bereich. "Die meisten neuen Techniken, die von Unternehmen im Zeitraum zwischen 2007 und 2012 eingesetzt werden, entstammen dem Endverbrauchersegment." Die Aussicht auf hohe Verkaufszahlen mit entsprechenden Gewinnen habe viele Hersteller davon überzeugt, ihre Ressourcen in Produktentwicklungen und Dienstleistungen für Privatkunden zu investieren.

IT-Manager müssten lernen, wie mit solchen Konsumentenprodukten, beispielsweise Skype oder Google Desktop, umzugehen ist. Denn diese würden den Arbeitsalltag und Workflow durchdringen, so wie dies schon in der Vergangenheit mit Wi Fi, Smartphones oder Instant Messaging der Fall war. Widerstand dagegen sei sinnlos, stattdessen gelte es, den Mehrwert zu nutzen.

Virtualisierung erlaubt bessere Ressourcen-Auslastung

Prentice geht auch davon aus, dass die Virtualisierung von IT-Komponenten rasant zunimmt. Virtualisierung erlaubt, Daten zwischen verschiedenen Umgebungen auszutauschen. Mit Hilfe virtueller Speicher lassen sich die vorhandenen Ressourcen nicht nur besser verwalten, sondern auch besser nutzen. Die Virtualisierung erlaubt die Trennung von Applikations-Server und physikalischem Datenspeicher. Anwendungen kann Speicherplatz "just in time" zur Verfügung gestellt werden, was sowohl die Speicherkosten als auch die Kosten für die Administration verringert.

"Die Virtualisierung kann die Verwendung von IT-Ressourcen verbessern und die Flexibilität sowie Verfügbarkeit steigern. Der Infrastruktur wird es damit ermöglicht, sich schneller auf veränderte Anforderungen und Workloads einzustellen", schildert Prentice. Virtualisierungskonzepte seien auf Netzwerkebene bereits weitgehend ausgereift. Auch die Virtualisierung von Speicher und Servern sowie das Einrichten verschiedener virtueller Maschinen oder Partitionen auf einem einzigen Rechner nähmen zu.

"Bis 2012 wird die Zahl der drahtlosen Netzgeräte, die in den Fortune-1000-Unternehmen zum Einsatz kommen, mindestens auf das Fünffache steigen", prognostiziert Prentice das Anhalten des Trends zum permanent möglichen Zugriff auf Informationen im Netz. Er rät den DV-Verantwortlichen, schon heute die Möglichkeiten strategischer Applikationen im Bereich drahtlose Techniken auszuloten. "Funknetze wie RFID und andere Techniken werden enorme Mengen an nackten Daten liefern, die in wertvolle Informationen umgesetzt werden müssen. Die Explosion der Datenmenge wird neue Speicher- und Verarbeitungssysteme verlangen sowie neue Management-Anforderungen und Compliance-Verpflichtungen nach sich ziehen."

Automatisierte Systeme ersetzen Handbücher

Die Ära der Handbücher sei dann auch vorüber. Vielmehr werden automatisierte Systeme Einzug halten: Prentice nennt diese "self cognisant" - für sich selbst zuständig. Die Vision: "Sie konfigurieren sich selbst, reparieren sich selbst, managen sich selbst und können sich sogar selbst zerstören." Im Mittelpunkt dieses starken Zuwachses an Geräten für die drahtlose Kommunikation steht laut Prentice "die Annahme einer fast freien Kommunikationsinfrastruktur - das Internet".

IT-Manager sollten davon ausgehen, dass ihre künftige IT-Infrastruktur hybrid aufgebaut ist: Sie besteht dann nicht mehr nur aus unternehmenseigenen Systemen und Lösungen. "Daneben wird es eine Infrastruktur geben, die als Service genutzt wird", sagt Prentice. Er sieht eine Tendenz der Abkopplung vom Unternehmen - "weg vom physikalischen Besitz und hin zu einer virtuellen Infrastruktur, die in bestimmten Bereichen flexibler und agiler ist".

Realtime-Infrastruktur ist noch eine Vision

Das Konzept des "Utility Computing" oder auch "Power on Demand" ist laut Prentice noch unvollständig. Eine perfekte "Realtime-Infrastruktur" (RTI) dagegen ist eine IT-Infrastruktur, die von jenen Nutzern, Geschäftseinheiten oder Applikationen geteilt werden kann, die eine dynamische und automatische Optimierung der IT-Infrastruktur benötigen: "Damit lassen sich Kosten senken und gleichzeitig die Agilität und der Faktor Quality of Service verbessern."

Wohin geht die Reise? Laut Prentice wird ein "globales virtuelles Dorf" entstehen. In dieser Netzwerk-Ära werden die Mitglieder der Gesellschaft durch "smart networked objects" vernetzt, die Informationstechnik wird grundlegender Bestandteil der "realen" Welt sein. Wer in diesem Zukunftsszenario erfolgreich sein will, muss die richtigen strategischen Entscheidungen treffen, um sich auf den Zukunftsmärkten positionieren zu können. Die entscheidenden Erfolgsfaktoren sind laut Gart-ner sinkende IT-Kosten, höhere Flexibilität und eine verbesserte Qualität der Services. Ein Erfolgsgarant heißt für Prentice RTI. Damit lasse sich nicht nur Geld sparen, sondern es werde auch eine neue Unternehmensphilosophie etabliert - mit neuen Definitionen von IT-Infrastruktur und -Architektur. (wh)