Web

 

Technologie-Ausblick für 2002

08.01.2002
0

MÜNCHEN (COMPUTERWOCHE) - Welche Entwicklungen in Sachen Software, Hardware und Netzwerktechnik hält das laufende Jahr bereit? Die COMPUTERWOCHE-Redakteure Peter Gruber und Stefan Überhorst aus dem Ressort "Produkte und Technologien" wagen einen Blick in die Glaskugel.

"Web-Services - Mythos oder Realität?" Diese Frage zu einem im letzten Jahr aufgekommenen Hype-Thema glaubt die Meta Group klar beantworten zu können: Beginnend 2002 werde sich diese Technologie in den nächsten vier Jahren vor allem durch die in den Unternehmen aufkommenden Aktivitäten im Bereich Enterprise Application Integration (EAI) durchsetzen.

Der inzwischen oft falsch verwendete Begriff der Web-Services steht für eine Architektur, die verteilte Anwendungen auf Basis von Web-Standards wie XML und HTTP lose koppelt. Für Unternehmen geht es darum, vorhandene oder neu programmierte Geschäftslogik mit standardisierten Web-Services-Schnittstellen auszustatten. Die Funktionalität der Programme steht dann anderen, ebenfalls auf den Web-Services-Standards (Soap, WSDL und UDDI) basierenden Anwendungen zur Verfügung - sei es innerhalb des Unternehmens oder außerhalb. In diesem Jahr gilt es also zu beobachten, ob Hersteller diese Technik in ihren Produkten konsequent umsetzen oder nur auf der Hypewelle mitreiten. Skepsis ist auch deshalb angebracht, weil sich die Großen der Branche bislang nicht auf einheitliche Middleware-Standards für die Systeminteroperabilität einigen konnten.

Noch sind die Kerntechnologien wie Soap, WSDL und UDDI nicht als offene Standards verabschiedet, doch die Chancen für Web-Services stehen gut: Denn die ursprünglich von Microsoft und IBM gestartete Initiative verfolgt im Vergleich zu Corba und DCOM einen gewissermaßen minimalistischen Ansatz. Ihre große Bewährungsprobe werden Web-Services bestehen müssen, wenn es darum geht, die zwei großen verbliebenen Lager, Java und Microsoft, zu verbinden. Die Redmonder realisieren Web-Services mit .NET, einer sprachenunabhängigen Komponentenarchitektur für verteilte Applikationen. Zahlreiche Hersteller von Windows-Anwendungen wollen .NET unterstützen - was dabei abseits der Marketing-Aussagen technisch entsteht, muss sich erweisen.

Zu den großen Technologietreibern der Java-Szene gehören 2002 die J2EE-konformen Application-Server. Hier geht es darum, ob die Middleware weiterhin nur als Engine für Java-Server-Pages (JSP) oder Java-Servlets fungiert und sich damit weitgehend auf die Funktion eines Content-Lieferanten beschränkt, oder ob der große Durchbruch für objektbasierende Transaktionsverarbeitung mit Enterprise Javabeans gelingt.

Anwendungsseitig stehen nach wie vor FrontOffice-Applikationen etwa für Customer-Relationship- und Supply-Chain-Management im Vordergrund. Aus technischer Perspektive gilt es in diesem Umfeld die Versprechen der Hersteller zu überprüfen, ihre Systeme seien Web-fähig. Letzteres bedeutet immerhin, dass die oft mächtige Client-Logik der Windows-Frontends zurück auf eine nachträglich eingezogene Middleware, meist auf einen Applikations-Server, verlagert wurde. Von dieser Architektur profitieren vor allem Klassiker wie SAP und Siebel: Sie brauchen zum Beispiel ihre proprietären CRM-Server kaum zu verändern, können aber die Benutzer-Schnittstelle dynamisch auf einem Java-Server generieren und im Browser abbilden. Für Anwender stellt sich jedoch die Frage, wie sich die in Projekten zum Teil erheblich modifizierten Windows-Masken auf die neue Architektur migrieren lassen. Dieses Problem könnte umso größer werden, je mehr das

von Analysten für dieses Jahr in vielen Anwenderunternehmen erwartete Fein-Tuning des ERP-Backbone stattfindet - schließlich erschwert jedes Customizing den Release-Wechsel auf Web-fähige Nachfolgeversionen.

Viele IT-Abteilungen werden in diesem Jahr auf ihren Geldbeutel achten müssen. In Bezug auf Produkte bedeutet dies, dass man vorhandene Lösungen nach noch nicht genutzten Features durchforstet, nach günstigen Add-ons Ausschau hält oder sich in der Open-Source-Szene umsieht. Die Verbreitung von Linux auf Servern, zurzeit weltweit bei 27 Prozent, wird weiter zunehmen. Dabei tritt es - konsolidierend - an die Stelle verschiedener Unix-Derivate. Besondere Chancen rechnet sich in diesem Zusammenhang die IBM aus, auf deren Mainframes zahlreiche Instanzen des freien OS in eigenen Partitionen nebeneinander ablaufen können. Linux wächst ferner immer mehr über die angestammte Funktion als Web-Server hinaus und wird zunehmend für unternehmenskritische Anwendungen (vor allem Datenbanken, Firewalls und sogar SAP-Standardsoftware) akzeptiert. Die meisten Softwarehersteller unterstützen inzwischen mit ihren Produkten diesen Weg.

Nicht nur die Hoffnung auf Kosteneinsparungen wird indes die Verbreitung von freier Software begünstigen. Angesichts der im letzten Jahr erneut aufgetretenen, gravierenden Sicherheitsmängel kommerzieller Software - insbesondere jener von Microsoft - könnten viele Anwender dem transparenten Entwicklungsmodell von Open Source mehr Vertrauen schenken. Besonders in Zeiten, in denen sich das Ausspionieren von Bürgern als patriotische Tat verkaufen lässt, dürften quelloffene Programme dafür geschätzt werden, dass sie wahrscheinlich keine Zugangsfunktionen für das FBI oder Geheimdienste enthalten.

Obwohl Linux als Aushängeschild für freie Software besondere Aufmerksamkeit zuteil wird, sollte die Bedeutung zahlreicher anderer Open-Source-Projekte nicht übersehen werden. Genannt seien hier etwa Apache mit seinem marktführenden Web-Server und zahlreichen Java- sowie XML-Tools, Scriptsprachen wie Perl, Python und PHP oder Mozillas gleichnamiger Web-Browser. Auch wenn in einzelnen Kategorien Open Source noch als einzige Alternative zum Microsoft-Monopol verbleibt, so fällt es Firmen dennoch immer schwerer, daraus finanziellen Nutzen zu ziehen. Deshalb dürften sich 2002 trotz prosperierender Open-Source-Szene jene Unternehmen weiter auf dem Rückzug befinden, die ihre Geschäftsmodelle auf Service und Support für freie Software bauen.

Doch nun zur Hardware: Im Verlauf dieses Jahres wird die Branche, angeführt von HP, die ersten Racks mit "Blades" - also vertikal stehenden Server-Boards statt der horizontalen "Pizza-Schachteln" - auf den Markt bringen. Damit dürften sich Intel-basierende Blades durchsetzen, nachdem Pioniere wie RLX-Technologies zunächst auf CPUs von Transmeta gebaut hatten. Ob die Nachfrage nach den Strom und Platz sparenden Blade-Racks mit mehreren hundert CPUs in einem Gehäuse tatsächlich so groß wird wie erhofft, bleibt aber abzuwarten.

Nicht zu den Überraschungen, wohl aber zu den anstehenden Highlights im Reich der Prozessoren dürfte Intels zweiter 64-Bit-Itanium-Chip gehören. Derzeit noch unter dem Codenamen "McKinley" gehandelt, soll die zweite IA-64-Generation Mitte 2002 auf den Markt kommen. Das Leistungsplus gegenüber seinem Vorgänger liegt laut Intel bei Faktor 1,2 bis 1,8. In der zweiten Jahreshälfte will Gegenspieler AMD Einzug in das Enterprise-Server-Segment halten: Der erste 64-Bit-Kandidat des Intel-Rivalen hört auf den Namen "Hammer" und soll - anders als Intel-Chips auf Basis der IA-64-Plattform - sowohl bestehende 32-Bit- als auch künftige 64-Bit-Anwendungen unterstützen.

Bei den Unix-Maschinen werden die im letzten Jahr angekündigten Highend-Rechner wie der "Regatta" von IBM oder der "Starfire" von Sun in Unternehmen Fuß fassen. IBM dürfte mit dem dort erstmals integrierten "Power-4"-Chip wieder eine leistungsfähige Prozessorgeneration vorweisen. Für Suns "Ultrasparc III" gilt Ähnliches, obwohl Risc-Verfechter Sun die Branche innerhalb der nächsten zwölf Monate schon mit dem "Ultrasparc IV" beglücken will. Hewlett-Packard und Compaq - ob sie nun fusionieren nicht - haben zwar noch ihre Risc-Chips ("PA Risc" bei HP und "Alpha" bei Compaq), setzen langfristig aber auf die Intel-Architektur. Wichtig für große Server - und das gilt auch für Mainframes - wird die Frage, ob und wie sie sich in Partitionen aufteilen lassen. Nur damit können Anwendungen unter verschiedenen Betriebssystemen auf einem Rechner betrieben werden - Stichwort Konsolidierung.

Angesichts knapper IT-Budgets dürften die Unternehmen verstärkt Ausschau nach Bereichen mit Konsolidierungspotenzial halten. Perspektiven bieten hier unter Umständen Speichernetze und das System-Management. Letzteres birgt durch Funktionen wie remote Konfiguration, zentral gesteuerte Softwareverteilung sowie Inventarisierungsanalyse in dem einen oder anderen Fall noch Automatisierungs- und Spareffekte. Ansonsten ist im System-Management eine Abkehr von den mächtigen Framework-Konzepten erkennbar. Teure und schwer administrierbare monolithische Lösungen sind out. Sie werden durch modulare, individuell anpassbare Produkte abgelöst, die sich laut Anbieter nicht nur schneller implementieren lassen sollen, sondern sich auch rascher amortisieren.

Im Speicherbereich deutet vieles auf einen Trend hin, der die Vorzüge der Speicherkonzepte Storage Area Network (SAN) und Network Attached Storage (NAS) kombiniert. Außerdem sehen die Analysten insbesondere in der Virtualisierung ein weiteres Mittel der Effizienzsteigerung. Der Vorteil dieses verteilten Ansatzes liegt darin, die alte Hardware weiter nutzen sowie Speicherressourcen besser auslasten zu können. Ansonsten wird der etablierte Fibre Channel bis auf weiteres das wichtigste Protokoll in SANs bleiben, auch wenn mit iSCSI und Infiniband Nachfolger vor der Tür stehen.

Während iSCSI sich erst noch behaupten muss, ist DSL (=Digital Subscriber Line) unter den Access-Technologien der Durchbruch schon gelungen. Das Verfahren etabliert sich bei der Anbindung von Zweigstellen und remoten Offices zunehmend als kostengünstige Alternative zu Standleitungen. Daran wird sich auch nichts ändern, wenn sich das Preisgefüge in diesem Jahr leicht nach oben bewegt. Dazu könnte es kommen, weil die Regulierungsbehörde gegen die T-DSL-Tarife der Telekom ein Preisdumpingverfahren eingeleitet hat.

In der Schwebe ist die Zukunft des TV-Kabelnetzes. Hier hängt viel von der Entscheidung ab, ob das Kartellamt dem Kauf durch Liberty Media zustimmt. Die Wettbewerbshüter haben Bedenken, dass der Medienkonzern bei der Einspeisung von Inhalten eine Monopolstellung erlangt. Außerdem ist fraglich, ob die Banken nach dem Finanzierungsschock bei UMTS Gelder dafür lockermachen, das deutsche Kabelnetz mit Rückkanälen aufzurüsten. Schlecht steht es auch um die Satellitentechnik sowie Powerline als Zugangsverfahren. Bei den Satellitensystemen fehlt es heute nach wie vor an kostengünstigen bidirektionalen Sende- und Empfangsanlagen. Und die Datenübertragung per Steckdose hat nach dem Ausstieg von Größen wie Siemens wohl kaum noch Chancen.

Obwohl schon mehrfach totgesagt, haben die drahtlosen Übertragungsverfahren Bluetooth und Wireless LAN im letzten Jahr an Popularität gewonnen. Wireless LAN machte besonders als Alternative zu UMTS in so genannten Hotspots wie zum Beispiel Flughäfen oder Hotels von sich reden. Die Technik wird für Unternehmen aber vor allem wegen ihrer Bandbreite von 11 Mbit/s, des Vermeidens von Kabelsalat sowie der sinkenden Preise interessant. Allerdings besteht in Sachen Abhörsicherheit noch Nachbesserungsbedarf.

Bluetooth, das im so genannten Personal Area Network die drahtlose Übertragung von Daten bis zu zehn Metern erlaubt, wird 2002 auf breiter Front Einzug in Handys, PDAs, Drucker, Scanner, aber auch Consumer-Produkte wie Videokameras halten. Der Erfolg hängt jedoch stark von der Interoperabilität der Produkte ab. Mit USB 2.0 und Firewire gibt es zudem leistungsfähigere Konkurrenten im kabelgestützten Bereich.

Abschließend noch ein Ausblick auf den Dauerbrenner Ethernet sowie Voice over IP. Ethernet streckt in seiner Gigabit-Variante die Fühler in den Backbone- und Metro-Bereich aus. Dabei schickt es sich an, Protokolle wie FDDI und ATM zu verdrängen. Allerdings wird dieses Jahr noch nicht im Zeichen von Praxislösungen stehen, sondern mehr von der Standardisierung beherrscht.

Um Voice over IP ist es im vergangenen Jahr etwas stiller geworden. Doch der Schein trügt. Die integrierte Sprach- und Datenübertragung hat durchaus Zukunft und könnte 2002 unter dem Kostenaspekt eine neue Dynamik bekommen. Eine Infrastruktur, vereinfachte Administration sowie eine gegenüber der ersten Produktgeneration stark verbesserte Funktionalität sind für Unternehmen eine Überlegung wert.