PC und seine Alternativen/Das Ziel war die Vereinfachung der Systemverwaltung

Nach drei Jahren stellt sich bei NCs die Frage: Top oder Flop?

09.07.1999
Von Karl-Ferdinand Daemisch* So verschieden die Namen, so divergierend die Konzepte - insgesamt dienten alle Thin-Client-Entwicklungen jedoch einem Ziel: die Desktop- und PC-Server-Fluten mit ihren kaum zu beherrschenden, verwaltungs- wie kostenseitigen Folgen endlich zu kanalisieren. Die Gründe für Netzwerkcomputer und gegen PC-Farmen sind vielfältig. Und: Sie sind rational kaum zu widerlegen.

Als Oracle-Chef Larry Ellison beim IDC-Forum ''96 in Paris seine Vision vom Network-Computing (NC) formulierte, störte er die gesamte IT-Welt auf. Den generelleren Begriff wählte er wohl wegen des funktionalen Bezugs. Die Idee besaß hinreichend große Sprengkraft, um Markt- und Machtpositionen in ihren Grundfesten zu erschüttern. Daß sie bisher nicht zum durchschlagenden Erfolg wurde, sagt noch nichts über ihre Langzeitwirkung aus. Die Aussagen der Hersteller widersprechen sich: Je nach Lagerzugehörigkeit sind sie entweder auf dem Sun-Ohr taub ober auf dem Microsoft-Auge blind.

Den NC-Vorschlag griffen zunächst Anbieter des Unix-Lagers wie Sun Microsystems auf. Dafür gab es drei Gründe: Sun hatte schon vor Jahren das Motto "Das Netz ist der Computer" ausgegeben und stellte darauf seine Strategie ab. Darin störte ein mächtiges Front-end als Client - vor allem eines vom Wintel-Schlag. Suns zweiter Grund lag in der natürlichen Gegnerschaft zu Microsoft. Doch das mit Oracle geplante NC-Projekt kam, dem Vernehmen nach wegen Problemen beim Chipentwurf, nie recht voran. Mit der Entwicklung von Java dagegen liegt Sun voll im Trend.

Richtig ist: PC und PC-Server kosten in der Anschaffung zwar weniger als Unix-Systeme. Bezüglich der Arbeitskosten für Einrichtung, Verwaltung und Wartung stehen sie diesen aber in nichts nach. Das nun für den NC positive Kostenargument, von Branchenanalysten nach Kräften befördert, rief hier neben den klassischen Anbietern des Sektors - auch die Computerhersteller auf den Plan: allen voran Motorola und Hewlett-Packard sowie, der Mainframe-Historie folgend, IBM. Dort waren dies die Firmen Wyse Technology, NCD und Tektronix, deren Abteilung für Network Displays im vergangenen Jahr von der aus dem Unix-Umfeld stammenden NCD übernommen wurde. Zum gesamten weltweiten Thin-Client-Marktführer - mit 32 Prozent Anteil - kürte IDC 1998 bereits zum zweitenmal jedoch das vom Terminalmarkt kommende Unternehmen Wyse. Es griff vor allem die zweite NC-Linie auf, das Windows-based Segment. Mit Erfolg, denn sein Anteil, so IDC, liegt hier bei über 60 Prozent.

Der NC gilt zum einen als das Instrument, um ausufernde lokale Netze mit einer Unzahl von (praktisch kaum mehr administrierbaren) PC-Servern wieder in den Griff zu bekommen. Zum anderen entsprach er der erneuten Tendenz in der IT zur Rezentralisierung: Alle Daten allen Nutzern verfügbar machen zu wollen legte schon aus Konsistenzgründen die zentrale Datenhaltung nahe. Dies folgte einem Trend, den die Speichersystemanbieter, etwa EMC, einer Studie von Find/SP entnahmen. IT-technisch selbständige Abteilungen im Unternehmen versuchten, Verantwortung und Probleme ihrer dezentralen Systeme, vor allem Datensicherung und Verwaltung, auf zentrale Server in ihre unlängst erst entthronte Zentral-DV zurückzuverlagern.

Modellvielfalt die keinem nützt

Damit bewahrheitet sich wieder einmal, daß Totgesagte länger leben. Wenn auch neu bezeichnet und mit erweiterten Funktionen versehen, feierten die Terminals in Host-Netzen, geradezu das Symbol überlebter DV-Strukturen, fröhliche Urständ. Als Thin Clients - oder zu Universal Thin Clients gesteigert - tauchten sie (im Gegensatz zum typischen Fat-PC) nun im Sprachschatz auf, erweitert noch um X- und Windows-Terminals, Java-Netzcomputer oder Net PCs. Die Vielfalt sollte wohl Einsatzbandbreite und Absatzmöglichkeiten signalisieren, meinte funktional jedoch das gleiche. Laut über Zahlen redeten nur die spezialisierten Hersteller, nicht die Computerbauer. Bei denen galt "thin" eher als notwendiges Unthema. Dagegen plazierte beispielsweise Wyse, ab 1995 im Thin-Sektor tätig, nach eigenen Angaben seither rund acht Millionen Stück im Markt.

Aus der Client-Server-Architektur entlehnt, nutzt der NC als Front-end in Applikationsumgebungen Grundelemente wie Anzeige, Rechenleistung und lokales Speichern - in gestufter Form. Ein fünfgliedriges Verteilungsmodell, vor Jahren von der Gartner Group entworfen, ist wohl das bekannteste. Es zeigt auf dessen einer Seite ein dem NC entsprechendes Gerät, das lediglich Display-Funktionen ausführt und weitgehend den alten Terminals entspricht. Am anderen Leistungsende übernimmt das Front-end Anzeige, Rechenarbeit und speichert lokal Software und Daten. Damit bewegt es sich im üblichen PC-Sektor.

Unter dem Begriff Thin Client wurden, neben Windows-based, X- und Java-Terminals - mit einfachen Betriebssystemteilen - auch Workstations oder PCs mit lokalem Betriebssystem sowie Programmen subsummiert. Das Me-too-Gehabe mancher Anbieter, unbedingt modischen Trends zu folgen, war dem NC-Einsatz jedoch mit dieser Anwender- und Begriffsverwirrung nicht gerade förderlich.

Der NC mit eigenständiger Logik als Client ist, etwa bei Versicherungen, Banken und im Handel, heute trotz aller Unkenrufe weit verbreitet. Er verwendet, neben meist Risc-CPUs, verschiedene Protokolle sowie eine umfangreiche Palette von Multiuser-, besser Multisession-fähigen Emulationen, um auch die Legacy-Welten abbilden zu können. Für den Anwender sind die Möglichkeiten der Fernverwaltung sowie des Load Balancing zwischen mehreren Servern wichtig. Peripheriegeräte wie Drucker oder Scanner lassen sich anschließen, was Anbietertechnologie hardwareseitig oder per Software ermöglicht.

Für Microsoft-lastige Anwendungen empfehlen sich Windows-based Terminals mit Produkten der Firma Citrix, etwa "Meta- frame", oder das ICA-Protokoll (Independent Computing Architecture). In anderen Umgebungen, Mac OS, Unix oder nun vermehrt Java, kommt dafür das X-11-Protokoll in Frage sowie, zur Weiterverwendung von Microsoft-basierten Anwendungen in diesen Umgebungen, wieder die Citrix-Produktreihe. Die Geräte können, wie ein PC mit Tastatur und Maus ausgestattet, verschiedene - Wyse nennt bis zu 15 - Emulationen fahren, darunter Legacy-bezogen 3270 und 5250 oder HTML 3.2 und SCO Tarantella, sowie via Anzeigsoftware vom Server gelieferte Grafik darstellen. Als Protokolle dienen neben X11 oder ICA entsprechende TCP/ IP-Varianten.

Windows-based Terminals weisen die eingebaute CE-Betriebssystemvariante von Microsoft auf. Auch hier werden Programme nicht lokal genutzt, sondern über Microsofts RDP (Remote Display Protocol) vom Server - oder einer Gruppe von Servern - mit der Multiuser-Version NT 4.0 Terminal Server Edition (TSE) auf den Client geladen. Auf TSE läßt sich Metaframe, über das für Citrix Winframe entwickelte ICA-Protokoll, ein Mischbetrieb von Unix- wie Windows-Software aufsetzen. TSE enthält dafür Multiuser-Komponenten, die Citrix für TSE aus seiner Multi-Win-Technologie an die Gates-Company lizenzierte.

Windows-based oder andere NCs müssen in der Regel keinen Updates unterzogen werden. Diese beschränken sich fast ausschließlich auf die Server-Seite. Nur dort werden die Daten vorgehalten, womit Datensichern und Restore am NC entfällt. Damit ist aber auch das Jahr-2000-Problem obsolet und eine eigene Absicherung gegen Viren unnötig. Die zentrale Verwaltung der NCs hält sich in Grenzen, was gleichzeitig die Kosten senkt. Die Citrix-Architektur ermöglicht sodann eine Migration unveränderter Windows-Anwendungen auf zentralisierte Server-Umgebungen jeder Betriebssystem-Couleur, wie eine entsprechende Studie von Bloor Research bestätigte.

Alles spräche also für den NC. Wenn dem nicht Mentalitätsgründe entgegenstünden: Welcher Power-User würde seinen potenten Fat-Desktop gegen ein dünnes, dummes Terminal eintauschen? Der Endbenutzer nicht, der Controller des Unternehmens vielleicht, wenn er sich den Kostenunterschied (laut Meta Group) von 25 Prozent verdeutlicht: Der Power-Status ist realistisch nur etwa einem Prozent der unternehmensweiten PCs zuzugestehen. Doch sollte eine Neugliederung PCs nicht stur abschaffen, sondern eine aufgabenbezogen sinnvolle Verteilung von PC und NC vorsehen.

Ein weiterer Grund für den ausgebliebenen Durchbruch des NC ist die relativ junge Technologie selbst mit ihren anfänglichen Schwächen. Nicht nur Statusdenken, auch falsche Intepretationen trugen zur Abqualifizierung des NC bei. Etwa: Die Softwareschmiede Oracle betreibe nun doch Hardwaregeschäft - was nicht zutrifft. Dem Datenbankanbieter eher naheliegend, ließ sich Ellisons Idee auf die Kurzformel bringen: "Any Client to any Server." Sie bezog sich zwar auf Internet-Technologie, doch gilt der Ansatz gleichermaßen für alle Netze: Browser sind das Such- und Transportmedium für die Information. Ob diese auf Thin oder Thick Clients arbeiten, ist eine Frage der Client-Server-Implementierung und der Kosten.

Unterschiedlich oder nicht eindeutig definierte Begriffe sorgten weiter für Verwirrung. Für den NC nach Ellisons Definition - und seinen Einsatz im derzeit stark propagierten E-Business - reicht die magerste Variante völlig aus: keine Platte, wenig Speicher, geringe Rechenleistung. Doch wird nicht dieser Afront für den powerbewußten Anwender den letztlich entscheidenden Zündstoff abgeben. Den liefert vielmehr die Diskussion um die Total Cost of Ownership (TCO). Marktanalysten legten hier deutliche, wenn auch in den Werten divergierende Modellrechnungen vor. Laut Gartner Group und KPMG kostet ein PC-Desktop in PC-LANs pro Jahr über 10000 Dollar. Die Meta Group und IDC liegen mit ihren Schätzungen deutlich darunter. Dagegen liegen typische Thin-Clients unter 3000 Mark, wozu sich Einsparungen, etwa im Stromverbrauch oder durch höhere Standzeiten addieren: Die PC-MTBF beträgt zirka 25000 Stunden, die der ThinClients ab 170000 Stunden (Quelle: Wyse).

Ebenso schwanken auch die prognostizierten Thin-Client-Absatzzahlen zwischen 2,5 und zehn Millionen Stück. Die Yankee Group ermittelte bereits 1997, daß 17 Prozent der befragten Unternehmen Investitionen in NCs eingeplant hatten. 54 Prozent testeten deren Einsatz, und immerhin praktisch zwei Drittel - 65 Prozent - sahen innerhalb zwei Jahren die Beschaffung vor. Daraus leitete die Meta Group ab, daß im Jahr 2001 Thin Clients in Netzwerklösungen eine echte Alternative zu PCs darstellen. Im Jahr 2000 seien 20 Prozent aller Desktops bereits zur NC-Klasse zu rechnen, so die Gartner Group. Für 2002 prophezeit Dataquest 2,5 Millionen NC-Systeme am Markt, während IDC meint, 2005 würden 50 Prozent aller Desktops als abgespeckte Varianten verkauft.

Das hört sich eigentlich nicht nach Flop an, ebensowenig wie die installierte Gerätebasis und die Verkaufszahlen von Wyse, NCD, IBM und anderen. Und auch die Tatsache nicht, daß 73 Prozent der Firmen oft mehrere tausend NCs neu eingeführt und damit PCs ersetzt haben, so jedenfalls will IDC herausgefunden haben. Die IT- und Funktionskomplexität auf das Netz zu verlagern ist das Argument dafür - nicht nur bei Ellison: "Eine Unmenge komplexer Server-Software im Unternehmen zu verteilen ist eine wirklich schlechte Idee. Komplizierte PC-Anwendungen reichen da doch schon völlig aus." Lerneinheit für PC-Freaks: Nach wie vor lagern 80 bis 90 Prozent aller wichtigen Daten in den Unternehmen auf weit mehr als zehn Jahre alten Systemen. Für einen Zugriff darauf sind PCs ungeeignet: zu ineffizient, zu unsicher, zu teuer..

NC auf einen Blick

Verwaltung einfacher: Systemressourcen und Anwendungen aufnetzbasierten Servern zentralisiert

Kosten niedriger: für Beschaffung, Installation, Wartung

Zugriff: Alle Netzressourcen sind für alle Geräteeinfach und schnell verfügbar

Peripherie: effizientere Nutzung durch Sharing

Upgrades einfacher: Hard- wie Software-Upgrades nur am Server

Sicherheit höher: keine lokalen Disks, Kontrolle über zentrales Daten-Management

Verfügbarkeit besser: keine beweglichen Teile - höhere Standzeiten (MTBF > 30 000 Stunden)

Angeklickt

Larry Ellison propagierte 1996 als erster die Idee eines Network-Computers, der die mit Microsoft-Programmen vollgestopften "fetten" PCs ablösen sollte. Die Idee kam den Systemadministratoren wie gerufen, denn die Menge der dicken Clients war kaum mehr zu verwalten. Verwirrend und verkaufshemmend wirkte sich aber die Tatsache aus, daß NCs in vielen verschiedenen "Geschmacksrichtungen" angeboten wurden. Übriggeblieben sind hauptsächlich die Gattungen Windows-based Terminals und NCs mit Multisession-fähigen Emulationen für den Einsatz in Mainframe-Umgebungen.

*Karl-Friedrich Daemisch ist freier Autor in Lörrach.