Gastkommentar

Client-Server-Architektur auf dem Weg zur Commodity

17.09.1993

Sicherlich ist die EDV-Welt fuer Entscheider nicht einfacher geworden: Mit der kleiner werdenden Rolle des Mainframes und damit auch der IBM hat der Anwender heute nicht nur die Wahl, sondern auch die Qual, sich zwischen diversen Herstellern und mehr noch Plattformen entscheiden zu duerfen

Dem Ziel der DV-Leistung am Arbeitsplatz ist man zwar ein Stueck naeher gekommen, die Topologievarianten werden aber fuer den Entscheider immer komplexer. Welche Leistung soll auf dem Mainframe verbleiben, sind PCs nur fuer die bunte Oberflaeche gut oder auch fuer ernsthafte Rechenleistung, ist die ehemals propagierte mittlere DV-Ebene eines Drei-Ebenen-Modells ueberhaupt noch relevant, ist Unix als vermeintlicher herstellerneutraler Standard nicht laengst vom Intel/Novell/Microsoft-Angebot im Markt ueberholt worden? Schwer, hier einen Konsens zu finden.

Erschwerend kommt hinzu, dass sich der DV-Markt inzwischen zu einer Groesse entwickelt hat, in der es Herstellerdominanz wie in den 70er und 80er Jahren wohl nicht mehr geben wird. Das typische Oligopol anderer reifer Maerkte wird auch bei uns Realitaet werden. Daran duerfte auch der Wachstumsoptimismus eines Bill Gates nichts aendern.

Von der Nummer eins fuer PC-Software zum Netzwerk-Server- Dienstleistungs-Marktfuehrer ist der Weg weit, abgesehen davon, dass dies zwar bequem sein mag, Monopole aber niemals im langfristigen Kundeninteresse sind. Ohne klaren Gesamtmarkt-Fuehrer muss der Anwender also selbst entscheiden, wie er seine DV ausrichten will. Das ist gut so, erleichtert das Leben aber kaum. Bei dieser Unsicherheit ueber die Anbieter-Zukunft ist Flexibilitaet - und das heisst groesstmoegliche Herstellerunabhaengigkeit - angesagt.

Die Loesung dazu im Angebot der Experten heisst Client-Server. Diese Architektur verbindet die Vorteile einer zentralen Datenhaltung auf einem wie auch immer dimensionierten Server mit der Benutzerfreundlichkeit moderner Oberflaechen.

Zudem erlaubt die Skalierbarkeit der jeweils verwendeten Hardware unter Einbeziehung der vorhandenen PC-Rechnerleistung eine optimale Flexibilitaet. Wer sich beispielsweise im Datenbankbereich fuer SQL als Standard entscheidet, kann heute bei SQL-basierten Servern vom Laptop bis zum Mainframe zwischen diversen Anbietern auswaehlen. Ein Austausch der Server-Hardware samt Betriebssystem ist damit kein Schrecken mehr: Flexibilitaet par excellence. Wo liegen die Bedenken der Anwender? Hier sieht man zunaechst einmal die Luecken im Know-how der Mitarbeiter.

Nicht jeder Cobol-Experte wird ueber Nacht zum Fachmann fuer Client- Server. Zu bedenken bleibt dabei schliesslich, dass nicht nur Wissen im Client-Bereich, sondern auch ueber Server, den Netzwerkbereich und letztlich das Anwendungsdesign gefragt sind. Beliebt ist diese Aura der Expertentechnologie natuerlich auch bei solchen Herstellern, die in diesem Bereich immer noch mit Mainframe- Preisen fuer Software zu operieren versuchen.

Verbirgt sich hinter Client-Server eine grundsaetzlich zu komplizierte Technologie, um eine breite Anhaengerschaft zu finden? Nein! Der Fortschritt kann nicht nur darin bestehen, unbegrenzte Mitarbeiterausbildung zu betreiben, sondern darin, Know-how in die Produkte zu verlagern. Hilfe kommt hier einmal wieder von prinzipiell leistungsfaehigeren, das heisst deutlich benutzerfreundlicheren neuen Produkten aus dem PC-Umfeld.

Bekanntlich ist der Siegeszug der PCs primaer darauf zurueckzufuehren, dass sie bei guenstigen Preisen zunaechst einmal einfach zu bedienen waren und damit erstmals EDV dem Breitenmarkt der nicht-studierten "Informatiker" zufuehrten.

Der logische naechste Schritt war die Verbindung von PCs zur Kommunikation untereinander, und Novell hat gezeigt, dass der Erfolg eines Netzwerkanbieters darin liegen kann, den Breitenmarkt mit leistungsfaehigen und dabei benutzerfreundlichen Produkten flaechendeckend zu bedienen.

In der naechsten Entwicklungsstufe benoetigen die inzwischen Hunderttausenden(!) von bereits installierten Netzwerken natuerlich Anwendungen, die in dieser Architektur vernuenftig laufen, also multiuserfaehig sind. Die technische Loesung hierfuer sind anerkannt PC-basierte Client-Server-Systeme, die sich in das Umfeld Windows plus Novell mit SQL als Server-Datenbankstandard einfuegen. Und genau hier findet die Client-Server-Revolution von unten heute statt. Softwarehersteller waren gefordert, fuer diesen Markt der PC-Netzwerke Entwicklungsumgebungen und Datenbankproduk- te bereitzustellen, deren Designmerkmale neben ihrer Leistungsfaehigkeit gleichen Prinzipien folgen, wie einst die PCs selbst. Solche Produkte gibt es inzwischen.

Die Folge ist, dass Entwickler heute Client-Server-Technologie fuer modernste Umgebungen wie Windows, Novell und beliebige Serverplattformen erwerben koennen, die in bezug auf Preise - und wichtiger noch: Benutzerfreundlichkeit - neue Massstaebe setzen und diese Technologie klar dem Breitenmarkt der Softwarehaeuser und Entwicklungsabteilungen erschliesst.

Client-Server-Technologie ist heute auf dem Weg zum Commodity- Produkt und damit weg vom Guru-Geheimtip und hin zur Standard- Architektur!

Die Folge ist, dass in hunderten von Softwarehaeusern aller Groesse mit PC- und Netzwerk-Wissen heute ganz undramatisch, aber mit Hochdruck an Multiuser-Loesungen fuer PC-Netze gearbeitet wird, wobei selbstverstaendlich auf dem Client-Server-Modell aufgesetzt wird. Projektloesungen aller Art sind bereits realisiert, und auf breiter Front werden Standardloesungen erarbeitet, die Einzelplatz- PC-Anwendungen genauso abloesen werden wie die zeichen-orientierte Minisoftware der Vergangenheit.

Das Ergebnis ist ein rasch wachsendes und schon jetzt beeindruckendes Angebot an fertigen Softwareloesungen, die auf dem Client-Server-Modell aufsetzen und sich als Anwendungsstandard der Zukunft durchsetzen werden.

Client-Server wird damit von einer Hochtechnologie zur Datenbankstandard-Architektur der Zukunft. Die Vorteile fuer den Anwender liegen auf der Hand: flexible, zukunftsorientierte Loesungen zu vorteilhaften Preisen.