Klaus Kemmler* über den Weg der Datenverarbeitung zum Informationsmanagement:

"Standards zu finden, entscheidet über eine Weiterentwicklung"

08.08.1986

Computer dringen eit elnigen Jahren sit hoher Geschwindigkeit in jeden Bereich des persönlichen. öffentlichen und kommerziellen Lebens vor. Sie verändern, zumindest in der industrialisierten Welt, Arbeitsbedingungen, Produktionsprozesse und die Art, wie Menschen miteinander kommunizieren. Die technologischen Errungenschaften bieten bereits heute ein Nutzungspotentiai, das weit davon entfernt ist, auch nur annähernd ausgeschöpft zu werden. Doch die Technik entwickelt sich rapide weiter - und läßt den Betrachter atemlos zurück.

Seit den Zeiten von Delphi (und wahrscheinlich schon viel früher) hat der Mensch versucht, in die Zukunft zu schauen. Mit überaus mäßigem Erfolg, wie man weiß. Die Erfahrung lehrt also: Den Blick in die Zukunft zu lenken, sollte also mit allen Vorbehalten geschehen. Einige Trends - zumindest für die nächsten zehn Jahre - sind indes erkennbar, die es ermöglichen, die Entwicklung der Basistechnologien vorherzusagen. Die sozialen, kulturellen und ethischen Auswirkungen bleiben bei dieser Betrachtung allerdings unberücksichtigt.

Die eindrucksvollsten Erfolge sind wohl ohne Zweifel in der Halbleitertechnik zu erkennen. Die Zahl der Komponenten auf einem Siliziumchip stieg in den letzten zehn Jahren von rund 10 000 Transistorfunktionen auf zwei Millionen beim sogenannten 1-MBit-Chip. Das entspricht einer Steigerung um den Faktor 200.

Gobilde von der Komplexität des Gehirns

Wenn man das menschliche Gehirn vereinfacht als Speicher mit einer Kapazität von rund 20 Milliarden Bits (1 Neuron = 1 Bit) betrachtet, und ferner davon ausgeht, daß in einigen Jahren Chips mit 20 Milliarden Transistorfunktionen auf Fingergröße verfügbar sein werden, dann ist zu vermuten, daß künstliche "Gebilde" von der Größe und der Komplexität des menschlichen Gehirns möglich werden. Die Entwickler im Bereich der Künstlichen Intelligenz werden sich darüber freuen; Philosophen, Psychologen (und auch Theologen) werden wohl noch einiges zu bewältigen haben.

Eine ähnlich dramatische Entwicklung wie bei den Halbleiterspeichern, ist bei den Mikroprozessoren zu erkennen. Schon heute läßt sich die Rechnerleistung von Großrechnern und Superminis von vor fünf bis acht Jahren auf einem Chip unterbringen. Die physikalischen Grenzen, die etwa Mitte der 90er Jahre erreicht werden dürften, erlauben die Herstellung von Mikroprozessoren, also Zentraleinheiten auf einem Chip, mit bis zu zehn Mips (Millionen Instruktionen pro Sekunde), mit einem Arbeitsspeicher von zwei MByte auf einem weiteren Chip. Dabei werden die Materialkosten im Bereich von Pfennigen liegen.

Für den Vorrat von lokal relevanten Dateien und Programmen wird man weiterhin rotierende Massenspeicher einsetzen. Aber auch hier ist ein Preisverfall oder besser gesagt, eine Verbesserung des Preis-Leistungs-Verhältnisses in der Größenordnung von 35 Prozent pro Jahr zu beobachten. Das Vordringen der optischen Speicher wird diesen Prozeß noch weiter beschleunigen. Bereits heute bietet die "Compact Disk" zu Preisen um 20 Mark ein Speichervolumen von 600 MB; das entspricht dem Inhalt von zwei Bänden Meyers Konversationslexikon.

Statt "von Neumann" Schaltungspakete

Basierend auf den vorangegangenen Annahmen kann man davon ausgehen, daß sich die Art des Computereinsatzes grundlegend ändern wird. Zum einen prognostizieren Experten eine deutliche Entwicklung hin zu Einbenutzersystemen mit - für heutige Begriffe - enormer Leistungsfähigkeit; denn die Kosten für die exklusiv genutzte Rechenleistung sind zu vernachlässigen (zirka 10 000 Mark für eine Arbeitsstation mit einer Rechenleistung von einem Mip, drei bis fünf MByte Speicher, 20 bis 50 MByte Winchesterplatten, LAN-Anschluß, um 1990), zum anderen prognostizieren wir das Vordringen von Rechnern mit nicht traditioneller Architektur, also eine Abkehr von "von Neumann", die als Dienstleistungsrechner für die Arbeitsstationen Bilder verarbeiten, sehr große Datenbanken verwalten, logische Verknüpfungen durchführen etc.

Der Grund für diese Wende liegt auf der Hand: Konventionelle Rechnerarchitekturen erlauben eine maximale Leistungsausbeute, die irgendwo bei zehn Mips liegt. Um darüber hinauszukommen, kann man zum Beispiel mit ausgeklügelten Kühlungsvorrichtungen operieren jedoch ohne sehr viel Wirkung zu erzielen. Eine Alternative sind sogenannte Risc-Maschinen, Computer mit reduziertem Instruktionssatz. Dieser Ansatz wird möglicherweise einen Faktor von zwei bis vier gegenüber herkömmlichen Lösungen bringen und preislich recht interessant sein.

Für viele Aufgaben reicht das aber längst nicht aus; dort werden Leistungssteigerungen um den Faktor 1000 und mehr gemacht, etwa in der Simulation. So benötigt zum Beispiel ein Rechnersystem mit, einem Mip rund 30 Monate (zweieinhalb Jahre) um eine Sekunde eines Computers softwaremäßig zu simulieren.

Um darüber hinaus Rechner mit einer extrem hohen Rechnerleistung zu bauen, liegt der Gedanke nahe, die doch so leistungsfähigen und preiswerten Mikroprozessoren zusammenzuschalten, um sie dann quasi gebündelt auf die Lösung einer Aufgabe anzusetzen. Allerdings haben die Götter uns mit einem äußerst sequentiell arbeitenden Gehirn ausgestattet, so daß es noch viele Jahre dauern wird, bevor Lösungsansätze entwickelt werden, die aus Labormustern mit Tausenden von parallel arbeitenden Mikroprozessoren nützliche und nutzbare Gehilfen machen.

Netze bis an die Grenzen des Machbaren

Das Vordringen der Computer an den Arbeitsplatz wird zu einem lawinenartigen Anwachsen von lokal erzeugten Informationen führen. Das Bedürfnis, auf Informationen zuzugreifen, die an anderen Orten entstanden oder verfügbar sind, und einige Informationen zugänglich zu machen, bedingt leistungsfähige Netze.

Der Vernetzbarkeit der Computer am Arbeitsplatz untereinander, lokal und überregional, die Vernetzung mit Dienstleistungszentren und Informationsanbietern, kommt dabei eine Schlüsselrolle zu.

Im lokalen Bereich werden heute schon LANs angeboten, die bei einer Übertragungsrate von zehn MBit pro Sekunde den Inhalt von 500 bis 2000 Bildschirmen in einer Sekunde übertragen können. Ethernet mit zigtausend Installationen und 300 Herstellern nimmt hier eine dominierende Rolle ein. Alternativen wie Token Passing Bus (GMs MAP) und Token Passing Ring (IBM) werden das Spektrum entsprechend ergänzen und zum weiteren Vordringen des Konzepts beitragen. Ausschlaggebend können hier die Kosten pro Anschlußpunkt sein, die bei Ethernet heute weniger als 100 Mark betragen. Brücken (Bridges) stellen die transparente Verbindung von entfernten LAN-Segmenten her, im Extremfall über Kontinente hinweg, durch die Einbindung von Satelliten und Glasfaser. Dies ist heute bereits möglich. Der Begriff "Lokal" für lokale Netze ist damit praktisch schon bedeutungslos geworden. Die Brückentechnik eliminiert darüber hinaus aber auch die Begrenzungen auf eine bestimmte Anzahl von Stationen an einem LAN.

Die nächste Generation von LAN wird bereits konzipiert - und mit 100 MBit pro Sekunde zehnmal schneller als das heutige Ethernet sein.

Im Bereich der öffentlichen Netze werden derzeit Konzeptionen vorbereitet, die diesem Bedürfnis nach Informationsaustausch gerecht werden. So plant die Deutsche Bundespost, bereits 1990 die ersten Glasfasernetze einzusetzen, die es den Teilnehmern erlauben, Daten mit bis zu140 MBit pro Sekunde über öffentliche Netze zu übertragen. Die Europäische Gemeinschaft konzipiert unter dem Namen RACE ebenfalls ein Glasfasernetz.

Bereits heute sind Netze im Betrieb, die die Grenzen des Machbaren aufzeigen. So werden zum Beispiel über "Swift", ein weltweites Computernetz der Banken für den elektronischen Zahlungsverkehr, 200 bis 300 Milliarden Dollar pro Tag transferiert.

In Zukunft wird wahrscheinlich die Information über das Geld wichtiger sein als das Geld selber.

Risiken auch außerhalb von Hard- und Software

Während man die technischen Entwicklungsmöglichkeiten relativ sicher veraussagen kann, gibt es für das tatsächliche Eintreffen dieses Szenarios - leistungsfähige Arbeitsstationen, Spezialrechner als Dienstleister, Arbeitsteilung im Bereich der Informationsverarbeitung und -verteilung, leistungsfähige Netze, um jeden mit jedem kommunizieren zu lassen - einige mögliche Hindernisse, die man jedoch in Betracht ziehen muß:

- Benutzerakzeptanz umschreibt die erste Hemmschwelle.

Die heutigen Computersysteme am Arbeitsplatz sind noch viel zu kompliziert zu bedienen, um auf breiter Front als Hilfsmittel akzeptiert zu werden. Wenn hier entsprechende Entwicklungen ausbleiben, wird es zu Problemen kommen.

- Standards zu finden, entscheidet über eine Weiterentwicklung.

Das Informationsbedürfnis der Zukunft ist von keinem Hersteller alleine zu befriedigen. Sollten sich die Hersteller nicht auf gemeinsame Daten- und Kommunikationsstandards einigen, um die uneingeschränkte Kommunikation von Rechnern zu ermöglichen, wird sich der Schritt von der Datenverarbeitung zum Informationsmanagement nicht realisieren lassen. Den ISO-Vorschlägen für offene Systemkommunikation (OSI) kommt daher entscheidende Bedeutung zu.

- Arbeitsplatzeffekte müssen rechtzeitig diskutiert werden.

Das Vordringen der Computer an den Arbeitsplatz wird zweifellos Arbeitsplatzinhalte verändern, Strukturen beeinflussen, Rationalisierungseffekte bewirken und die Möglichkeit bieten, den Arbeitsplatz nach Hause zu verlegen (Heimarbeit) etc.

Es ist jedoch nicht abzusehen, wie die gesellschaftlichen Kräfte darauf reagieren, welche Haltung die Gewerkschaften einnehmen werden - bremsend, fördernd oder neutral.

Hier befinden wir uns erst am Anfang einer technologischen Entwicklung, die die Welt verändern wird. Sie wird nationale Grenzen sprengen und von multinationalen Konzernen bestimmt werden, deren Umsätze größer sind als die Haushalte der meisten industrialisierten Länder. Diese Multis werden die Regeln des Spiels vorgeben.

Weltbewölkerung hat völlig andere Probleme

Wir sollten jedoch bei aller Euphorie nicht vergessen, daß rund 80 Prozent der Weltbevölkerung mit völlig anderen Problemen, nämlich denen des Überlebens, konfrontiert sind.