IBM's Pläne für das nächste Jahrzehnt

04.03.1977

Neben Kreml-Astrologen gibt es in Wallstreet-Büros und in Redaktionen exklusiver DP-Executive-Newsletters auch eine Zunft professioneller IBM-Astrologen - und die haben es auch schwer.

Ein Glücksfall für die "Veteran-IBM-Watcher" (a la Dr. Herbert Grosch, Rex Malik und andere) sind die Vorlesungen, die IBM-Seminar-Star Dr. James Martin, Senior-Scientist am IBM-System Research Institute, New York, und Erfolgsautor bestsellender Fachbücher, weltweit als "James-Martin-World-Seminar-Serie" hält. Sein Thema auf tatsächlich fünf Kontinenten (im April in Amsterdam): "On the Design, Management and Future of Distributed Processing, Database, Teleprocessing and Network Systems."

Martin ist für 12 Monate von IBM für "Forschungsarbeiten" (Sabbatical Leave) beurlaubt, und nichts, was er vorträgt - und das trägt er vor - bindet also den Marktführer als Ankündigungsverpflichtung. Aber Martin bleibt IBMer, unter seinen Zuhörern sind vor allem DP-Manager der führenden IBM-Großkunden. Es erscheint deshalb undenkbar, daß seine deutlichen Aussagen über die Zukunft der Datenverarbeitung nicht mit dem Top-Management der IBM abgestimmt sind. Vielleicht? - Vermutlich? - steckt dahinter sogar eine Strategie: Soft-Sell im exklusiven Kreise für IBM's Produkte der 80er Jahre.

Ungeachtet der anstehenden Scorpio-Meridian- und Titan-Announcements auf Basis bisheriger Rechner-Technologie (siehe Seite 1) wird IBM - nur so lassen sich Martins Aussagen interpretieren - um 1980 eine neue Mittel- und Großrechner-Familie in neuer System-Architektur ankündigen, die ihre Daseinsberechtigung nur in einem völlig neuen Gesamt-System-Design auf Basis des Distributed Processing haben wird. Das "Future System" der 60er Planung sollte noch ein zentrales Alles-und-Allein-Rechner-System sein, unterstützt nur durch intelligente Netzvermittlungssysteme der 37X-Reihe. Mittlerweile setzt IBM - bedingt durch den Preisverfall für dezentralisierte Computerleistung - voll auf verteilte Intelligenz. Künftig durfte das - so IBM's Pläne für die großen Unternehmen - noch mehr so sein. Nicht nur intelligente Terminals am Arbeitsplatz, sondern auch spezialisierte Satelliten-Rechner der Mittelklasse mit eigenen Dateien Jeweils für die Filialen, Unternehmensbereiche, Werke und Lager, die vor Ort alle üblichen kommerziellen Anwendungen der operationalen Ebene erledigen.

System R und neue Architektur

Was bleibt dann für die Zentrale? Die neuen IBM-Großrechner der 80er Jahre werden vor allem anwendungsunabhängige Gesamt-Unternehmens-Datenbanken verwalten und über "High Level Database Definition-, Manipulation- und Interrogation-Languages" und andere von jedermann handhabbare Spezial-Sprachen (Simulation, Operations-Research) für absolute Transparenz im Unternehmen sorgen.

Die hohen Kosten dieser Zentralen (der Gefahr des Down-Grading muß IBM entgegentreten) werden durch verbesserte Unternehmensführung und durch Rückgang der Programmierkosten für solche Anwendungen auf ein Viertel des heute Üblichen zu rechtfertigen sein. Der erforderliche Austausch ganzer Dateien zwischen Datenbank-Zentrale und Anwendungssatelliten wird - so Martin - über Breitband-Satelliten-Kommunikation (etwa 5 Millionen Bytes pro Sekunde) so erfolgen, als seien die Rechner direkt gekoppelt.

Aber nicht IMS oder ähnliches wird die Datenbank-Software des nächsten Jahrzehnts sein. Für die neuen Aufgaben seien hierarchische Baumstrukturen viel zu langsam, das gelte auch für Codasyl-Datenbanken. Vielmehr soll einer neuen "System-R"-Software auf Basis des Codd'schen Relationsmodells die Zukunft gehören, vor allem, weil dort Dateien in Tabellen und gleichartig strukturierten Ketten (Arrays) gespeichert werden, die für Datenbank-Operationen Parallelverarbeitung durch Vektor-Prozessoren und Feldrechner erlauben. Und deshalb dafür auch die neue System-Architektur der Vierten Hardware-Generation.

Sagt Dr. James Martin. Was davon zu halten ist? Siehe oben.