Die Zukunft der Computersysteme: (Teil II)

Hardware und Software vertauschen ihre Rollen

04.05.1979

Der Verlust an Produktivität, die aufwendige und endlose Ausbildung und zunehmend komplexere Wartungserfordernisse, die die Technik der heutigen Computersysteme mit sich bringt, verbrauchen knappe Ressourcen und kosten viele Unternehmen jährlich Millionen von Dollars. Vernünftiger wäre es, diese Dollars und andere Mittel in neue Anwendungen zu stecken, die das wirtschaftliche Ergebnis des Unternehmens verbessern oder die Qualität, der den Kunden des Unternehmens gebotenen Leistungen, erhöhen. Diese Meinung vertrat Charles P. Lecht auf einem Symposium von Kienzle. Hier Auszüge des Lecht-Vortrages:

Radikale Kursänderungen der Hersteller

Computer-Hersteller überall in der Welt unternehmen nicht nur Anstrengungen, dem Wettbewerbsdruck durch Erweiterungen ihres Produktangebotes zu begegnen: Darüber hinaus haben sie radikale Kursänderungen vorgenommen, um ihren sorgfältig bedachten Rollen im Computermarkt der Zukunft besser gerecht zu werden. Das oberste Ziel dabei ist es, bereits prognostizierte Umsatz- und Rentabilitätsziele zu erreichen - keine einfache Aufgabe in einem technologischen Markt mit einem so rassanten Innovationstempo. Die Hersteller müssen auch noch mit einer wachsenden Anzahl von "Trittbrettfahrer"-Unternehmen fertig werden, die die jeweils neuesten Forschungsergebnisse ausnutzen, ohne selbst zu diesen Ergebnissen beizusteuern, und dabei mitunter spektakuläre Ergebnisse aufweisen.

Abbildung 3 zeichnet ein dramatisches Bild der Erfolge eines neu hinzugekommenen Herstellers auf dem Markt für IBM-kompatible Systeme und Systemkomponenten in den 70er Jahren. In den Vereinigten Staaten werden viele der größeren Hersteller dieser Herausforderung durch eine Erweiterung ihrer Marktziele entgegentreten; ihre Produktangebote werden volle Informationssysteme umfassen: Hardware (für EDV- und Nachrichtentechnik), Software (Betriebssysteme und Anwendungsoftware), Dienstleistungen (einschließlich Personal) und Zubehör. Andere Hersteller werden sich darauf konzentrieren, Komponenten, Teilsysteme, Geräte, Dienstleistungen oder Kombinationen davon anzubieten.

Neue Chancen für Steckerkompatible

Der technische Fortschritt hat es mit sich gebracht, daß bestehende Teilmärkte in ganz neue Dimensionen hineingewachsen sind, was den Anbietern von steckerkompatiblen Systemen und Dienstleistungen neue Chancen eröffnet. Zum Beispiel die vielgestaltete Symbiose der Automatisierung, Instrumentierung und Mechanisierung hat im großen Umfang neue Chancen eröffnet. Die Transportautomatisierung einschließlich mobiler Nachrichtenübertragung ist heute eindeutig als ein wichtiger zukünftiger Markt erkennbar. Anwendungen in Heim, Schule und anderen Bereichen, in denen EDV-Leistung zu persönlichen Zwecken in Anspruch genommen werden kann, stecken in den Kinderschuhen, aber das Geschäft läuft bereits gut an.

Heute, im Ausklang der 70er Jahre, stellen wir fest, daß unsere gewohnten Begriffe hinsichtlich der physischen Grenzen und Leistungsfähigkeit von Computersystemen undeutlich geworden sind. Das ist auch nicht weiter verwunderlich, bedenkt man die eingangs gemachten Bemerkungen zum Thema Prozessorleistungsfähigkeit.

Einfache MOS-Chips, Platinen mit einer Vielzahl von Chips, Anlagen mit einer Vielzahl von Platinen, Räume mit einer Vielzahl von Anlagen, Gebäude mit einer Vielzahl von Räumen mit Anlagen, Städte mit einer Vielzahl solcher Gebäude, Erdteile mit einer Vielzahl solcher nachrichtentechnisch verbundenen Städte sind Schauplätze, in denen die Marktkämpfe der 80er Jahre vielstufig ausgetragen werden. Wir erkennen daher in der Tat: So wie die EDV der 60er Jahre für die diskreten, voneinander getrennt arbeitenden Systemeinrichtungen charakteristisch war, zum heutigen hohen Verflechtungsgrad sich weiterentwickelte, so wird die EDV der Zukunft in alle Bereiche des Lebens vordringen. Die Einbindung von EDV-Arbeitsplätzen in weitgesteckte Netze, deren Ressourcen von jedermann an jedem beliebigen Ort genutzt werden können, ist eine großartige Leistung der EDV- und nachrichtentechnischen Fachleute und Organisationen.

Wenn Sie sich in einer Raumstation in geostationärer Umlaufbahn über dem nordamerikanischen Kontinent befänden und den geplanten Advanced Communications Service der American Telephone and Telegraph (AT&T) so sehen könnten, als ob dieses Netz in der Oberfläche des Kontinents eingeätzt wäre, dann wäre Ihnen weitgehend das gleiche Bild geböten wie nach Öffnung des Gehäuses, etwa des Amdahl-V8-Prozessors. Wären Sie dagegen mikroskopisch klein und wurden Sie dabei von der Decke eines Zimmers herunterschauen, dessen Fußboden aus einem, sagen wir IBM-System /38-Mikroprozessor-Chip bestünde, wurden Sie im wesentlichen die gleiche Szene sehen. Wenn ich die Worte "weitgehend" und "im wesentlichen" gebrauche, will ich damit nicht sagen, daß der einzige Unterschied zwischen dem Chip, dem Groß-EDV-Prozessor und dem ACS-Netz in ihren jeweiligen Größen liegt, denn die Einzigartigkeit eines jeden der drei steht außer Frage. Dennoch weisen sie auffällige Ähnlichkeiten auf, die auf ein wesenliches Merkmal der EDV-Systeme der 80er Jahre hindeuten: Nämlich die vielfältigen Möglichkeiten der Informationstechnologie, die auch das einschließen, was ich das Ad-hoc- oder Laufzeit-Computer-System nenne.

In der zweiten Hälfte der 80er Jahre werden Benutzer in den Vereinigten Staaten ihre Verarbeitungskapazität im wesentlichen aus vier Quellen beziehen: den Anlagen ihres eigenen Hauses, öffentlichen Versorgungseinrichtungen (zum Beispiel dem ACS-Netz, dem Telenet-System von GT&E und anderen), privaten versorgungsähnlichen Einrichtungen (GE/ISBD, Dun & Bradstreet etc.) und den Einrichtungen ihrer Kunden. Obwohl es keine Zweifel geben kann, daß es bestimmte Formen der Datenverarbeitung ohne Integration mit der Nachrichtentechnik in der überschaubaren Zukunft noch geben wird, wird der bei weitem größere Teil der Datenverarbeitungskapazität durch

kommerzielle Systeme realisiert sein, die mit öffentlichen und privaten Versorgungseinrichtungen und Kunden-EDV-Einrichtungen verbunden sind.

Auch die Wagemutigsten wurden nervös

Von großer Bedeutung für Benutzer ist die Frage, wie sie angesichts des beschleunigten Wandels in unserer Technologie und in den relativen Kosten ihre EDV-Planung vorzunehmen haben. Die Benutzer sind einem wahren Sturm von Ankündigungen neuer Systeme mit neuen Technologien sowie neuer Beschaffungsmöglichkeiten ausgesetzt und finden es außerordentlich schwierig, Prognosen aufzustellen. Der immer schneller werdende Verlust an Wiederverkaufswert von "alten" Systemen und die Möglichkeit, daß neue Systeme durch angekündigte Nachfolge-Systeme noch vor der Auslieferung schlagartig an Wert verlieren können, hat auch die wagemutigsten Käufer nervös gemacht. Denken Sie nur daran, welche Wirkung die Ankündigung des IBM-Systems 4341 im Januar 1979 bei denjenigen Kunden haben wird, die ihre IBM 3031 gerade geliefert bekommen. Das Nachfolge-System bietet ungefähre die doppelte Leistung pro Kosteneinheit wie die 3031 (obwohl letztere eine größere Roh-Verarbeitungskapazität bietet).

Bild 4 zeigt, daß deutliche "Bänder" im Preis-/Leistungsverhältnis von Prozessoren existieren und daß dieses Verhältnis sich jeweils mit einem unterschiedlichen Tempo verbessert. Nach einer Prognose der Technology Analysis Group von ACT zum Beispiel wird die Einführung der E4 (IBM 4351?) im Laufe des Jahres zeigen, daß sie die gleiche oder aber eine geringfügig höhere Leistung (1,0 - 1,5 MIPS) als die 3031 zum ungefähr halben Preis bieten wird. Am anderen Ende des Spektrums aber stellt das System /38 eine ungefähr dreifache Leistungssteigerung im Vergleich zum System /3-15 dar. Darüber hinaus stellt die 4331 auch eine dreifache Verbesserung des Preis-/Leistungsverhältnisses im Vergleich zur 370/138. Alles in allem verbessert sich das Preis-/Leistungsverhältnis schneller am unteren Ende des Spektrums als im mittleren Bereich, und die Software-Komponente des Preises nimmt fast im direkten Verhältnis zum Verfall des Hardware-Preises zu.

Unsere Planung für die 80er Jahre können wir effektiver machen, wenn wir die Vorstellung aufgeben, daß ein Computersystem als Ganzes etwas sei, was man kauft oder mietete. Das System im eigenen Haus sollte man vielmehr als einen Teil des umfassenderen Systems ansehen, zu dem es zwangsläufig gehört. Die Planung muß die Verfügbarkeit von solchen Faktoren berücksichtigen wie die öffentlichen und privaten Versorgungseinrichtungen und die EDV-Kapazität von Kunden. Angesichts dieser Erscheinungen können wir nicht umhin, zu schließen, daß das Verbinden der vier obenerwähnten Quellen der Verarbeitungskapazität eine neue Sicht der unternehmerischen Datenverarbeitung in den 80er Jahren voraussetzt. Das schließt die verblüffende Idee des Ad-hoc-Systems mit ein. Während der Kern des Ad-hoc-Systems genauso konstant sein wird wie eh und je, habe ich nicht den geringsten Zweifel, daß aus der Sicht des Benutzers andere Teile zur "Laufzeit" erst existent werden. Nehmen wir die Auftragsbearbeitung als Beispiel: Es kann sehr wohl der Fall sein, daß eine bestimmte Operation im eigenen System des Benutzers ausgelöst wird; während diese Operation aber abläuft, kann es durchaus vorkommen, daß ein Verbund hergestellt wird mit Datenerfassungsfunktionen in Kunden-EDV-Einrichtungen, mit Übermittlungs- und Message-Switching-Einrichtungen im öffentlichen Netz, mit Berechnungs-Operationen und Spezialfunktionen in einem privaten Netz und mit Datenverwaltungs- und Reportgenerierungs-Einrichtungen im eigenen Hause. Bei einer solchen Vielzahl von Alternativen in der Aufteilung eines EDV-Budgets auf die vier genannten Quellen wird eine sichere Hand in der Konfigurierung solcher Laufzeit-Systeme in der Tat von großem Wert sein.

Die Verfügbarkeit so vieler Optionen, obwohl sie heute Verwirrung stiftet, wird den EDV-Anwendern in Zukunft von allergrößtem Nutzen sein. Denn Hardware und Software sind heute dabei, ihre Rollen zu vertauschen. Wir nähern uns einem Punkt, wo wir zwischen Hard-Hardware, Soft-Hardware, Hard-Software und Soft-Software unterscheiden müssen. Damit ist klar, daß unsere Investitionen in Datenverarbeitung und in das Potential, das sie mit sich bringt, in Zukunft mit einem noch weiteren Freiheitsgrad zwischen hart und weich schwanken werden.