Priorität den Großanlagen

20.06.1980

MÜNCHEN (CW) - Eindeutig in Richtung Großcomputer und gegen die dezentrale Lösung lautet die Empfehlung, die Dr. Herbert Grosch in seinem Vortrag während der Hannover-Messe im Rahmen eines Burroughs-Symposiums aussprach. Als vielleicht gewichtigsten Grund für die Großrechner-Lösung nannte Grosch in seiner nachfolgend abgedruckten Rede den Zwang zur "ehrlichen Buchhaltung". Alle Kosten werden genau erfaßt. Dauernd bringen die Kostenverwalter des Unternehmens ihren gesamten Einfluß ein, die Kostenstelle EDV nach ihren Vorstellungen umzustrukturieren. Im Gegensatz dazu verschwinden die Aufwendungen, die für den Minirechner in der Fachabteilung direkt und indirekt auf Rechnung einer anderen Kostenstelle gemacht werden. Aus den Büchern sind die Kosten für die Datenverarbeitung dann gänzlich verschwunden, während sie in Wirklichkeit gestiegen sind. Weil die Großanlage schwer zu beherrschen ist, stellt sie für das Personal einen Reiz dar. Nach Ansicht von Grosch löst sie damit eher die menschlichen Probleme, die in der EDV zunehmend an Bedeutung gewinnen, statt zusätzliche Schwierigkeiten zu schaffen.

Heute möchte ich mit Ihnen über etwas sprechen, was ich als wichtiges Problem im Zusammenhang mit Datenverarbeitungsgeräten betrachte das Problem der Wahl der Größe einer Computeranlage in einer Zeit, da uns so viele Möglichkeiten zur Wahl stehen.

Als ich damit anfing, mit meinen ersten Großanlagen zu arbeiten, gab es nur den großen Computer. Man brauchte eine Million Dollar, um ihn zu kaufen, man mußte umbauen, um ihn unterzubringen und dann mußte man die Straßen nach unausgebildeten Operators und Programmierern absuchen- ausgebildete gab es noch nicht-, um ihn zu bedienen. Abwerbung war auch noch nicht möglich. Heute können wir jedoch unter vielen Möglichkeiten wählen. Diejenige, die ich Ihnen heute empfehlen werde, ist die Großanlage. Ich bin mir natürlich voll im klaren darüber, daß es in vielen Fällen organisatorische und problembezogene Gründe geben wird, warum Sie meine Empfehlungen werden ignorieren oder zumindest "verdünnen" müssen. Aber zu diesen Empfehlungen komme ich erst später.

Zunächst einmal möchte ich Ihnen von einigen der aufregenden Aussichten für Hardware und Systeme erzählen, die es in nächster und etwas fernerer Zukunft geben wird. Ich werde die zur Wahl stehenden Möglichkeiten beschreiben und das Management- und Organisationskonzept vorstellen, auf dem meine abschließenden Argumente zugunsten der Großanlage basieren werden.

Einem solchen Publikum muß ich natürlich nicht von der Aufregung über LSI und VLSI (Large-scale Integration, Very Large-scale Integration) erzählen. VLSI war ursprünglich eine japanische Bezeichnung, die jetzt in den Vereinigten Staaten und überall in der westlichen Welt übernommen worden ist. Sie bezieht sich im wesentlichen auf die Anzahl von Schaltungen oder Gatter, auf die Anzahl der Speicherelemente auf einem Substrat, einem Chip. VLSI bezieht sich nicht auf die komplexe Technologie, mit der der Chip hergestellt wird und auch nicht darauf, ob der Chip aus Silikon, Saphir, Galliumarsenid ist oder einem der merkwürdigen neuen Materialien, die jetzt in Labors hergestellt werden. VLSI verdeutlicht aber die Tatsache, daß wir seit der Einführung der 360er Reihe von IBM im Jahre 1964, also in nur wenigen Jahren, von vielleicht einem halben Dutzend Transistor-Schaltungen oder von der Speicherung von einem halben Dutzend Bits auf einem großen, nach heutigen Maßstäben unhandlichen Chip an einem Punkt angelangt sind, wo wir alle zwei Jahre die Chip-Kapazität vervierfachen - von 1000-bit- zu 4000-bit- zu 16 000-bit- zu 64 000-bit-Chips. So können wir auch heute von 256 000-bit-Blasenspeichern und 256 000-bit ladungsgekoppelten Speichern sprechen. All diese Vorrichtungen sind auf einem Substrat, das sehr viel kleiner ist als die ursprüngliche Keramikfläche, die IBM im Jahre 1964 vorstellte. Für diejenigen von Ihnen, die sich noch an den inneren Aufbau der 360 erinnern können, war der Chip etwa zehn Millimeter im Quadrat, wenn ich mich richtig erinnere. Wir sprechen jetzt von kleinen Dingen, die nicht größer sind als eine Fischschuppe - nur zwei bis drei Millimeter im Quadrat, sehr viel dünner und weitgehend automatisch hergestellt. Mir scheint, daß diese Technologie noch weiter verfeinert wird, ohne im Laufe der Zeit teuerer zu werden.

Wir haben jedoch Grund anzunehmen, daß wir bei dieser Technologie an eine Grenze stoßen werden, was, wie ich später erläutern werde, keine Verminderung der Leistung eines Systems, sondern nur eine Begrenzung der Leistung der einzelnen kleinen Chips und deren Nachfolger bedeutet.

Vor etwa zwei Jahren habe ich an einem Kongreß teilgenommen, auf dem der Vorsitzende der Zilog Corporation, Dr. Federico Fagan, der andere Hauptredner war. Obwohl Zilog einige Kleinanlagen hier auf der Hannover-Messe ausstellt, spezialisiert sie sich hauptsächlich auf die Chip-Technologie. Zilog wird von Exxon, dem größten Erdölkonzern der Welt, finanziert. Mit diesen Mitteln hat Zilog einige sehr talentierte und überzeugte junge Kräfte anziehen und fast über Nacht zu einer Größe im Chip-Geschäft werden können. Auf diesem Kongreß, der in Austin/Texas stattfand, hat Dr. Fagan gesagt, er glaube, daß es bis Ende des Jahrhunderts möglich sein werde, 100 Millionen Elemente auf einen Chip zu bringen. Nun könnte der Chip etwas größer sein als zwei bis drei Millimeter im Quadrat, vielleicht so groß wie eine kleine Briefmarke. Es ist gut möglich, daß ein solcher Chip unwirtschaftlich sein wird in einem funktionierenden System, obwohl die Herstellung höchstens ein paar hundert Dollar kosten würde. Wegen niedriger Ausbeute wäre es vielleicht besser, zehn oder 100 verschiedene Chips mit je einer Million Bits pro Substrat zu haben, aus denen man eine Anlage konstruieren könnte, die leistungsfähiger ist, als die heute typische mittelgroße Anlage, einschließlich Hauptspeicher, Puffer, Kommunikationsmodems und so weiter. Man könnte zum Beispiel in LSI Technik eine große Burroughs-Anlage aus hunderttausend oder hundert Millionen solcher Elemente konstruieren, einschließlich des größten Teils des Hauptspeichers und dessen Ersatz. Solche Speicher müßten noch extern sein. Bis auf die großen Antriebe könnte man sicherlich alles, was heutzutage in einer Zentraleinheit enthalten ist, auf einen einzelnen Chip oder auf eine Super-Array von Chips bringen.

Wärmedissipation begrenzt Gatter

Ein japanischer Wissenschaftler hat vorhergesagt, daß wir bis zu einer Milliarde Gatter auf einen großen Chip werden bringen können. Hier stoßen wir auf eine Grenze durch die unüberwindbaren Probleme der Wärmedissipation, egal wie raffiniert die Technologie, egal wie groß die Sorgfalt bei der Benutzung der Anlage. Hier in Deutschland hat Siemens, zum Beispiel, Berechnungen über die Grenzen dieser Art der Technologie aufgestellt, Berechnungen, die weitgehend auf den Problemen der Wärmedissipation basieren. Sie wissen vielleicht, daß eine Amdahl zwangsluftgekühlt wird. Die Leiterplatten der Amdahl-Maschine haben winzig kleine Kuhltürme aus Metall, um die Wärme effektiver abzuführen. Auf der anderen Seite sind die großen 370er Anlagen wassergekühlt, was sie sehr ortsgebunden macht. Bei IBM und anderen Firmen sind superkühle Technologien im Gespräch, die entweder eigenleitend (intrinsic) sind, das heißt, sie erfordern Temperaturen um einige Grad Celsius über dem absoluten Nullpunkt, oder aber sie verwenden zumindest kalte Flüssigkeiten als Wärmeabfuhrmedium .

Also irgendwo im Bereich von einer Milliarde Bits auf einem Chip stoßen wir auf die Grenze. Es gibt aber andere Möglichkeiten, noch höhere Geschwindigkeit mit noch größerer Speicherkapazität bei mehr oder weniger festen Kosten zu erreichen. Einige davon werde ich kurz erwähnen.

Es gibt die Nicht-Silikon-Technologien, die gegenwärtig in den Vereinigten Staaten entwickelt werden, hauptsächlich im Auftrag des Pentagon. Hierbei ist oft die Rede von Galliumarsenid, eine kuriose Substanz, die weder ein Metall noch ein Nichtmetall ist. Galliumarsenid ermöglicht eine siebenfache Erhöhung entweder der Geschwindigkeit oder der Kapazität, nicht aber von beidem zugleich.

Experiment ovonics

Oder aber es gibt die neue Technologie, genannt "ovonics", mit der sich Burroughs beschäftigt. Ich erwähne dies nur deshalb, weil ich heute Gast der Firma Burroughs bin und weil es sich um eine sehr ungewöhnliche und kuriose Entwicklung handelt. Es wird noch nicht sehr viel diskutiert über diese Technologie, die sich mit Substanzen beschäftigt, die entweder flüssig und amorph oder kristallin sein können, wie zum Beispiel Honig. Es gibt obskure chemische Substanzen, die diese Eigenschaften haben und aus denen eine Speichereinheit, zum Beispiel ein Kernspeicher, hergestellt werden kann. Die Lizenz für diese Technologie hat Burroughs beim Erfinder Stanford Ovshinsky erworben, von dessen Namen das Wort "ovonics" abgeleitet wurde. Ovonics versucht, Geschwindigkeiten zu erreichen, die fünf- bis zehnmal schneller sind, als die von Galliumarsenid. Es ist noch nicht klar, ob ovonics je zur praktischen Anwendung kommen wird, vielleicht in einer funktionierenden Speichereinheit - oder in einem Prozessor. Dies wird aber von Burroughs erforscht. Die Firma 3M erforscht auch die Möglichkeit der Anwendung von ovonics in der Mikrographie, der analogen Darstellung von Bildern. Die Firma Sharp Electronics in Japan erforscht die Anwendung von ovonics bei der Herstellung von sehr großen Speichern für Kleinstcomputer, wie Armbanduhren. Die Bell Laboratories haben angekündigt, sie hätten ein Laborgerät - noch nicht so weit fortgeschritten wie ovonics -, das in einer Picosekunde schaltet, was Prozessor- und Speicherfunktionen ermöglicht. Es ist nicht notwendig, in Picosekundenschnelle zu arbeiten, um gut zu arbeiten. So kann man aber erheblich billiger arbeiten.

Ich glaube, diese paar Beispiele werden meine These verdeutlichen, nach der wir trotz der Grenzen der Wärmedissipation bei Silikon noch schnellere Anlagen werden bauen können.

Übrigens scheint es jetzt so zu sein, daß Chips nicht erst im Milliarden-Bit-, sondern schon im Millionen-Bit-Bereich Schäden von Rontgenstrahlen und Alpha-Partikeln ausgesetzt sind. Und es ist gut möglich, daß IBM, Burroughs und andere, die über die 64K-Grenze hinaus wollen, nicht so weit werden darüber hinausgehen können, wie wir bislang angenommen haben. Das bedeutet natürlich; daß die superhohen Geschwindigkeiten, die durch die Verwendung von diesen ultraverfeinerten Chips zu erzielen wären, in der Tat nicht auf der Silikon-Ebene verwirklicht werden können. Doch können wir diese anderen Technologien verwenden, die ich bereits erwähnt habe, um sicherzustellen, daß wir nach Bedarf bei diesen enormen Geschwindigkeiten arbeiten können.

Viele Probleme warten noch auf die adäquate Technologie

Sie fragen sich wahrscheinlich, warum ich von Geschwindigkeiten und Kapazitäten spreche, die Sie selber nicht brauchen. Aber Sie brauchen sie in der Tat. Es gibt sehr viele große Probleme - und nicht nur wissenschaftlicher Art -, die erst dann angegangen werden können, wenn wir die Geschwindigkeiten und billige Speicherkepazitäten haben, die diese Technologien ermöglichen . Einige von Ihnen interessieren sich für große Datenbanken, wie im Bankwesen und bei den meisten anderen großen Organisationen. Der freie, schnelle Zugriff auf jeden Teil des Speichers, ohne auf die langsamen Geschwindigkeiten des Auswahlvorgangs, des Zylinders oder der Spur in den großen Plattenspeichern zu warten, würde weit fortgeschrittenere Datenorganisationen zulassen. Es wäre viel leichter, auf eine existierende Datenbank zuzugreifen nach anderen Parametern als den ursprünglichen. Bei einer vielschichtigen Geschäftsart ist es typisch, daß nach der Ausgabe von Millionen von Mark für die Organisation einer Datenbank überlegt wird, was sonst noch mit der Datenbank hätte gemacht werden können, wenn sie von Anfang an anders angelegt worden wäre. Wenn sie natürlich anders angelegt worden wäre, hätte das die Lösung der Probleme verzögert, für die die Datenbank ursprünglich eingerichtet wurde.

Sogar diejenigen unter Ihnen, die mit weniger komplexen Geschäftsarten, wie der Landwirtschaft, zu tun haben, werden auch indirekt von den großen Geschwindigkeiten und Speichern profitieren, die die numerische Meteorologie und eine verbesserte Wettervorhersage ermöglichen. Diejenigen von Ihnen auf der mittleren Ebene, die mit Reservierungs- oder Krankenhaussystemen zu tun haben, stehen großen Problemen gegenüber, deren Lösung sie sich im Moment nicht leisten können. Ich spreche nicht speziell von wissenschaftlichen Arbeiten, wie an Universitäten und in großen Forschungsinstituten wie der NASA und deren deutschem Pendant, die mit Zahlenproblemen zu tun haben für die Geschwindigkeits- und Speicherkapazitäten erforderlich sind, die hundertmal so groß sind wie die unserer gegenwärtig besten Anlagen. Ich spreche von den Problemen, die Sie in zehn Jahren in Ihren eigenen Organisationen haben werden. Wird fortgesetzt