Traditionen prägen innovatives Denken

12.12.1986

Über drei Folgen haben wir an dieser Stelle ausführlich die Aspekte der momentan aktuellen Technik des "Recuded Instruction Set Computers" diskutiert und mit den Prinzipien des altehrwürdigen "Complex Instruction Set Computers" verglichen. In dieser letzten Folge ist es nun an der Zeit, einmal nach den typischen Konstanten zu fragen, die die Welt der Computertechnik über die wechselhaften Zeitläufe begleiten.

Hierzu weiß beispielsweise Karl Ganzhorn, Manager des Computer-Giganten IBM, Interessantes zu sagen. Und zwar Interessantes vor allem für den, der nicht nur auf jeweils die aktuellste Glamour-Technik sieht, sondern sich außerdem fragt: Wie macht man daraus langfristig gewinnbringende Produkte?

IBM und anderen großen Unternehmen wird manchmal vorgeworfen, sie seien in ihrer Technik oft so konservativ, daß man fast schon von "altmodisch-rückständig" sprechen müsse. Doch eine differenzierte Betrachtung zeigt, daß Technik gründlicher bewertet werden muß als allein nach herausragenden Spitzen-Parametern wie vielleicht Megabits oder Nanosekunden. Und daß unterm Strich - heute wie einst - wohl jenes Team am besten fährt, das sich den Blick fürs technisch-wirtschaftliche Ganze bewahren und innerlich vorurteilsfrei bleiben kann.

Was hier gemeint ist, verdeutlicht Ganzhorn mit den Worten, sein Unternehmen habe zwar manchmal "neue Technologien aufgenommen als darüber noch nichts in den Zeitungen stand" manchmal aber auch ein Projekt "scheinbar unverständlich" beendet - aber eben zur rechten Zeit.

Hinter solchen Entscheidungen, so die Sicht des Managers, standen aber nun nicht etwa Launen und Willkür, sondern eine sehr ausführliche Bewertung des Technologiepotentials-, um das es gerade ging. Und diese Bewertung wiederum muß stets zwei "für jegliche Technik bestimmende" Tatsachen in Rechnung stellen: nämlich einmal die, daß jedes technische oder naturgesetzliche Prinzip nur ein ganz bestimmtes Potential und nur eine ganz bestimmte Tragfähigkeit aufweist. Und zum anderen die Tatsache, daß es "für jegliche Technik nur ein begrenztes zeitliches Eintrittsfenster in die reale Wirtschaftswelt zu geben" scheint. Dafür seien etwa der kommerzielle Überschallflug, die halbelektronische Telefon-Vermittlungstechnik oder auch der ewig durch die Gazetten geisternde Magnetblasenspeicher gute, neuere Beispiele.

Mit Forschung allein ist es nicht getan

Ein weiterer Erfolgsfaktor, so weiß Ganzhorn aus Erfahrung, ist die - in ihrer Bedeutung heute vielleicht allzuoft unterschätzte - "volle Beherrschung" des jeweiligen, komplizierten, vielstufigen und risikobehafteten "Innovations-Prozesses". Denn, was gern übersehen wird, dieser Prozeß erstreckt sich ja schließlich "von der Forschung über Produktentwicklung und Entwicklung der Fertigungsprozesse" bis hin zur "Einführung des Produkts auf einen oft neuen Markt".

Allein diese Aufzählung zeigt schon: Mit Forschung allein ist es bei weitem nicht getan. Denn an ein erfolgreich abgeschlossenes Forschungsprojekt schließt sich weine weit umfangreichere Anstrengung vor allem im Ingenieurbereich an will man am Ende fertigungsreife Produkte parat haben.

Diese Produktentwicklung ist laut Ganzhorn rund 15mal so aufwendig wie die entsprechende Forschung zuvor; und ihr wiederum folgt eine dann nochmals "viel aufwendigere Investition in die Entwicklung der Prozeß-Technologien", die für die Produktion erarbeitet werden müssen. Ganzhorn: "Es hat nur dann Sinn, anwendungsorientierte Forschung zu treiben oder Forschungsergebnisse aufzukaufen, wenn man "bereit ist, diesen ganzen Folgeaufwand zu leisten. . ."

War der kommerzielle Überschallflug ein gutes Beispiel dafür, daß das Potential einer Technik gern überschätzt wird, so zeigt die Frühgeschichte der bundesdeutschen Lochkartentechnik laut Ganzhorn, daß Menschen für die Chancen neuer Techniken oft blind sein können. Denn 1910 fanden die Propagandisten der damals ganz jungen Lochkartentechnik in Deutschland kaum Resonanz, sieht man von einer Ausnahme ab. Vor allem die angesprochene elektrotechnische Industrie nämlich "versagte sich einer Zusammenarbeit" mit den jungen Lochkarten-Freaks; denn man monierte "die scheinbare Primitivität der Technik" und scheute die "Ungewißheit hinsichtlich der bevorstehenden, langen Systementwicklung".

Ganzhorn: "Diese Ablehnung sollte sich übrigens 47 Jahre später fast wörtlich wiederholen, als es um die Entwicklung von Computer-Transistoren" durch die Elektro-Industrie ging. Denn jene Ein-/Aus-Transistoren, die die Computerleute nun mal haben wollten, erschienen den Elektrikern einfach als "zu primitiv" und schienen überdies "kaum Aussichten auf große Stückzahlen" zu bieten. Dies habe dazu geführt, daß IBM selbst Bauelemente-Produzent wurde.

Als Ganzhorns Firma gerade begann, einzelne Transistoren herzustellen, erschienen bereits die ersten integrierten Schaltungen, nämlich Flip-Flop-ICs. Zwar zogen jene Chips damals das Interesse auf sich, doch ihre Produktion litt noch "unter der Fessel unbefriedigender und vor allem streuender Ausbeuten" guter Chips pro Fertigungslos, war also wohl zu teuer. Und genau dies sollte "zu einem gewichtigen Argument in einer der bedeutendsten Bewertungen eines Technologiepotentials in der Computer-Geschichte werden".

Mit Einführung der Rechnerserie 360 ging - und das ist im Kontext dieser Artikelfolge hier besonders interessant - auch Ganzhorns Unternehmen dazu über, die Maschinenbefehle der Computer "in schnellen Festspeichern als Mikroprogramme" zu speichern. Und die naheliegende Frage, warum man diese Mikroprogramme nicht direkt im normalen Hauptspeicher untergebracht habe, beantwortete Ganzhorn in einem unlängst vorgetragenen Referat bemerkenswerterweise nicht etwa mit - wie Patterson es ja sieht - Kostengründen. Denn Ganzhorn stellt vielmehr den Aspekt der Geschwindigkeit des Speicherzugriffs in den Vordergrund und betont außerdem noch: Man hatte damals nicht den Mut, Maschinenfunktionen nur in "weichen" Software-Funktionen zu fixieren.

Nur moderne Architektur gibt noch keinen Rechner

Daß es bei der Entwicklung von Computern auf weit mehr ankommt als nur auf die Wahl der jeweils modernsten Architektur und der allerneuesten Bauelemente, illustriert der erfahrene Industriemanager ebenfalls am Exempel der 360er-Rechner. Damals "diskutierte alle Welt die großen, künftigen Chancen der integrierten Halbleiter". Doch über jenen schwebte auch damals "immer noch das Fragezeichen der - wirtschaftlich entscheidenden - Ausbeuten und Toleranzen. Und daher entschloß man sich, "begleitet vom Lächeln der Fachwelt, zu einer hybriden Transistortechnologie".

Jene scheinbar überholte Technik bestand aus diskreten Transistoren sowie aus Leiterbahnen und Widerständen, die im klassischen Siebdruck aufgebracht wurden. Aber sie hatte einen wichtigen Vorteil: Ihre Schaltkreise konnten schon 1964 im automatisierten Verfahren auf ± 0,5 Prozent genau hergestellt werden, während die integrierten Halbleiter-Schaltkreise damals noch Streuungen und Ausbeuten in der Gegend von 20 Prozent aufwiesen. Für Streuungen ist das einerseits ein hoher für Ausbeuten andererseits ein arg niedriger Wert. Ganzhorn: "Die Zeit jener ersten Chips war noch nicht reif." Dagegen aber kam "die Packaging-Technologie der gedruckten Leiterplatten bereits aus einer weitgehend automatisierten" - und damit wohl auch entsprechend kosteneffektiven - Fertigung.

Milliarden-Investition in die 360er-Serie

Ganzhorn und sicher auch viele andere aus der Welt der Computer glauben heute, daß es nicht zuletzt die hier skizzierte "nüchterne Technikbewertung gegen die vorherrschende Meinung" war, die der damaligen Milliarden-Investition in die Produktlinie 360 zum allgemein bekannten Erfolg verholfen habe. Denn immerhin: Gerade damals, und gerade mit ihren "altmodischen" Hybridschaltungen, ging Ganzhorns Firma ja mit ihren Rechnern weltweit in Führung. . .

Wenige Jahre später indes sah die Welt schon wieder ganz anders aus. Denn bis 1968 hatte man endlich gelernt, "die 200 Prozeßschritte der Halbleitertechnik reproduzierbar (!) zu beherrschen", so daß die Chip-Prozeßtechnologie ab etwa jener Zeit "den Triumph einer sicher steuerbaren Halbleiter-Produktion" feiern konnte, wie Ganzhorn sagt. Und damit war nun endlich auch für die ICs "das Eintrittsfenster in die reale Wirtschaftswelt offen."

Wie wichtig im Vergleich zur bloßen Erfindung der Transistoren oder auch hier jetzt der ICs die - ja weitaus teurere - Entwicklung der zugehörigen Prozeßtechnik ist, verdeutlicht Ganzhorn mit folgendem Exkurs: Es gelang nicht nur, die Ausbeute guter Chips pro Fertigungslos zu steigern, nun konnte man dank besserer Technik die Schaltkreise auch kleiner machen, dichter packen und damit dann pro Arbeitsgang größere Mengen fertigen. So kommt es daß das Verhältnis Gegenwert zu Preis rasch, und zwar hier sogar in der dritten Potenz, ansteigen konnte. Oder, mit anderen Worten: Erst die" beherrschte Prozeß-Technologie ist der eigentliche Schlüssel für den Höhenflug der Mikroelektronik".

Diese Fortschritte beim Herstellen von Chips sollten gleichzeitig auch eine andere Revolution auslösen, die übrigens auch wieder viel mit unserem Hauptthema der modernen RISC-Maschinen - mit ihren jetzt so immens großen Hauptspeichern - zu tun hat. Denn nun konnten führende Unternehmen anfangen, die teuren Ferritkern-Speicher durch billige und vor allem rasch noch viel billiger werdende Halbleiter-Speicher zu ersetzen. Wobei Ganzhorn und seine Firmenkollegen diesen Schritt schon zu einer Zeit taten, da "andere große Unternehmen in Taiwan neue Fabriken für Ferritkern-Speicher eröffneten. . . "

Kosten pro Bit sind das Entscheidende

Der Rechner-Manager meint dazu, auch diesmal habe wieder die - der Fachwelt im Optimismus jetzt aber vorauseilende - Bewertung eines Technologiepotentials einen "bedeutungsvollen Impuls verursacht". Denn nun begann sein Werk, ein Großproduzent von Chips zu werden. Und es begann die zum RISC führende Ära der Rechner mit umfangreichem Speicher. Wobei in der Fertigung dieser Speicher nicht so wichtig sei, wie viele Bits pro Chip nun Platz finden, sondern vielmehr, wie es um die Qualität des Endprodukts und um die Kosten pro Bit stehe.

Wie sehr Techniken zeitlich oft danebenliegen können, läßt sich gut auch am Beispiel des - nur noch altgedienten Informatikern vertrauten - Trommelspeichers studieren. Denn mit dem Aufkommen der Ferritkern-Speicher sowie der Plattenlaufwerke stellte sich rasch heraus: Die Speichertrommeln passen nirgends so richtig hin. Sie waren nämlich als Hauptspeicher zu langsam und als Archivspeicher zu klein.

Optische Speicher sind eine Alternative

Auch die Plattenspeicher in Verbindung mit ihren rechnerinternen Partnern, den Halbleiterspeichern, zeigen für Ganzhorn sehr deutlich, wie bestimmte, "mit jeweils großen Reservepotentialen" für weitere Verbesserungen ausgestattete Technologien andere Prinzipien von der praktischen Nutzung fernhalten können. Denn beispielsweise für Magnetblasenspeicher bleibt wegen der genannten dominierenden Speichermedien das "Eintrittsfenster zum Markt" besetzt, sieht man von Spezialanwendungen ab. Eine "echte Alternative" könnten in Zukunft wohl nur optische Speicher bieten"; aber auch dies nur dann, wenn es gelingt" ,den optischen Einschreib-Prozeß bei hoher Geschwindigkeit reversibel zu machen.

Wenig bekannt, und gerade in Zeiten der Diskussion innovativer Konzepte, wie etwa jenes der RISCs, besonders interessant ist, daß auch in der Vergangenheit manchmal seltsame Seitenwege exploriert worden sind. So gab es vor 1960 auch "hydraulische Anordnungen" für die Ausführung logischer Schaltfunktionen und neben elektrooptischen Rechenwerken konnte man in jenen wilden Pioniertagen sogar eine Maschine bewundern, die "ausschließlich mit magnetischen Elementen gebaut" war.

Es ist recht erhellend, einmal nach den tieferen Gründen dafür zu fragen, warum eigentlich von so bemerkenswerten Ansätzen wie Galliumarsenid-Schaltungen, Josephson-Elementen und dergleichen bis heute praktisch nichts Realität wurde. Denn dann stößt man auf die Feststellung, daß in der EDV ja vor allem höchste Schalt- und Rechengeschwindigkeit zu erträglichen Kosten gefordert ist - und daß eben dieser Geschwindigkeitsvorteil der erwähnten und vieler anderer Exoten "bei der praktischen Realisierung in den meisten Fällen dahinschmolz", wie Ganzhorn weiß.

Außerdem muß man noch sehen, daß Signale in Rechnern zahllose einzelne Gatter durchlaufen und daß sie deshalb, soll das sogenannte "Signal/Rausch-Verhältnis" nicht indiskutabel stark absinken, auf möglichst jeder Stufe wieder aufgefrischt, sprich: verstärkt, werden müssen. Dieser Zwang zur fortlaufenden Regenerierung der Impulse in jedem Gatter bedeutet, daß jedes Schaltelement "inhärente Verstärker-Eigenschaften aufweisen" sollte. Da haben laut Ganzhorn passive Technologien eben "kaum eine Chance".

Heute sieht es in puncto Speicher so aus, daß weder die Halbleiter-Speicherchips noch die Magnetplatten-Speicher schon anfangen, sich den ihrer Technologie gezogenen Grenzen zu nähern. Und genau deshalb, und überdies auch, weil beide Systeme ja "großtechnisch beherrscht" werden, "hat keine nur graduell bessere Technologie eine Chance", das von diesen Systemen heute jeweils gebotene Verhältnis von Gegenwert pro Mark zu übertreffen und sich im großen zu etablieren.

Das haben die Supraleitungsansätze mit der bekanntlich vor einigen Jahren von IBM wieder aufgegebenen Josephson-Technik nun schon zum dritten Mal erfahren müssen", und auch die "Magnetblasen- und die Galliumarsenid-Technik bleiben auf Spezialanwendungen begrenzt". Nur dem optischen Speicher bleibt da, wie schon gesagt, vielleicht noch ein Hoffnungsschimmer.

Nicht allein Ganzhorn weiß zum Thema Mikroprogrammierung ein paar recht interessante Aspekte beizusteuern; auch sein Firmenkollege Eckart Lennemann hat beachtenswerte und auch an das Thema "RISC und neue Architekturen" heranreichende Informationen beizusteuern.

GaAs-Technologie nur für Spezialanwendungen

Für Lennemann bedeutet der erstmalige Einsatz der Mikroprogrammierung, die übrigens der britische Professor Wilkes vorgeschlagen hatte, Mitte der 60er Jahre eine Möglichkeit, bei einem "sehr kostenempfindlichen Kleinsystem" wesentliche Teile der Logik-Hardwarekosten einzusparen. Denn "der größte Teil der Logik wird" dabei ja dann "in Form eines Programms verwirklicht"

Zwar muß ein Teil dieser Einsparung gleich wieder für Mikroprogramm-Speicher ausgegeben werden, doch weil man damals gerade lernte, billige Festwertspeicher zu produzieren, rechnete die Sache sich schließlich doch. Und zwar sogar so gut, daß man damals - ganz gegen Pattersons heutigen Rat, möglichst viel von Software besorgen zu lassen - sogar Wartungs- und Diagnostik-Prozeduren in das Mikroprogramm verlegte.

Virtuelle Speicherkonzepte seit den 70er Jahren

Allerdings, so Lennemann: "Der Einsatz von Mikroprogrammen brachte uns auch eine frühe Erkenntnis der Probleme zunehmender Komplexität." Und deshalb wurden bald "klar gegliederte Mikroprogramm-Strukturen entwickelt" sowie erste Ansätze zur mathematischen Simulation horizontaler Mikroprogramme. Lennemann: Die Beherrschung von Komplexität ist bis heute der Schlüssel zu einer erfolgreichen Systementwicklung.

Die weitere Entwicklung der Computer in den frühen 70ern brachte bekanntlich nicht nur, und dies laut Lennemann infolge des Preisverfalls bei Speicherchips, den Einsatz des virtuellen Speicherkonzepts, sondern auch die sogenannten beschreibbaren Mikroprogramm-Speicher. Denn nun wurde es möglich und teilweise wohl auch sinnvoll, wenig benötigte der - immer weiter ausgebauten und zahlreicher werdenden - Mikroprogramm-Routinen bloß noch bei Bedarf in den wertvollen Mikroprogrammspeicher-Raum nachzuladen. Mit dem Effekt, daß die Speicherkosten trotz wuchernder Mikroprogramme und Programme dennoch in erträglichen Grenzen bleiben.

Am Rande zieht hier eine Mikroprogramm-Besonderheit Interesse auf sich, über die Lennemann folgendes weiß: Bei einem der Rechner der frühen 70er Jahre wurde ein besonderer Ein-/Ausgabeprozessor verwendet, der einen Bildschirm ansteuerte. Und dieser mikroprogrammierte Spezialprozessor nun verfügte unter anderem sogar über ein Mikroprogramm, das - und hier dürfte es Patterson schaudern! - sogar zu bestimmten Wartungsarbeiten herangezogen werden konnte. Denn mußten beispielsweise die Druckhämmer eines angeschlossenen Schnelldruckers justiert werden, so erlaubten spezielle Mikroprogramm-Routinen, den Bildschirm wie einen Kathodenstrahl-Oszillographen zu betreiben.

Zur erwähnten, auch von Patterson geliebte virtuellen Speichertechnik notiert Lennemann, in der Tat werde die Programierung dank des großen Adreßraums, den nun jedes Programm nutzen könne, einfacher. Und wenn dafür auch ein Preis in Gestalt eines gewissen Effizienzverlust der einzelnen Programme bezahlt werden müsse: Der Gesamtdurchsatz des Systems wird doch fast immer erhöht.

Daß man Mikroprogramme zwar als kostensparendes Element einsetzen kann, daß man dafür aber auch einen Preis an Rechengeschwindigkeit zu zahlen hat, wurde kritischen Beobachtern der technischen Evolution auch in der Welt der Mainframes nur allzu bald klar. Sie kamen darauf, daß eigentlich nur ein Teil der Maschinenbefehle etwa der /370er-Serie per Mikroprogramm realisiert werden müsse; hingegen gebe es einen anderen Teil, der - so Lennemann wörtlich - "alle Merkmale einer Modernen RISC-Architektur besitzt". Und deshalb habe man am Modell 4361 gezielt in der Weise auf "eine Kosten/Geschwindigkeits-Optimierung" hingearbeitet, indem man dort die weniger komplexen Teile der Maschinenbefehle durch festverdrahtete Logik" ersetzte; den Mikroprogrammen blieben also nur die komplexeren Maschinenbefehle zur Ausführung überlassen.

RISC-Elemente in 4361-Architektur

Wenn fallende Preise bei Speicherchips Patterson als Argument dienen, bei der Gestaltung von Rechnern eine neue Denkweise zu empfehlen, und wenn fallende Preise bei Mikroprozessoren dem Transputer-Prediger Eckelmann von Inmos Argumente für den Übergang auf Parallelrechner-Systeme an die Hand geben (vergleiche Folge III dieser Serie), dann sind das Argumente, für die es auch in der Historie schon Beispiele gibt. So erlaubten beispielweise fallende Speicherchip-Preise 1972 den Bau von Maschinen mit parallel zum Rechenwerk aktiven Ein-/Ausgabeeinheiten, wodurch die Leistung des Systems steigen konnte. Doch, so Lennemann, diese neue Struktur erforderte - nicht anders als heute die Entwicklung eines RISC - eine "detaillierte Kosten-/Nutzenanalyse" denn die dezentralisiert arbeitenden Rechenwerke "benötigen ja Mehraufwand an Logik- und Mikroprogrammspeicher". Es gibt eben in der Welt der Rechner keinen Nutzen ohne gleichzeitige Kosten.

Ein interessanter Aspekt jeder Diskussion über das Pro und Kontra bestimmter Computer-Architekturen, -Systeme und -Implementierungen ist, daß zum Beispiel die Kostensenkungen, die man den immer mehr Transistoren fassenden Chips verdankt, allein noch bei weitem kein ausschlaggebendes Kriterium für die Bewertung des Technologiepotentials sein können. Der volle Nutzen nämlich wird erst kalkulierbar, betrachtet man die weiteren Einsparungen, die sich aus dem Vermeiden unnötiger Platinen, Module, Verbindungsleitungen, Kühlaggregate etc. ergeben; denn kleinere Chips schlagen praktisch auf alle Bauteile eines Systems von durch und ermöglichen sozusagen auch "im hintersten Eck" noch wesentliche Einsparungen an System- und damit Herstellungsaufwand.

Stark fallende Halbleiter- und, wie eben skizziert, Folgepreise erlaubten beispielsweise im Bereich der mittleren Großrechner den Übergang auf Systeme mit gleich zwei - parallelen - Rechenwerken; das wiederum ergab laut Lennemann spürbare Leistungsverbesserungen zu vertretbaren Kosten.

Computer werden heute mit Hilfe von Computern entwickelt, die jeder weiß. Und dabei gilt - gewiß auch für moderne RISC-Einheiten - der alte Grundsatz, daß rechnerentwickelte Chips zwar mehr Transistoren benötigen, als ein Mensch theoretisch vorsehen würde, will er die gleichen Funktionen realisieren. Nur steigen die Produktivität und die Qualität des automatisierten Chip-Entwurfsverfahrens gegenüber dem manuellen Arbeiten so stark an, daß dies letztlich die "Kosten", die der Mehrbedarf an Gattern nach sich zieht, bei weitem wieder ausgleicht.

Rechner simulieren Chips für Rechner

Heute, so Lennemann, versuchen die Entwickler von Rechnern, das komplette spätere System auf Simulationscomputern auszutesten, ehe auch nur der erste Chip produziert wird. Dabei dauert die Simulation von nur einer Sekunde Echtzeit des neu entstehenden Rechners rund 1500 Stunden Laufzeit auf dem Simulationsrechner; das wären 62 Tage Rechnen rund um die Uhr.

Mit diesen Techniken kann man einen Entwurf wie etwa einen neuen RISC heute in zwei statt, wie früher, in zwölf Monaten auf Korrektheit testen. Und allein in den wenigen Jahren zwischen 1979 und 1983 konnte die Zahl der Entwurfsfehler pro Chip auf ein Sechstel gedrückt werden, während die Zahl der "funktionalen Entwurfsfehler, die erst nach der Auslieferung an den Kunden entdeckt wurden", laut Lennemann auf Null ging.

Dabei ist nun wieder besonders bemerkenswert, daß, Lennemann zufolge, zunächst eigentlich immer Fehler gemacht werden müssen, entwirft man ein fortschrittliches System. Denn: "Treten keine Fehler auf, war der Entwurf nicht fortschrittlich genug. . . "

Und manchmal kann es beim Entwurf eines besonders kompliziert strukturierten RISC dann sogar passieren, daß die Komplexität des Entwurfs sich unauffällig immer weiter steigert. So etwas wird meist erst sehr spät im Zyklus der Entwicklung bemerkt; und zwar daran, daß "ein Systementwurf sich nicht stabilisiert".