System/360

IBM schrieb vor 50 Jahren IT-Geschichte

07.04.2014
1964 schob IBM die Entwicklung einer neuen Großrechner-Generation an und revolutionierte damit die IT-Branche. Was heute selbstverständlich ist - dass Programme auf verschiedenen Rechnertypen laufen - war damals ein Durchbruch.

So schlicht, so klar war die Anweisung: "Da hat uns mein Chef in einen Raum gesetzt und gesagt, entwickelt mal die CPU", erinnert sich Computer-Entwickler Helmut Painke. Der heute 81-Jährige arbeitete in den 1960er Jahren im Labor des IT-Konzerns IBM in Böblingen. Zusammen mit einem Kollegen aus dem größten IBM-Entwicklungszentrum in Poughkeepsie im US-Staat New York entwickelte der gelernte Nachrichtentechniker den zentralen Hauptprozessor für Teile einer neuen Großrechnergeneration.

Was heute undenkbar wäre - dass zwei einzelne Entwickler die Architektur des zentralen Prozessors eines Rechners ausarbeiten - war in den Pioniertagen der Computerindustrie noch möglich. Dass Painke damals an einer der größten Entwicklungen der IT-Geschichte beteiligt war, realisierte er allerdings selbst erst später.

IBM System/360-Großrechner
IBM System/360-Großrechner
Foto: IBM

Vor fast 50 Jahren, am 7. April 1964, kündigte IBM das Großrechnersystem 360 an. Von Technik-Historikern wird es inzwischen in eine Reihe mit dem Ford Model T gestellt. "Das ist so, als ob General Motors beschlossen hätte, alle seine bisherigen Automodelle aus dem Angebot zu werfen und stattdessen eine neue Autoserie anzubieten, die allen Wünschen gerecht wird, mit nagelneuen Motoren ausgerüstet und mit einem exotischen Treibstoff angetrieben", schrieb die Zeitschrift "Fortune" im September 1966.

Für IBM war das System 360 eine der größten Wetten in seiner Unternehmensgeschichte. "Big Blue" investierte damals fünf Milliarden US-Dollar in das Projekt - dabei lag IBMs Jahresumsatz 1964 lediglich bei 3,23 Milliarden Dollar. Die Wette ging auf. Der IT-Konzern, heute einer der größten Server-Hersteller der Welt, legte damals den Grundstein für seine Vormachtstellung.

Der damalige IBM-Chef Tom Watson jr. setzte die Entwicklung gegen Widerstände in der eigenen Firma durch. Die Neuheit: Die Programme für das System waren über alle Rechnergrößen kompatibel. Kunden konnten bei höherem Bedarf beliebig erweitern. Bislang mussten sie für jeden größeren Rechner neue Programme verwenden. IBM machte damit seinen bislang eingesetzten Systemen selbst Konkurrenz.

In Böblingen, wo noch heute große Systemkomponenten von Mainframes entwickelt werden, sollte eine abgespeckte Version des Systems 360 entstehen. Dass gerade Böblingen mit der Aufgabe betraut wurde, war kein Zufall, glaubt Ralf Fischer, der heute bei IBM in Stuttgart für die Hardware-Entwicklung zuständig ist. Die Lage nahe Stuttgart habe eine Rolle gespielt. "Das kleinste Modell ist auch das kostengünstigere", sagt Fischer. "Das ist für den Mittelstand attraktiver." Painke erinnert sich: "Wir haben uns dann überlegt, wie können wir überhaupt soweit runter kommen mit den Kosten."

Erste Design-Entwürfe für IBMs System/360
Erste Design-Entwürfe für IBMs System/360
Foto: IBM

Das System sei nicht nur ein großer kommerzieller Erfolg gewesen, sagt IDC-Analyst Tim Grieser rückblickend. Es diente auch als Plattform für spätere Entwicklungen wie Mehrprogrammbetrieb oder virtuelle Speicher. "Wir haben die Tür aufgemacht, ohne es zu wissen", sagt IBM-Entwickler Painke.

"Das Bahnbrechende war die hohe Verlässlichkeit", sagte Phil Murphy vom IT-Marktforscher Forrester heute. So verlässlich waren die 360-Systeme, dass sie sogar bei der legendären Apollo-Mission zum Mond eingesetzt wurden.

IBM-Werbung für neue Prozessoren (1964)
IBM-Werbung für neue Prozessoren (1964)
Foto: IBM

Trotz dieser glorreichen Vergangenheit fristet der klassische Großrechner inzwischen eher ein Dasein im Hintergrund der IT-Landschaft. "Der Großrechner ist in der öffentlichen Wahrnehmung heute komplett verschwunden", räumt IBM-Experte Fischer ein. Zu Unrecht, wie er findet, auch wenn das Mainframe-Geschäft von IBM zuletzt mit massiven Umsatzeinbrüchen kämpfte (es gibt aber auch gerade keine neue Großrechner-Hardware-Generation). "90 Prozent der größten Versicherungen und Banken nutzen Mainframes für Transaktionen", sagt Fischer.

IDC-Analyst Tim Grieser bestätigt: Die hohe Verlässlichkeit und Skalierbarkeit machten den klassischen Mainframe ideal für Finanzdienstleistungen. Als verlässliche Verarbeiter des heutigen Datenhungers habe er "definitiv" noch eine Zukunft. (dpa/tc)