Web

 

Informatik - Partnerin jeder Wissenschaft und Wirtschaftsgrundlage

16.01.2006
Sie hat milliardenschwere Industrien hervorgebracht, neue Kommunikationswege geschaffen und bildet den Grundstein unserer Informationsgesellschaft.

Kaum eine Disziplin hat sich in den vergangenen 60 Jahren so rasant entwickelt wie die Informatik. Das siebte deutsche Wissenschaftsjahr, ausgerufen vom Bundesministerium für Bildung und Forschung, widmet sich 2006 der jungen Disziplin. "Ziel ist es, den Menschen die Bedeutung der Informatik näher zu bringen und auch Berührungsängste abzubauen", sagt Matthias Jarke, Präsident der Gesellschaft für Informatik (GI) und Mitinitiator des Informatikjahres. Bundesforschungsministerin Annette Schavan (CDU) eröffnet das Wissenschaftsjahr offiziell letzte Woche in Berlin.

Informatik bestimmt heute weite Teile unseres Alltags, von der computergesteuerten Waschmaschine bis zum Geldautomaten. Und als Wirtschaftsfaktor hat sie in Deutschland inzwischen den Automobilbau überholt. Im Gegensatz zu vielen anderen Branchen ist die Informations- und Kommunikationstechnik im vergangenen Jahr gewachsen, wie Jarke betont. Und die Visionen kennen kaum Grenzen: So sollen künftig "intelligente" Roboter die Menschen unterstützen - nicht nur in gefährlichen Umgebungen wie etwa der Tiefsee, sondern auch im Haushalt. Ein erster Service-Roboter ist in Japan bereits auf dem Markt.

Der Begriff Informatik selbst tauchte zum ersten Mal 1957 beim Deutschen Karl Steinbuch auf, einem Pionier der Disziplin. Die Kombination der Wörter Information und Automatik deutet auf die Grundzüge dieser Wissenschaft. Die Geschichte der Informatik ist wie ein großes Mosaik. Verschiedene Einflüsse machen sie zu dem, was sie heute ist - eine selbstständige Wissenschaft und, wie es Wilfried Brauer, erster ordentlicher Professor für Informatik an der Universität Hamburg formuliert, eine "Kooperationspartnerin für jede Wissenschaft ­ nicht nur als Werkzeug in Ergänzung der Mathematik, sondern auch als Methode zur intellektuellen Analyse und Modellbildung".

Drei Disziplinen prägten die Entwicklung der Informatik besonders: die Mathematik, die Mechanik und später die Elektronik. Große Bedeutung kommt dem deutschen Universalgelehrten Gottfried Wilhelm Leibniz (1646-1716) zu. "Er entdeckte die Bedeutung des Dualsystems und das Rechnen in diesem", erklärt Brauer. Dadurch entstand die Idee, ein binäres Zahlensystem als Basis einer Rechenmaschine zu nutzen - lange vor dem Bau des ersten Computers.

Ein Mathematiker erwies sich mehr als 150 Jahre nach Leibniz als Computerpionier. Der Engländer Charles Babbage entwarf das Konzept des ersten Computers. Seine "Analytical Engine" (Analytische Maschine) enthielt bereits alle fundamentalen Elemente eines heutigen Computers: eine zentrale Recheneinheit, einen Speicher und die Möglichkeit, Variablen und Zahlen einzugeben. Babbage schaffte es allerdings nicht, seine Maschine zu bauen.

Den ersten programmierbaren Computer konstruierte der Deutsche Konrad Zuse und nannte ihn "Z3". Er entwarf die so genannte Schaltalgebra, deren Grundlage das Binärsystem ist. Um sie elektrisch umzusetzen, braucht es zwei Zustände ­ eins und null, Strom an und Strom aus. Zuse stellte den Rechner im Jahr 1941 fertig. Telefonrelais erledigten die Schaltarbeit.

Es folgten Computer so groß wie Einbauküchen. In Forschung und Industrie fanden sie zunehmend Anklang. Damals entstand auch der Begriff des "Bug" (engl. Käfer) für eine Fehlfunktion des Rechners. In den großen Anlagen passierte es schon mal, dass ein Käfer das System lahm legte, weil er einen Kurzschluss verursachte. Den Sprung in die Haushalte schafften Computer erst Anfang der 1980er Jahre.

Doch ohne Software ist jede Hardware nutzlos. "Für die Entwicklung der Informationstechnik waren die Software und die damit zusammenhängenden Konzepte und Verfahren genau so wichtig wie die Hardware", sagt Brauer. Jeder Computer verrichtet seine Arbeit scheinbar automatisch, doch ohne Programm könnten Roboter nicht laufen, Geldautomaten nichts auszahlen und der PC-Bildschirm bliebe schwarz.

"Die Digitalsierung, also die Darstellung der Welt auf Basis von Nullen und Einsen, hat völlig neue Möglichkeiten zur Informationsverarbeitung geschaffen", sagt GI-Präsident Jarke. In der Informatik genauso wie im alltäglichen Leben. (dpa/tc)