Gast-Kommentar

"Kolonialisierte Zukunft"

01.04.1983

Die Entwicklung der Informationstechnik zum Guten oder zum Schlechten ist nur in Grenzen gestaltbar und beherrschbar. Will man nützliche Anwendungen fördern oder schädliche Auswirkungen neutralisieren, so setzt dies die prognostische Erkenntnis der Chancen und Risiken voraus. Es setzt weiter voraus, daß die gewonnenen Erkenntnisse bei Gestaltungsentscheidungen auch wirklich berücksichtigt werden.

Die Grenzen unserer Prognosefähigkeit, die Beschränktheit des Wissens um künftige Technikrisiken und um nützliche Anwendungen führen dazu, daß die gesellschaftliche Kontrolle der Technik vor einem Dilemma steht.

Die übliche Reaktion auf dieses Dilemma liegt darin, die Voraussagekapazität zu erhöhen, mehr Technologiefolgenabschätzung, mehr wissenschaftliche Begleitforschung zu fordern. Voraussagen im Hinblick auf Technologien, die sich noch in ihrem Anfangsstadium befinden, sind aber nur in seltenen Fallen dazu geeignet, die Auferlegungen politischer Kontrollen jetzt schon zu rechtfertigen.

Gewiß, das Problem ist nicht neu. Es ist allgemein mit dem Streben nach gesellschaftlicher Kontrolle der Technik gegeben. Einige Eigenschaften der Informationstechnik machen es aber nicht gerade einfacher. Anders als beispielsweise bei schädlichen Auswirkungen von Arzneimitteln kann man nicht die Hersteller zur Zielscheibe von politischen Maßnahmen machen. Die Probleme entstehen, wie im Falle des Datenschutzes erst mit dem Verhalten der Anwender, ihren Informationspraktiken. Es ist kaum zu entschieden, ob bestimmte negative Folgen vom Produkt, von dessen organisatorischer Implementierung, von der dauernden Anwendung oder von sonstigen Einflüssen ausgehen. Schon die Unterscheidung von Technik und Anwendungen macht es sich zu einfach. Man hat es mit einer Kaskade von Schritten zu tun, in denen die Informationstechnik nach und nach an die Bedingungen ihres Einsatzes angepaßt wird.

Das gute Gewissen liefern

Ich halte es auch für verfehlt, sich immer wieder auf die Vorstellung einer Neutralität der Technik zurückzuziehen, die es dann nur im rechten Sinne anzuwenden gelte. Solche Vorstellungen blenden die Tatsache aus, daß die Technikentwicklung selbst gesellschaftlichen Einflüssen unterliegt, sie sehen ab von den mannigfaltigen Einwirkungen gesellschaftlicher Interessen auf dem Wege über die Rückkopplungen zu den Herstellern. Allenfalls taugt diese Auffassung dazu, dem Ingenieur das gute Gewissen zu liefern, der sein Lieblingsprodukt weiterhin einer Gesellschaft anbieten will, deren Funktionsgesetze er nicht durchschaut.

Entscheidend kommt es dann darauf an, daß die Technologiepolitik, aber auch jeder einzelne, der verantwortlich mit dem Einsatz der Informationstechnik zu tun hat, die gesellschaftliche Verantwortung aktualisiert.

Die entsprechende Nutzung neuer Systeme kann in vieler Hinsicht sichergestellt werden. Man muß nur soziale Anforderungen an diese Systeme zum integrierenden Bestandteil der jeweiligen Gestaltungsaufgabe machen. So hat die Vorstellung des "papierlosen Büros" den Blick auf eine Reihe von Problemen gelenkt, die ähnlich wie schon das Datenschutzproblem wichtige gesellschaftliche Anforderungen an das Arbeiten von Bürokratien präzisieren. Verwaltungsvorgänge müssen im Prinzip rekonstruierbar sein. Entscheidungsprozesse müssen nachvollzogen werden können. Das dient der internen Revision, der Ermittlung von Fehlerquellen und dem Nachweis unvorschriftsmäßigen Verhaltens. Es ist aber auch zunehmend von Bedeutung, ob der Staatsbürger das Verwaltungshandeln noch durchschauen kann. Bleibt bei Einsatz der neuen Techniken das Verwaltungsverfahren so intransparent, wie es heute ist, so wächst mit Sicherheit seine Angst, auch wenn sich der Sache nach nichts ändert. Noch mehr als bisher werden Rechtmäßigkeit und Transparenz des Verwaltungsverfahrens, aber auch Ordnungsmäßigkeit und Datenschutz zu organisatorischen Gestaltungsaufgaben.

Das Gestaltungsproblem wird freilich im genannten Beispiel dadurch kompliziert, daß das erforderliche Instrumentarium einer "Gewährleistungsarchitektur" auch zur inhaltlich nicht relevanten Messung der Arbeitsleistung verwandt werden kann und damit die Kontrolle und Überwachung am einzelnen Arbeitsplatz bis ins Unterträgliche steigern kann.

Damit wird deutlich, daß der Aktualisierung der gesellschaftlichen Verantwortung, einer adäquateren Nutzung der Informationstechnik vielfach Grenzen gesetzt sind. Das informationstechnische "Restrisiko" sollte Anlaß geben, sich auf zwei Regeln der Klugheit zu besinnen.

Die erste Regel besteht darin, so wenig vollendete Tatsachen wie irgend möglich zu schaffen. Es muß sichergestellt bleiben, daß die Entwicklung offen und korrigierbar bleibt, die Zukunft nicht "kolonialisiert" wird. Auch wenn später schädliche Auswirkungen entdeckt werden, müssen Möglichkeiten zur Kurskorrektur verbleiben.

Daraus folgt: Der Aufbau risikoschaffender administrativer Großsysteme in Wirtschaft und öffentlicher Verwaltung ist auf das strikt erforderliche Maß zu beschränken. Diese Systeme können zu einer Versteinerung gesellschaftlicher Verhältnisse führen. Dies nicht nur, weil sie hohe Investitionen erfordern, sondern auch, weil die Gesellschaft von ihnen abhängig wird. Gewiß wird diese Abhängigkeit oft übertrieben, etwa unter dem Hinweis auf den Zukunftsroman "The machine stops" von E. M. Forster. Dort versagt plötzlich eine Maschine, die eine utopische Gesellschaft mit allem Notwendigen versorgt. Auch in Zukunft werden Großsysteme der Informations- und Kommunikationstechnik nicht solchen Maschinen gleichzustellen sein; die Abhängigkeit von ihnen wird nicht derartige Formen annehmen. Dennoch dürfte es schwierig werden, Großsysteme wie Electronic-Funds-Transfer-Systeme wieder rückgängig zu machen, sollte man zu der Einschätzung gelangen, sie seien wegen Mißbrauchsgefahr, wegen der Verwundbarkeit der Gesellschaft oder mangels technischer Beherrschbarkeit zu gefährlich.

Ein weiterer, bislang noch nicht ernsthaft berücksichtigter Grund für eine Beschränkung administrativer Großsysteme liegt in der Angst, welche diese in der Bevölkerung hervorrufen. Auch dann, wenn diese Angst nicht gerechtfertigt ist, hat sie doch unmittelbare politische Wirkung; sie kann zu politischem Radikalismus führen, gesellschaftliche und politische Integration aufs Spiel setzen.

Keinesfalls ist es ausreichend, den Umgang mit Informationen in solchen Systemen nachträglich zu regeln. Datenschutzregeln, die das Verhalten der Anwender unmittelbar beeinflussen wollen, sind oft nicht einsichtig und reizen zur Umgehung. Beim Aufbau der Systeme ist vielmehr sicherzustellen, daß die Risiken minimiert werden. Zu überlegen ist, ob die Risiken durch dezentrale Systeme mit oder ohne Verknüpfung verringert werden können.

Gewiß wird kaum jemand bereit sein, als sinnvoll erkannte technische Entwicklungen aufzugeben, nur weil sich in der Zukunft mögliche Gefahren ergeben könnten, die man heute noch nicht vorausahnt. Dennoch sollte die Forderung nach Offenhaltung der Zukunft ernstgenommen werden.

Sichergestellt werden sollte vor allem, daß ein Notbetrieb "Zu Fuß" immer möglich bleibt.

Abdanken des Willens

Dies führt zur zweiten Klugheitsregel. Auch dezentrale Systeme können zu Formen der Abhängigkeit führen, wenn sie die Qualifikation ihrer Nutzer beeinträchtigen. Die Verdrängung der Fähigkeit zum Kopfrechnen durch Taschenrechner ist ein vergleichsweise harmloses Problem gegenüber den Entwicklungen, die sich ergeben können, wenn man sich mehr und mehr auf automatisierte Entscheidungsprozesse verläßt. Die Bewahrung menschlicher Geschicklichkeit im Umgang mit der Umwelt wird für unser Überleben wichtig bleiben. Der Mensch darf seine geistigen Fähigkeiten nicht so weit an Maschinen abtreten, daß er ohne diese nicht mehr auskommt. Die Gefahr eines Abdankens des Willens zur verantwortlichen Entscheidung ist real.

Auszugsweise Wiedergabe eines Vortrages, den Klaus Lenk auf einer Informationsveranstaltung der Siemens AG am 16. März in Budapest für Kunden aus der Industrie gehalten hat.