Wie sicher sind Codierungs-Verfahren?

Neue US-Daten-Verschlüsselungs-Norm

23.04.1976

Die US-Normenbehörde, das National Bureau of Standards (NBS), legte einen Standard-Algorithmus zur Verschlüsselung von Computerdaten vor. Kaum war die neue Norm - die nur staatliche Behörden bindet und dem freien Datenverkehr keinen Zwang auferlegt - beschlußreif, hagelte es Proteste.

Am prononciertesten trug seine Kritik Prof. Martin E. Hellman von der Stanford University vor. Schon in wenigen Jahren werde dieses neue Kodierungsverfahren mühelos zu knacken sein, während man es heute mit wenig Aufwand erheblich sicherer und vor allem zukunftssicher machen könne.

Die Notwendigkeit der Datenverschlüsselung vor allem während des Datentransfers und in den Datenbanken liegt auf der Hand, seit die Techniken der Datenspionage immer mehr verfeinert wurden. Heute gelten ja nicht einmal Mikrowellen-Übertragungskanäle mehr als spionagesicher. Damit steht und fällt die Datensicherheit praktisch mit der Qualität des "Schlüssels", der den Klartext in Zifferntext und zurück verwandelt, Zifferntext und zurück verwandelt, während es kaum Sinn hat, wie einst im Krieg, die Verschlüsselungsgeräte selber geheim zu halten: Sie sollen ja kommerziell angeboten werden.

Entscheidend: Die Schlüsselgröße

Wie nun ein Fahrrad-Ziffernschloß um so sicherer ist, je mehr Stellen es hat - und je länger ein Dieb also probieren müßte, ehe er die richtige Kombination gefunden hat -, so steigt auch bei der Daten-Verschlüsselung die Sicherheit mit der Bit-Zahl des " Schlüssels ". Das von IBM gelieferte System des NBS arbeitet effektiv mit einem 56-Bit-Schlüssel - und das ist für Hellman zu wenig.

56 Bit schützten schon heute höchstens gegenüber Neugierigen und der Geschäftskonkurrenz, meint der Kritiker, für interessierte Geheimdienste wie die National Security Agency (NSA) jedoch eine arg dünnschalige Nuß. Und für einen 64-Bit-Kode gelte das gleiche in spätestens zehn Jahren. Man solle daher gleich jetzt, was das Grundkonzept des vorliegenden Algorithmus wohl erlaube, auf 768 Bit gehen, wenigstens aber auf ökonomisch vertretbarere 128 Bit.

Bei der Normenbehörde verweist man demgegenüber auf die höheren Kosten der Bit-Vermehrung (den 56er Kode implementierte ein Hersteller auf zwei Silikonchips für keine 100 Dollar), auf die Tradition, nach der Normen nicht zu weit der aktuellen Technik vorauseilen sollen und auf die Schwierigkeit, eine Bit-Schwelle anzugeben, ab der man wirklich von einer zukunftssicheren Technik sprechen könne.

Hellman indes verweist auf einen weiteren gravierenden Schönheitsfehler des geplanten Algorithmus. Daten, die mehr als fünf Jahre verschlüsselt gespeichert werden sollen, können keinesfalls als sicher gelten, kodiert man sie mit dem 56er Schlüssel. Denn für etwa 10 000 Dollar könne man in der absehbaren Zukunft jeden Tag einen Schlüssel knacken, errechnete Hellman. Ihm kam inzwischen der Verdacht, weder bei der NBS noch beim Geheimdienst sei man wirklich an der Einführung einer sicheren Kodier-Norm interessiert: Gespräche mit Repräsentanten beider Organisationen jedenfalls lassen Hellman argwöhnen, der NSA wären Daten-Tresore nur allzu recht, die ihre ausgefuchsten Experten quasi mit einer zurechtgebogenen Büroklammer öffnen können.

* Egon Schmidt ist freier Wissenschaftsjournalist.