Datenkompression - Zukunftstechnik oder Augenwischerei?

Der Glaubenskrieg um "DAT" und "8-Millimeter"-Streamer

15.03.1991

Unter den Anbietern von Helical-Scan-Laufwerken vollzieht sich ein erbittert geführter Kampf. Kaum hat 8-Millimeter-Vertreter Exabyte sein 5-GB-Produkt vorgelegt, zieht nun DAT-Pusher HP den neuesten Trumpf aus dem Ärmel: Auf eine Kassette passen jetzt bis zu 9,5 GB, und das in

einem 31/2-Zoll-Drive.

Genutzt wird Datenkompression (DC), eine kontrovers diskutierte Technik. Doch HP hat offenbar gute Chancen, sowohl sie als auch das DDS-Format als Industriestandard durchzusetzen - gegen oder neben dem anderen DAT-Format Datadat.

Wie groß auch immer der nutzbare Faktor letztlich sein mag - kein Wunder, daß von seiten Exabytes gehörig gegen die DC als eine Art unlauterer Schachzug gewettert wird. Verbirgt sich dahinter bloße Augen(...)scherei? Firmen-Chef Behendt meint jedenfalls, Datenkompression gehört nicht ins Backup-Laufwerk, sie gehört hierarchisch gesehen auf einen höheren Level.

Vorzüge von DC kommen in Netzen zum Tragen

DC muß auf dem Primärmedium Hard-Disk geschehen, und die Vorzüge der DC sollten beim Verkehr über Netzwerke wie LANs zum Tragen kommen. Und Behrendt vergißt nicht anzufügen: "Ist das einmal soweit, was passiert dann mit HPs Innovation? Man ist wieder da, wo man vor der DC aufhörte, bei 183 KB/s und 2,2 GB!"

Was die Replik betrifft, gibt sich HPs Bob Tillman äußerst gelassen. "Eine im LAN-Verkehr etablierte DC ist gewiß eine wünschenswerte Angelegenheit, aber heute eher ein entferntes Ziel. Wir bringen mit dem DAT-Drive etwas, was jetzt machbar ist, was dem Kunden heute bereits seinen Nutzen bringt." Und auch er weiß etwas anzufügen, nämlich, daß sich HP selbst als Technologieführer bei Hard-Disks nicht mit DC-fähigen Winchester-Drives befaßt.

Algorithmus für die DC noch nicht standardisiert

Was dies im Klartext bedeutet, kommentiert Rudolf Strass, Technologie-Chef beim DAT-Erstanwender Gigatape, unzweideutig so: "Datenkompression auf der Hard-Disk ist der falscheste Platz, den ich mir vorstellen kann. Hier kämpft man doch hinsichtlich des schnellen Zugriffs mit großem Aufwand um Bruchteile von Millisekunden. Die für Kompression und Dekompression nötige Zeit fiele hier verzögernd, also schmerzlich, ins Gewicht. Beim Transfermit der Peripherie fällt diese Zeit aber unter den Tisch. DC-off-line oder near-line ja, DC-on-line nein!"

Eine weitere Argumentations-Attacke gegen die DC-Technik weiß Exabyte zu reiten. Mit mahnendem Finger stellt man als Problem dar, daß man sich letztlich eine gehörige Portion Inkompatibilität einfinge. Da es mit Ausnahme weniger Spezialfelder wie etwa Telefax grundsätzlich keinen Algorithmus gibt, der für alle Anwendungen optimal ist, machen Standardisierungsgremien wie etwa das ANSI tatsächlich auch keinerlei Vorgaben, welches der erste und beste Algorithmus sein sollte. Hier läßt sich also kein von oben abgesegneter, formal einheitlicher Nenner erwarten. Dennoch verwendet heute alle Welt - außer IBM - als DC-Basis die populären Lample-Ziff-Algorithmen. Auch im Drive 80A ist ein LZ-Algorithmus implementiert, der DCLZ. Und untergebracht ist er in einem einzigen, brandneuen Chip, auf den viele Hersteller lange warteten.

Was bislang durchaus schon breite Anwendung fand, nämlich als Chip-Set, ist jetzt physikalisch integriert - und mit einigen inhaltlichen Erweiterungen versehen. Seit Ende 1990 ist der ersehnte Chip jedenfalls in Mustern verfügbar.

Marktbeobachter sind sich ziemlich einig: Das Thema Datenkompression ist eine Durchsetzungsfrage. Ganz genauso, wie sich Firmen bisher entscheiden und verbindlich festlegen, welches Textverarbeitungs-System unternehmensweit zum Einsatz kommen soll, welcher Verschlüsselungsalgorithmus beim Verschicken sensibler Informationen über die Postleitungen als verbindlich gilt und das funktioniert sogar unternehmensübergreifend, wie die Automobil-Industrie mit ihren Zulieferern zeigt -, genauso wird sich der Anwender auch auf einen DC-Standard festlegen.

HP hat gute Karten und einen langen Atem

HP hat gute Karten und auch den langen Atem, DDS als auch die Kompressionvariante DC-DDS als Industriestandard zu etablieren. Das beinhaltet die Möglichkeit, nun gegen den bisher schier unangefochtenen Standard QIC massiv anzugehen - zumindest in jenem Marktsegment, das nach Backup-Devices mit Kapazitäten von mehr als 400 KB verlangt. Und dieses wächst ganz deutlich. Nicht nur, weil immer mehr und längere Files, produziert werden, sondern weil System-Manager den klaren Wunsch signalisieren, den Backup-Prozeß stärker zu automatisieren. Tapes mit großem Fassungsvermögen sind also gefordert.

31/2 Zoll Formfaktor, hohe Kapazität und Transferrate, Random Access bei 20 Sekunden, Partitionierungs-Möglichkeit und nun die verfügbare Software - das sind erfolgversprechende Eckwerte. Gewiß setzt sich die Gemeinde der QIC-Anbieter heftig zur Wehr. So gab es emsige Anstrengungen, die Kapazitätsgrenzen der QIC-Drives in Richtung "GB and beyond" zu pushen. Und Protagonist 3M hat auf der letzten Herbst-Comdex auch ein Entwicklungsmodell das nächsten Drives QIC-9135 vorgestellt, das einmal 1,35 GB Daten fassen soll. Doch im, wieweit alle Funktionen bereits einwandfrei laufen, das läßt sich bei einer solchen Vorstellung nie ganz nachvollziehen. Bob Tillman bleibt auch hier gelassen. "Wir wissen, wie lange es dauerte, bis das 525-MB-Drive endlich in greifbaren Stückzahlen kam. So kann uns die bloße Programmatik nicht gerade aufschrecken." Tatsächlich steht hinter dem Kürzel 3M ja kein Laufwerkhersteller, sondern der Leader eines Komitees. Und HP selbst hat das Ohr am Puls der Zeit - ist selbst (beobachtendes) Mitglied des Komitees.

Die sperrigen QIC-Cartridges werden nie in ein 31/2-Zoll-Drive passen können. Und die Media-Kosten sind auch viel höher (für 50 Dollar speichert ein QIC-Band 525 MB, für 20 Dollar ein DAT-Tape 5 bis 9,5 GB). Weil bei QIC der mechanische Aufwand ins Medium verlagert ist, sind indessen die Drives wiederum billiger als die Helical-Scan-Laufwerke. Auch hier, beim Pricing der Geräte, taten sich HP wie auch Exabyte bisher recht schwer.

Beide Seiten vertrösteten den Interessenten auf Zeiten, in denen "ein großer Ansturm auf die Basis-Technologie" (Video-8 und Audio-DAT) die Preise der Drives als Computerperipherie drastisch drücken würden eine Rechnung, die nicht auf ging. Nun betont HP, daß man auch hieraus lernte, daß man inzwischen ganz auf die eigenen, Kräfte setzt.

"Die hohe Integrationsleistung bei unserer neuen Generation ist auch Ausdruck dafür, daß wir unsererseits alles tun, um mit möglichst niedrigen Kosten und auch günstigen Fertigungsbedingungen in das Gerät hinein zu designen", betont HPs General Manager. Immerhin: Mit einem Richtwert von 1400 Dollar liegt die neue DC-Variante 80A bei allem "Mehr" nicht höher im OEM-Preis als das 1,3-GB-Drive vor einem Jahr. Und das Thema Pricing soll damit noch nicht abgeschlossen sein.

Bleibt letztlich noch die Frage: Wie steht es um den "Wettbewerber" Datadat, um das andere Format, das sich der Basis-Technologie DAT bedient? Neben der Möglichkeit, bis zu 254 Partitions anzulegen, wird von den Datadat-Protagonisten insbesondere auf das Feature "Random Write" abgehoben. Randem Access bedeutet bei DDS ausschließlich "Random Read". Eine Datei zu Überschreiben ist nicht möglich. Soll eine Datei aktualisiert werden, wird sie gelöscht (delayed) und die neue Version ans Ende des bisher beschriebenen Bereichs angehängt (appending). Datadat aber erlaubt das Überschreiben des alten Files - und am Bandende angehängt wird nur ein eventuell übrigbleibender Rest.

Erkundigt man sich bei Datadat-Befürwortern nach sinnvollen Anwendungsbeispielen für dieses - an sich schöne - Feature des "Update-in-Place", dann fallen die Antworten recht spärlich aus.

So wird gerne auf den Fall einer riesigen Preisliste verwiesen, die - nur jedes Quartal einmal für DTP-Zwecke gebraucht - nicht auf dem Primärspeicher Hard-Disk gehalten, nur dann ausgegraben und eventuell mit neuen Preisen versehen wird. Riesige Datenmengen müßten nicht angehängt werden, lautet das Argument.

HPs Bob Tillman indessen weiß auch hier abzuwehren. "Selbst wenn uns heute jemand auf wunderbare Weise ein Update-in-Place-Feature in die DDS-Drives hineinzaubern wollte, wir würden es nicht wollen. Was bedeuten 4 oder sogar 10 MB große Files, die wir anhängen - gemessen an der verfügbaren Kapazität? Wir haben auf dieses Feature verzichtet, und man hält uns gerne vor, DDS sei deshalb eine arme Nutzung der Basis-Technologie. Wir sehen das genau entgegengesetzt. Die Nutzung von Update-in-Place, von Random-Write ist eine arme Nutzung des ganzen Laufwerks, des Mechanismus. Es handelt sich von der Natur her um einen Streamer, nicht um ein Start-Stop-Device. Beherzigt man das nicht, tut man der Zuverlässigkeit keinen Dienst. Und bei der Zuverlässigkeit treten wir nun einmal traditionell an, Spitze zu sein."

Nicht zuletzt jedoch setzt HP darauf, daß Datadat zu spät kommen könnte. Zwar werden sich DDS und Datadat formal über die durchlaufenen Stationen ANSI und ECMA letztlich im Herbst im ISO treffen. Doch in praxi, auf Bit- und Byte-Level, war DDS viel früher "fertig", nutzbar für die Herstellung greifbarer Drives.

Diesen Vorsprung sticht der DDS-Pusher zu nutzen - ein wesentlicher Punkt in einer Phase, wo sich der Markt für die Helical-Scan-Technologie nun dynamisch zu öffnen scheint. Noch ist das Rennen zwischen den beiden Formaten um die Vorherrschaft nicht gelaufen.