Heute bieten Desktop-Workstations ausgefeilte Techniken

Immer mehr Anwender fordern Darstellung mit 3D-Grafiken

27.09.1991

Visualisierung macht als Schlagwort die Runde. Gemeint ist damit die aussagefähige Darstellung von Objekten und Daten mittels 3D-Grafik - am besten in Realzeit, so daß der Anwender spontanen Analysewünschen interaktiv nachgehen kann. Matthias Ehrlich und Gernot Schärmeli* schildern State-of-the-Art, Bedarf und produktive Vorteile.

Visualisierung ist unverzichtbares Element im Werkzeugkasten des Anwenders - ohne sie bleiben heute die höchsten Anforderungen an Produktivität nicht selten ohne jeden Nutzen. Sie ermöglicht dem Anwender, je nachdem, ob er 3D-Objekte konstruiert oder aus Volumendaten Ergebnisse grafisch darstellen soll, sich Facetten seines Problems begreiflich vor Augen zu führen, sich den schnellen Zugang zur vielgestaltigen Analyse zu verschaffen. Und: Sie dient ihm zur effektiven Kommunikation - sei es mit Kollegen, sei es beim Kunden. Ein Farbild in 3D, vielleicht bewegt, sagt mehr als tausend Worte, mehr als ein MB reiner Daten.

Das Erzeugen von Daten ist die eine Sache, das "Gewinnen" der Information eine andere. Visualisierung schält Informationen heraus und transportiert sie unmißverständlich ans Ziel. Sie ist Mittel zum Zweck.

Darstellung im Echtzeit-Verfahren

Dennoch hält sich zäh die - oft vom Herzen getragene - Ansicht, potente 3D-Grafik sei Selbstzweck, bunter Luxus, Spielerei. Nicht die Anwender freilich, Investitions-Entscheider sehen das so. Tatsächlich erscheinen die ursprünglichen Felder, die die 3D-Grafik dereinst technologisch getrieben haben, auf den ersten Blick auch recht singulär.

Die US-Air-Force forderte für das Pilotentraining Flugsimulatoren - wobei die Darstellung der 3D-Szenerie ebenso essentiell war, wie die der Position und Lage des Jets berechnende Flugphysikteil. Die Herausforderung bestand im Echtzeit-Verhalten - auf die die Industrie (Evans & Sutherland und bald auch Silicon Graphics) mit der Entwicklung von Geometry-Engines antwortet. Technologie-Treiber Nummer zwei wirkte im kommerziellen Bereich - und verkaufte gar "3D-Grafik an sich": Die Animations-Studios, die Mitte der 80er Jahre wie Pilze aus dem Boden schossen, um die TV-Welt mit flippigen neuen Bildern zu revolutionieren, Roboterdamen verführerisch in Werbespot-Szenen zu setzen oder Spielfilme mit wundersamen Tricksequenzen aufzuwerten. Die Herausforderung hieß fotorealistische Szenengestaltung. Die Antwort war Software mit elaborierten Rendering-Techniken.

Damals mußte das Rendern Numbercrunchern aufgetragen werden, und dennoch schwitzten sie an jedem Einzelbild Stunden bis Tage. Heute sind High-end- und auch Midrange-Workstations in der Lage, diesen Job zu tun, und zwar in Echtzeit - sofern man von echter Objekt-Objekt-Spiegelung absieht, es bei moderat komplexen Szenen beläßt und nicht 4000 x 3000 Pixels berechnen muß. Chips mit in Silizium gegossenen Rasterisierungs-Algorithmen helfen hierbei inzwischen.

Waren die beiden technologietreibenden Felder aber nun wirklich so singulär? Wohl kaum. Der Technologie bedienten sich sehr schnell weitsichtiger Anwender in einer ganzen Reihe von Branchen - als Mittel zum Zweck, zur Visualisierung.

Fotorealismus nutzten Designer und Innenarchitekten, egal ob sie Zahnarztstühle, Verpackungen oder ein Restaurantambiente entwarfen, Automobilfirmen, um in Marketing-Studien Testgruppen alternative Cockpitentwürfe beurteilen zu lassen. An Hügellandschaften andererseits orientierten sich beileibe nicht mehr nur Piloten. Auf ihrer Basis studieren Ökologen und Bauwirtschaftler weltweit die Führung neuer Straßen, die Auswirkung eines geplanten Staudammes, die Plage von Smog-Glocken.

Präsentiert der Architekt seinen Entwurf in traditioneller Manier, erwartet er vom Bauherrn ein ,Ja" oder "Nein" aufgrund der Vorstellungskraft, die dieser aus ein paar 2D-Zeichnungen, einer Fest-Perspektive-Darstellung und einem Papier-Modellchen entwickeln soll. Um wie vieles informativer dagegen ist ein Spaziergang oder -flug am Bildschirm - um das Eigenheim oder Bürogebäude herum, durch sämtliche Räume hindurch, und zwar live, interaktiv, so daß der Bauherr "Stop" sagen kann oder "Umdrehen, dies und das möchte ich mal genauer oder anders ansehen!"

Teure Manpower liegt nicht brach

An elektronisch generierten Entwürfen fehlt es nicht mehr, der Gang vom Zeichenbrett zu CAD ist hier längst im Gange. Geht es um die Konstruktion mechanischer Teile, ist CAD - und zunehmend 3D-CAD - weltweit keine Frage mehr. Daß hierbei die oft vertrackten Flächen des Bauteils optisch irgendwie "greifbar" sind, muß und darf man voraussetzen. Was aber den flexiblen Umgang mit dem Objekt betrifft, so bleiben dem Konstrukteur leider immer noch handfeste Wünsche offen. Moderne Unternehmenskulturen betonen, daß die Mitarbeiter verstärkt um Rat fragen oder sich abstimmen soll. Allenthalben wird auf Parallel-Engineering gesetzt. Time-to-market, Qualität und Kosten sind aufs sensibelste tangiert von effizienter Kommunikation. Mit einem flexibel, schnell und einfach zu handhabenden Visualisierungs-Werkzeug ist sie erst machbar: Der Kollege erfaßt, worauf es genau ankommt, und er erfaßt es schnell - teure Manpower ist nicht lahmgelegt mit mühsamer Einarbeitung ins Problem.

Visualisierung ist also angesagt, ja überfällig - auf breiter Front. Zur Verfügung steht heute ein breites Spektrum an Plattformen mit mächtiger 3D-Grafik, der Bestand an reifer Visualisierungs-Software komplettiert sich. Vorhanden ist der dringende Bedarf - von seiten der High-, Mid- und Low-level-User, von seiten der Wissenschaftler und Forscher und der Anwender fast aller Berufssparten, die mittels Elektronik Daten produzieren.

Letztere werden in immer größeren, gelegentlich sogar beängstigend gewaltigen Mengen erzeugt. Nicht nur

- per Konstruktion am CAD-Arbeitsplatz, auch

- per Meßdaten-Erfassung (etwa durch Tomographen in der Medizin oder Radar/IR-Sensoren eines Erderkundungs-Satelliten), insbesondere aber

- per Finite-Elemente-Programm-Läufe (FEM) auf Supercomputern (wenn etwa ein Motor-Verbrennungsraum optimiert, die richtige Wetterprognose ermittelt oder beim Drug-Design nach neuen Wirkstoffen gejagt wird).

FEM-Jobs benutzt man rund um die Welt - mit vehement steigender Tendenz vor allem in der Industrie. Auch auf Highend-Workstations. Der Kosten- und Zeit-Vorteil von CAE ist erkannt, der Verfall des Preis-Leistungs-Verhältnisses bei der Hardware tut das seine. Land- auf landab werden beträchtliche Summen investiert, um dem Anwender schnellere und mehr Läufe pro Zeiteinheit zu ermöglichen. Mehr rechenbare Modellvarianten soll die Produktqualität erhöhen. Gemessen aber an den tatsächlichen Entwicklungszyklen gehen die Erwartungen leider oft nicht auf. FEM-Anwender klagen immer mehr, daß sie beim Postprocessing noch Unmengen von Zeit damit verbringen, aus den Dateien ihre Ergebnisse auszugraben. Nicht mehr ein beschränkter Zugriff auf die FEM-Plattform ist der Flaschenhals, es ist die fehlende Visualisierung.

Wenn in der Geotechnik nach der Standsicherheit einer radioaktiven Endlagerstätte geforscht wird, türmen sich bis zu zehn Gigabyte Ergebnissaten auf - eine Dimension, die heute auch in anderen Bereichen auftritt. "Ein Supercomputer ohne geeignete Visualisierung ist ein Datenfriedhof", formuliert Professor Encarnacao von der Därmstädter Fraunhofer Gesellschaft treffend. Schätzungen sagen, daß 85 Prozent der solchermaßen produzierten Daten unangesehen bleiben. Forscher, die sich neuer Visualisierungsmittel bemächtigen und sich über die vor Jahren ins Archiv verfrachteten Files hermachen, entdecken, daß sie längst gefunden hatten, wonach sie lange Zeit ergebnislos suchten.

FEM-Daten sind Volumendaten. Damit stellt ihre Durchleuchtung eine besondere Herausforderung an trickreiche Methoden. Hier geht es nicht nur um Objektoberflächen, es geht um das, was zwischendrin liegt. Wollte man jedem Datenwert eine Farbe zuordnen, sähe der Anwender nur bunten Nebel. Insbesondere dann, wenn der FEM-Code pro Raumpunkt nicht nur einen Parameter ausgibt, sondern gleich mehrere. So sieht sich der Ingenieur, der sich für die Aerodynamik am Ende einer Tragfläche interessiert, mit immerhin fünf Parametern konfrontiert: neben Druck und Temperatur noch drei Werte für den Luft-Geschwindigkeits-Vektor.

Turbulenz-Zonen am Bildschirm

Wie kann er seine Files heute mit zeitgemäßem Visualisierungs-Werkzeug auf Schlüssel-Effekte hin untersuchen? Er wählt als Input die Druckdaten, greift sich aus einer Palette von Feature-Extraction-Bausteinen das Modul "Isosurface", holt sich ein "ColorMap"-Modul, ordnet dem Druck- ein Farbspektrum zu, legt noch einen Transparenzwert fest und addiert schließlich ein Rendering-Modul. Und mit einem Klick sieht er die Fläche gleichen Drucks, hinter der die Tragfläche durchscheint. Per Maus dreht er an einem Knopf - die Fläche wandert und verfärbt sich, der Ingenieur tastet sich an die so gefährlichen - weil Turbulenz und Strömungs-Abriß fördernden - Zonen kleiner Druckwerte heran. Zwischendurch dreht und wendet er die ganze 3D-Szene wie es ihm erforderlich scheint. An einer bestimmten Tragflächenstelle möchte er dann den Verlauf gleichen Drucks genauer studieren: Analog zum ersten Prozeß addiert er deshalb eine Schnittfläche - der Schnitt mit der Isofläche erscheint als Kontur.

Im zweiten Schritt die Strömungsverhältnisse

In einem zweiten Schritt mag sich der Ingenieur zugleich - das heißt grafisch überlagert - die Strömungsverhältnisse anschauen. Er holt sich die Geschwindigkeitsdaten, reduziert sie auf eine zusätzlich definierte 2D-Fläche, leitet den Output in einen Vektorgenerator und weiter ins Renderer-Modul - und er sieht auf der Schnittfläche ein Feld von Flußpfeilen. Genügt ihm das nicht, kann er sein Bild auch noch mit der Darstellung einer Strömungslinie präzisieren: Dazu holt er lediglich das Modul "Partide Tracing" und setzt das "Teilchen" auf seinen Startpunkt an der Flügelvorderkante.

Ingenieure und Wissenschaftler untersuchen ihre Daten nie auf stets die gleiche Weise. Deshalb möchten sie bei der Datenexploration spontan neuen Ideen folgen können. Bisherige Visualisierungs-Software kam ihnen da indessen nicht eben entgegen. Wer im Hause auf Code-Entwickler zugreifen kann, mochte sich ein für den Augenblick optimales Werkzeug auf der Basis von Grafiklibraries schneidern lassen - das aber für spätere Wünsche offen bleiben müßte, denn fürs Umprogrammieren kann und möchte der Anwender keine Zeit verlieren. Umfangreiche Turn-key-Pakete, die in der Folge vom Regal zu kaufen waren, bestachen zwar mit ihrem Grafik-User-Interface (GUI) und der Einführung von Drehknöpfen und Schiebern, orientierten sich aber an fixer Funktionalität für eine spezielle Art von Problem. Deshalb präsentierte sich dem Anwender auch dieser Typ Software eher als eine Art Blackbox, in die er seine Daten nur hineinschieben kann.

Den zeitgemäß-progressiven Ansatz verfolgen die sogenannten "Runtime-Application-Builder". Sie gehen nicht vom Großwerkzeug aus, sondern von einem Kasten kleiner Funktionsbausteine, von Modulen, die der Anwender interaktiv und flink vernetzen kann. Damit kann er sein persönlichers Visualisierungs-Werkzeug an Ort und Stelle zusammenstellen - und sofort anwenden. Er kann es speichern und später wieder in gleichem Design anwenden - oder es aber variieren. Die Module holt er sich per Point-and-Click, plaziert sie als Icons auf den Bildschirm, wählt und verbindet deren Ein- und Ausgänge - und baut sich so ein Netzwerk auf, das an ein Flußdiagramm erinnert. Wichtiges Kriterium für solcherlei Software ist indessen die Erweiterungsmöglichkeit. So sehr sich der Anbieter auch bemühen mag - alle irgendwann erforderlichen Funktions-Bausteine kann er a priori nicht bereitstellen. Ureigene Module muß der Nutzer deshalb etwa in C oder C+ + dazuentwickeln (lassen).

Wenn ein solches System nun ab 20 000 Mark zu haben ist, dann dürfte auch Multimedia wirklich interessant werden. Auf diese Form der integralen Kommunikation setzen Anwender und Anbieter große Erwartungen. Der Markt wird mit gehörigem Trommelwirbel angerührt. Doch die Vorstellung fällt schwer, daß die Zukunft eines wahren Multimedia in PCs liegen sollte, denen man das Abspielen von Sound und komprimierten Video-Clips hinzugesellt, die es aber an geeigneter 3D-Grafik fehlen lassen. Revolutionär kann Multimedia nur sein, wenn

- Realzeitfähige 3D-Grafik in Vollfarbe fotoreal anmutende Szenerie, sprich "Artificial Reality" erzeugt,

- Full-Motion-Video bis zu 30 Bilder pro Sekunde in hoher Auflösung darstellt - auch Full-screen,

- 16-Bit-Ton Stereo-Sound möglich macht,

- Potente Signal- und Bild-Verarbeitung 2D-Informationen jeglicher Art in Realzeit manipuliert,

- Farb-Text behandelt wird wie jedes andere 3D-Objekt auch, also Verzerrungen und selbst Metamorphosen möglich sind.

Ein Gutteil dieser Features ist im Tischrechner von heute bereits realisiert. Mitte der 90er Jahre könnten sie alle zur Verfügung stehen - in Notebook-Rechnern. Von Video-Disks gezogen könnten sich die Inhalte von Lexika, Fremdenführern und Lehrbüchern in bestechend umfassender Weise entfalten- nicht statisch, sondern animiert. Was sagen einem schon Einsteins elaborierte Formeln - wenn man seine Offenbarung, wie bereits vielfach demonstriert, auch trickreich veranschaulichen kann? So jedenfalls durfte dereinst Multimedia aussehen, wenn es revolutionär sein will.