Datenbanken/Koordinator für den E-Commerce

Das Internet stellt Datenbanken vor neue Herausforderungen

29.10.1999
MÜNCHEN - Die Entwicklung von Datenbanken unterliegt einem permanenten Wandel. Galt es bislang, immer mehr logische Prozesse wie Zugriffslogik, Kontroll- und Sicherheitsmechanismen bis hin zu geschäftlichen Prozessen in die Datenbank zu verlagern, so hat mit dem Internet ein geradezu dramatischer Paradigmenwechsel stattgefunden. Jürgen Rosenhagen* erläutert die Zukunft der Datenbanktechnologie im Zeitalter des World Wide Web.

Die erste große Herausforderung für Datenbanken im Zeitalter des Internet heißt Offenheit. Stand früher noch die unternehmensinterne Sicht im Mittelpunkt, so gilt es nun, Kunden und Lieferanten in die Geschäftsprozesse einzubeziehen. Unterschiedliche Informationssysteme und Plattformen müssen dazu integriert werden. In Projekten rund um den E-Commerce werden heute interne und externe Transaktionen verknüpft und über das Internet verteilt abgewickelt. Dies jedoch bringt ganz neue Anforderungen an die Verfügbarkeit der IT-Systeme mit sich. In Enterprise Portals (EPs) schließlich gilt die Devise: Der Mitarbeiter soll alle internen und externen Informationen, die er für seine Arbeit braucht, an einer einheitlichen, personalisierten Schnittstelle erhalten.

Offenheit, Schnelligkeit und Ausfallsicherheit sind die Dimensionen, in denen der Nutzen von Internet-Applikationen gemessen wird. Neue Lösungen wie Datenbanken müssen angesichts der ungeheuren Dynamik dieses Marktes in immer kürzerer Frist bereitgestellt werden. Noch wichtiger ist, daß Unternehmen schnell auf bestimmte Ereignisse reagieren können - im Online-Business mit Finanz-Broker oder Internet-Auktionen ebenso wie im klassischen Geschäft, wo etwa der Kundendienst sich neuen Anforderungen gegenübersieht. Noch einmal muß der Begriff der abzubildenden Daten um eine neue Dimension ergänzt werden: um Ereignisse und Aktualität.

Die Informationstechnologie muß dafür sorgen, daß die hohen Erwartungen, die das Internet geweckt hat, mittels einer soliden Grundlage erfüllt werden. Die Datenbank muß dazu um zusätzliche Verarbeitungsfunktionen erweitert werden. Zugleich ist es wichtig, daß das gesamte Umfeld optimiert und eng mit ihr verknüpft wird. Der Ruf nach Offenheit, Schnelligkeit und Ausfallsicherheit bestimmt demnach auch die Anforderungen an moderne Datenbanksysteme: Integrationsfähigkeit, unterbrechungsfreie Verfügbarkeit und hohe Produktivität beim Aufbau von Internet-Lösungen.

Vor allem EPs stellen Datenbanksysteme hinsichtlich ihrer Integrationsfähigkeit vor eine schwierige Aufgabe. Interne und externe, unstrukturierte und strukturierte Informationen in unterschiedlichsten Datenhaltungssystemen und Applikationen auf heterogenen Plattformen müssen zusammengeführt und dem Nutzer in der von ihm benötigten Untermenge präsentiert werden.

Die damit verbundene Komplexität läßt sich bewältigen, wenn die Datenbank eine einheitliche Schnittstelle bietet und den Zugriff auf die vielfältigen Quellen intern verarbeitet. Dies ist beispielsweise über einen globalen Datenkatalog zu realisieren, in dem die unterschiedlichen Speicherungssysteme beschrieben sind. Die Applikation greift auf diese Schnittstelle zu - ob diese die benötigten Informationen nun direkt liefert oder als Proxy-Datenbank fungiert und andere physikalische Datenquellen an verschiedenen Orten anspricht, ist weniger wichtig.

Die erste große Herausforderung für Datenbanken im Zeitalter des Internet heißt Offenheit. Stand früher noch die unternehmensinterne Sicht im Mittelpunkt, so gilt es nun, Kunden und Lieferanten in die Geschäftsprozesse einzubeziehen. Unterschiedliche Informationssysteme und Plattformen müssen dazu integriert werden. In Projekten rund um den E-Commerce werden heute interne und externe Transaktionen verknüpft und über das Internet verteilt abgewickelt. Dies jedoch bringt ganz neue Anforderungen an die Verfügbarkeit der IT-Systeme mit sich. In Enterprise Portals (EPs) schließlich gilt die Devise: Der Mitarbeiter soll alle internen und externen Informationen, die er für seine Arbeit braucht, an einer einheitlichen, personalisierten Schnittstelle erhalten.

Offenheit, Schnelligkeit und Ausfallsicherheit sind die Dimensionen, in denen der Nutzen von Internet-Applikationen gemessen wird. Neue Lösungen wie Datenbanken müssen angesichts der ungeheuren Dynamik dieses Marktes in immer kürzerer Frist bereitgestellt werden. Noch wichtiger ist, daß Unternehmen schnell auf bestimmte Ereignisse reagieren können - im Online-Business mit Finanz-Broker oder Internet-Auktionen ebenso wie im klassischen Geschäft, wo etwa der Kundendienst sich neuen Anforderungen gegenübersieht. Noch einmal muß der Begriff der abzubildenden Daten um eine neue Dimension ergänzt werden: um Ereignisse und Aktualität.

Die Informationstechnologie muß dafür sorgen, daß die hohen Erwartungen, die das Internet geweckt hat, mittels einer soliden Grundlage erfüllt werden. Die Datenbank muß dazu um zusätzliche Verarbeitungsfunktionen erweitert werden. Zugleich ist es wichtig, daß das gesamte Umfeld optimiert und eng mit ihr verknüpft wird. Der Ruf nach Offenheit, Schnelligkeit und Ausfallsicherheit bestimmt demnach auch die Anforderungen an moderne Datenbanksysteme: Integrationsfähigkeit, unterbrechungsfreie Verfügbarkeit und hohe Produktivität beim Aufbau von Internet-Lösungen.

Vor allem EPs stellen Datenbanksysteme hinsichtlich ihrer Integrationsfähigkeit vor eine schwierige Aufgabe. Interne und externe, unstrukturierte und strukturierte Informationen in unterschiedlichsten Datenhaltungssystemen und Applikationen auf heterogenen Plattformen müssen zusammengeführt und dem Nutzer in der von ihm benötigten Untermenge präsentiert werden.

Die damit verbundene Komplexität läßt sich bewältigen, wenn die Datenbank eine einheitliche Schnittstelle bietet und den Zugriff auf die vielfältigen Quellen intern verarbeitet. Dies ist beispielsweise über einen globalen Datenkatalog zu realisieren, in dem die unterschiedlichen Speicherungssysteme beschrieben sind. Die Applikation greift auf diese Schnittstelle zu - ob diese die benötigten Informationen nun direkt liefert oder als Proxy-Datenbank fungiert und andere physikalische Datenquellen an verschiedenen Orten anspricht, ist weniger wichtig.

XML wird eine wichtige Rolle spielen

Um Abfragen in komplexen Umgebungen in vertretbarer Zeit und zu akzeptablen Kosten zu ermöglichen, sollte eine Datenbank heute über entsprechende Optimierungs-Tools wie etwa Query Optimizer für heterogene Daten-bankumgebungen verfügen. Die geforderte Integration beschränkt sich jedoch nicht auf Daten. EPs sollen dem Benutzer an einer einheitlichen Schnittstelle Zugang zu allen Informationen und Funktionen bieten, die für ihn relevant sind. Auf der technischen Ebene heißt das: Daten, Inhalte, Transaktionen und Events müssen zusammengeführt werden.

Content bezieht sich insbesondere auf unstrukturierte Informationen in Dokumenten und Dateien. Hier wird vor allem der noch recht junge W3C-Standard XML (Extensible Markup Language), eine Metasprache für das Strukturieren von Dokumenten, eine wichtige Rolle spielen. Voraussetzungen für die Integration von Transaktionen sind das enge Zusammenspiel von Datenbank- und Applikations-Server sowie die Unterstützung von Standards wie HTTP, Com, Enterprise Javabeans oder Corba.

Ganz entscheidend ist die Einbindung von Events, denn nur wenn der Nutzer unverzüglich über relevante Geschäftsvorfälle informiert wird, kann er der Schnelligkeit im Internet Rechnung tragen. Die Datenbank kann dies sicherstellen, indem definierte Datenbank-Events wie Tabelleneinträge, Updates oder Löschungen automatisch Nachrichten generieren, die über Standard-Messaging-Systeme an die betroffenen Anwender versandt werden. Damit lassen sich mehrphasige Geschäftsprozesse sehr effizient integrieren und ein Höchstmaß an Aktualität gewährleisten.

In einer offenen Umgebung greifen täglich viele Nutzer und verschiedenste Nutzergruppen unterschiedlich auf die Datenbank zu und nutzen sie zu ganz verschiedenen Zwecken. Dazu gehören etwa OLTP, Analyse- oder Decision-Support-Aufgaben. Damit trotzdem jederzeit eine gute Performance sichergestellt ist, sollte es möglich sein, je nach Bedarf Prioritäten zu setzen und Datenbankressourcen dynamisch zuzuweisen.

Die Verfügbarkeit ist das A und O im Internet

Im Internet-Business muß Verfügbarkeit im Bereich der Datenbanken neu definiert werden. Bereits kürzeste Ausfallzeiten, die bei der internen Datenverarbeitung vielleicht noch tolerierbar waren, können im weltweiten Online-Business zu dramatischen Geschäftsausfällen und einem Vertrauensverlust der Kunden führen. Der Nutzer an einem Portal hat nicht die Möglichkeit, auf einen Systemspezialisten zurückzugreifen. Benutzermeldungen wie etwa "Wegen regelmäßiger Wartungsarbeiten steht das System ab 18 Uhr nicht mehr zur Verfügung", führt im Internet unmittelbar zu einer Geschäftsschädigung.

Die Giga Information Group hat versucht, die stündlichen Kosten eines Systemausfalls in den verschiedenen Geschäftszweigen zu berechnen. Betragen sie bei der Flug-Reservierung 89000 Dollar, sind es beim Home-Shopping 133000, beim Verkauf über Kreditkarten 2,65 Millionen und im Online-Finanzgeschäft 6,45 Millionen Dollar. Die klassische Forderung nach hoher Verfügbarkeit genügt im Zeitalter des Internet nicht mehr: Benötigt wird eine kontinuierliche Verfügbarkeit.

Um dieses Ziel zu erreichen, können E-Commerce-Unternehmen verschiedene Vorkehrungen treffen. Als erste Maßnahme sollte eine Hardwareredundanz in Form von RAID und Massenspeicher-Spiegelung erfolgen. Sie schützt vor Rechner- und Plattenfehlern, nicht aber davor, daß in beide Bereiche fehlerhafte Daten geschrieben werden. Als nächstes folgt das "Cold Standby". Dabei werden Daten regelmäßig via Backup gesichert. Dies benötigt aber Zeit während der Wiederherstellung, in der die Datenbank nicht verfügbar ist. "Warm Standby" mit Hilfe des Replikationsmechanismus kann die Recovery-Zeit hingegen weiter reduzieren. Sichere Verfügbarkeit schafft jedoch erst das "Hot Standby" durch eine Cluster-Konfiguration aus zwei aktiven Servern. Fällt einer von ihnen aus, übernimmt der andere automatisch seine Applikationen und Datenbankfunktionen. Die Datenbank im Internet-Umfeld muß deshalb in der Lage sein, eine solche sogenannte Aktiv-aktiv-Konfiguration zu unterstützen.

Doch auch diese Hochsicherheitslösung schafft aus Sicht des Endbenutzers noch keine wirklich kontinuierliche Verfügbarkeit. Erst ein vollständig automatisierter Failover- beziehungsweise Failback-Prozeß, bei dem der Client diese Aufgabe abwickelt und die Zweitdatenbank automatisch den neuen Nutzer übernimmt, genügt den Anforderungen der Internet- und EP-Welt.

Angesichts der Geschwindigkeit, mit der im E-Commerce-Sektor nahezu täglich neue Anwendungsfelder und -strategien präsentiert werden, müssen entsprechende IT-Lösungen künftig immer schneller verfügbar sein. Vor allem wiederverwendbare Objekte, mit denen sich rasch neue Anwendungen aus diversen Front-, Middle- und Backoffice-Prozessen erzeugen lassen, unterstützen diese Strategie. Untrennbar verbunden mit diesem Ansatz ist die Programmiersprache Java. Sie einzubinden ist auch eine grundlegende Anforderung an jeden Datenbankhersteller.

Ohne Java läuft nichts

Zur Implementierung von Java existieren unterschiedliche Strategien - objektrelationale Ansätze ebenso wie die Speicherung von Java-Klassen und -Objekten als Werte in relationalen Datenbanken. In letzterem Fall ist die Java Virtual Machine (JVM) in den Datenbank-Server integriert, und die Kommunikation mit SQL läuft über Standard-Schnittstellen ab. Dadurch wird die Programmierung einer Datenbank wesentlich produktiver. Entwickler können Server-basierte Logik (Stored Procedures, Funktionen oder Trigger) als Java-Methoden definieren und so Prozesse automatisieren. Darüber hinaus läßt sich die Datenbank flexibel und nahezu unbegrenzt um beliebige neue Arten von Daten erweitern: Benutzerdefinierte Datentypen werden einfach als entsprechende Java-Klassen installiert. Darüber hinaus steht erstmals für alle Ebenen einer IT-Architektur ein einheitlicher Programmiermodus in Form eines gemeinsamen Objektmodells zur Verfügung. Anwendungen können zwischen Clients, Applikations- und Datenbank-Server ausgetauscht werden. So ist die IT rasch an neue geschäftliche Anforderungen im Internet-Umfeld anpaßbar.

Ein weiterer Vorteil ist es, wenn auch XML-Inhalte direkt in der Datenbank gespeichert werden. Mit diesem Standard lassen sich nicht nur Dokumente einheitlich strukturieren, es können auch alle Geschäftsdaten so beschrieben werden, daß jede Anwendung sie versteht. So werden Informationen aus verschiedenen Quellen konsolidiert, und Applikationen arbeiten mit beliebigen Daten aus dem Internet. Dies sind Grundvoraussetzungen für EPs sowie für den netzbasierten Business-to-Business-Commerce. Indem XML-Dokumente und -Daten das Potential einer Datenbank für Speicherung, Indizierung, Suche, Backup und Recovery nutzen, wird ihre gesamte Verwaltung einfacher; und Anwendungen erhalten auch hier eine einheitliche Schnittstelle.

Geschäftsprozesse, die unterschiedliche Partner an verschiedenen Orten einbeziehen, führen oftmals zu verteilten Transaktionen. Deren Management stellt eine Herausforderung dar, die sich mit klassischen TP-Monitoren bewältigen läßt. Allerdings werden dadurch Kapazitäten für systemnahe Program-mierung gebunden, die besser für die Implementierung von Business-Logik genutzt werden sollten. Wenn die gesamte Komplexität verteilter Transaktionen in die Datenbank verlagert wird, kann sich der Entwickler auf die Anwendungslösung konzentrieren; die Produktivität bei der Abbildung von Geschäftsprozessen über verteilte Systeme wird so gesteigert.

ANGEKLICKT

Offenheit, Schnelligkeit und Ausfallsicherheit heißen die Kriterien für Datenbanken im Zeitalter des World Wide Web. Bereits kleinste Ausfallzeiten, die bei der internen Datenverarbeitung eventuell toleriert werden konnten, können im weltweiten Online-Business zu dramatischen Geschäftsausfällen und Vertrauensverlust der Kunden führen.

*Martin Rosenhagen ist Marketing-Leiter der Sybase GmbH in Düsseldorf.