Groupware versus Intranet/Hacker beißen bei Domino-Installationen auf Granit

In puncto Sicherheit können Intranets von Groupware-Techniken profitieren

16.05.1997

Dezentrale Netze für große Benutzerzahlen sind schwer kontrollierbar und stellen hohe Anforderungen an die Sicherheitstechnologien. Das Internet verkörpert diese Problematik par excellence. Seit dem Start des Web im Jahre 1993 haben viele der Nutzer ihre interne Kommunikation auf TCP/IP-basierte Router-Netze umgestellt oder diese entsprechend erweitert. Sie nutzen dadurch die weltumspannenden Goupware-Dienste auf Basis der Internet-Technologie.

Natürlich bringt dies auch Probleme mit sich. Sie werden am Beispiel der Unternehmen deutlich, die derzeit ihre Vertriebsstrukturen im Internet aufbauen. Zunächst ist zwischen öffentlichen und nichtöffentlichen Daten zu unterscheiden. Erstere sind in diesem Falle Leistungsangebote der Firmen, die via Internet möglichst einfach zugänglich sein sollen. Schließlich möchte man den Kunden zur Bestellung bewegen und ihn nicht durch aufwendige Sicherheitsmechanismen abschrecken.

Gibt ein Kunde eine Bestellung im Internet auf, fängt es an, kritisch zu werden: Seine Identität ist zu prüfen und ein E-Cash-Verfahren möglicherweise anzuwenden.

Der Kunde macht dabei persönliche Angaben, die nur dem vertraglichen Prozedere zwischen den beiden Marktpartnern dienen, nicht aber für Dritte bestimmt sind. Hier sind Sicherheitsmechanismen zwingend. Hat der Kunde seine Bestellung aufgegeben und den Zahlungsvorgang eingeleitet, werden die Bestelldaten mit den individuellen Kundendaten, zum Beispiel Rabattsätzen, zusammengeführt. Diese Daten sind keineswegs öffentlich, sondern im besonderen schützenswert, so daß entsprechende Sicherheitsvorkehrungen zu treffen sind.

Die grundsätzliche Problematik besteht also in der Vermaschung des Internet mit den proprietären unternehmensinternen Netzen. Es treten Sicherheitsrisiken in den Vordergrund, die in herkömmlichen heterogenen oder proprietären Netzwerken nicht in diesem Umfang existierten.

Hinzu kommt, daß die Zahl potentieller Angreifer stark gestiegen ist, weil mehr Surfer als zuvor überhaupt erst mit dem zu schützenden Netz in Berührung kommen können.

Welche Sicherheitsmechanismen bieten sich nun an, um die Offenheit wieder kontrolliert einzugrenzen? Das Angebotsspektrum erscheint auf den ersten Blick vielfältig. Zahlreiche Anbieter tummeln sich derzeit mit ihren Produkten am Markt und versprechen Lösungen. Um auf Sicherheitslücken mit den erforderlichen Maßnahmen reagieren zu können, sind diese zunächst zu unterscheiden:

1. Sicherheit vor unerwünschtem Zugang: Hierbei geht es um die systematische Einschränkung des Zugangs zu Computern eines Netzwerks, um Spionage, Diebstahl, Manipulation oder die Zerstörung von Datenbeständen zu unterbinden. Firewall-Systeme leisten hier Schutz und erschweren unerwünschte Zugriffe.

2. Sicherheit vor unerlaubtem Zugriff auf Datenströme und deren Manipulation: Auch wenn Daten lokal geschützt sind, ist deren Sicherheit bei einer Übertragung via Internet nicht mehr gewährleistet. In einem TCP/IP-Netzwerk lassen sich Daten auf jedem vermittelnden Host sichtbar machen, kopieren oder manipulieren. Darüber hinaus sind ihre Spuren in den Protokollen und Cache-Dateien dieser Systeme zu finden. Diesem Risiko kann durch Verschlüsselungstechnologien begegnet werden.

3. Sicherheit vor falscher Benutzeridentität: Nicht jeder Kommunikationspartner ist auch der, der er vorgibt zu sein. Authentifizierungsverfahren schieben dem Identitätsschwindel einen Riegel vor.

Routing-Tabellen verbinden flexible Sicherheitskonzepte

Sicherheit vor unerwünschtem Zugang zu einem Netzwerk beziehungsweise Netzbereich leisten Firewalls. Durch sie läßt sich der Datenverkehr zwischen zwei Netzwerken oder Teilen eines Netzwerks kontrollieren. Das Paradebeispiel ist hier natürlich der Übergang vom Intranet zum Internet. Verschiedene Hard- und Software-Komponenten sind dabei im Einsatz:

-Paketfilter: Sie differenzieren Datenpakete nach Art und Inhalt, zum Beispiel Sende- und Empfangsadresse, Protokolle oder Applikations-Ports. Diese Aufgabe wird meist von Routern wahrgenommen, die eine Analyse der Header-Informationen in den Datenpaketen vornehmen. Mit der Header-Analyse können dann, wenn sie um entsprechende Regeln ergänzt wird, bestimmte Datenpakete abgewiesen werden. Routing-Tabellen sind statischer Natur und erlauben keine flexiblen Sicherheitskonzepte. Sie werden daher meist nur als Vorfilter eingesetzt. Außerdem besteht die Gefahr, daß ein Eindringling eine zulässige Netzwerkadresse vortäuscht (IP-Spoofing) und den Paketfilter somit einfach umgeht. Die Werkzeuge hierfür sind im Internet verfügbar.

-Gateways: Diese Komponenten überwachen den Datenverkehr auf Protokollebenen oberhalb der Netzwerkschicht. Man kann sie in zwei Gruppen unterteilen: Circiut-Level-Gateways arbeiten direkt auf Ebene der Transportprotokolle wie HTTP, FTP oder NNTP. Die zweite Gruppe wird als Application-Level-Gateways bezeichnet und arbeitet direkt auf Anwendungsebene.

-Multi-Homed-Hosts: Es handelt sich dabei um einen Rechner, der über mehrere unabhängige Netzkarten und meist auch Protokolle verfügt - ein Netzadapter für die externe, der andere für die interne Kommunikation. Werden die Routing-Funktionen des Betriebssystems zwischen beiden Netzkarten deaktiviert, sind die Netze getrennt, obwohl die Dienste des Multi-Homed-Host beiden Seiten zur Verfügung stehen. Die Architektur ermöglicht es, Daten von einem Netzwerk in das andere zu übertragen, ohne diese auf den niedrigeren Netzwerkschichten direkt zu verbinden. Die eigentliche Verbindung erfolgt dann applikationsnah mittels sogenannter Store-and-Foreward- oder Replikationsdienste. Die auf dem Multi-Homed-Host zwischengelagerten Daten sind vor ihrer Weiterleitung auf Viren oder trojanische Pferde überprüfbar. Gefahr droht dann, wenn es einem Angreifer gelingt, sich zum Beispiel per Telnet lokal auf dem Multi-Homed-Host anzumelden. Dann hat er mit einem Schritt die Sicherungsfunktion dieser Firewall außer Kraft gesetzt.

Firewall-Systeme regeln den Zugriff durch mögliche Angreifer. Gefahr besteht aber auch dann, wenn ein Angreifer während der Datenübertragung auf der Leitung lauscht. Via IP-Netz übertragene Datenpakete sind zunächst unverschlüsselt, ihre Inhalte problemlos zu entnehmen. Abhilfe leisten hier Verschlüsselungstechnologien.

In der Praxis kommen insbesondere symmetrische und asymmetrische Verschlüsselungsverfahren zum Einsatz. Der Unterschied liegt in der Art und Weise, wie Schlüssel gehandhabt werden, nicht in der endgültigen Sicherheit, die sich aus der Länge des Schlüssels und dem verwendeten Algorithmus herleitet.

Das symmetrische Verfahren benutzt denselben Schlüssel für die Ver- und Entschlüsselung. Beide Seiten müssen daher eine Kopie des Schlüssels besitzen, um gesicherte Nachrichten austauschen zu können. Die derzeitigen Internet-Standards tragen die Bezeichnungen DES und RC4.

Bei symmetrischen Schlüsseln ergeben sich zwei Probleme: Zum einen muß vor deren Einsatz auf sicherem Wege eine Kopie an einen Kommunikationspartner übertragen werden, und zum anderen wird der Schlüssel dort auf einem Rechner hinterlegt und ist eventuell leicht zugänglich.

Das asymmetrische Verfahren (zum Beispiel RSA) unterteilt den Schlüssel in einen privaten Teil (Private Key) und einen öffentlich zugänglichen (Public Key). Beide werden gleichzeitig erstellt und sind über mathematische Beziehungen verbunden.

Der private Teil bleibt geheim auf dem Rechner des Benutzers, der öffentliche Schlüssel wird an einem für alle zugänglichen Speicherort (zum Beispiel auf speziellen Internet-Schlüssel-Servern) hinterlegt. Will man von A nach B eine sichere Nachricht senden, dann wird diese mit dem öffent- lichen Schlüssel von B verschlüsselt. Eine Decodierung ist nur mit dem passenden Gegenstück, dem privaten Schlüssel von B, möglich.

Private Key für die elektronische Unterschrift

Der Vorteil liegt darin, daß der öffentliche Schlüssel sich einfach per E-Mail verteilen läßt, ohne die Sicherheit der Datenübertragung zu gefährden. Da die Schlüsselpaare einmalig sind, kann man beispielsweise den Private-Key für eine elektronische Unterschrift verwenden. Die erzeugte Nachricht ist dank des öffentlich zugänglichen Public-Key für jeden lesbar, und gleichzeitig steht der Absender fest, da nur ein Private-Key existiert.

Aber auch das asymmetrische Verschlüsselungsverfahren schließt Manipulationen nicht aus: So lassen sich Schlüssel unter falschem Namen verbreiten. Es ist daher wichtig, daß die verwendeten Schlüssel vertrauenswürdig sind - und das beginnt bereits beim Hersteller. Zu den seriösen Anbietern gehört beispielsweise die amerikanische Firma Verisign.

Nur Client und Server kennen die Bitsequenzen

Der im Internet verbreitete SSL-Standard benutzt eine Kombination aus symmetrischer und asymmetrischer Verschlüsselung. Das SSL-Protokoll setzt auf der TCP/IP-Ebene auf und ist in der Lage, alle höheren Protokolle des Internet wie HTTP, Telnet, Gopher und andere zu übertragen. Zunächst wird bei dem Verbindungsaufbau zwischen Client und Server ein geheimer Schlüssel unter Nutzung eines Public-Key-Verfahrens ausgetauscht (Pre-Master-Secret). Hierzu bildet der Client eine 4-Bit-Zufallszahl und sendet sie verschlüsselt mit dem Public-Key des Servers. Auf diese Weise kennen ausschließlich Client und Server die gebildete Bitsequenz. Daraus leiten beide Komponenten nach einem festgelegten Verfahren den endgültigen Master-Key ab.

Dieser wird dann im Rahmen eines symmetrischen Verschlüsselungsverfahrens für die Sicherung der Datenkommunikation verwendet. Die große Schwachstelle dieses Vorgehens liegt bei der Erzeugung der 48-Bit-Zufallssequenz. Denn wird die Arbeitsweise dieses Programmteils bekannt, läßt sich die Kodierung brechen.

Aufbauend auf diese Methoden lassen sich nun Verfahren einsetzen, die eine detailliertere Zugriffskontrolle ermöglichen. Die Firewall-Technologie begnügt sich mit der Zuweisung von Rechten anhand von Netzwerkadressen und Applikationsdaten. Um die Zugriffsrechte aber noch enger an einzelne Benutzer zu binden, sind Anwender im Netzwerk wieder erkennbar zu machen. Zwei Methoden bieten sich an:

-Paßwörter sind die einfachste Form der Benutzeridentifizierung. Sie sind sowohl zentral als auch dezentral zu verwalten. Gewöhnlich wird mit dem Paßwort auch der Benutzername abgefragt. Zu Unsicherheiten kommt es dann, wenn die Abfrage innerhalb einer unverschlüsselten Datenverbindung vorgenommen wird.

-Die Authentifizierung ergänzt das Verfahren der Paßwortabfrage um eine weitere Komponente. Dabei wird vom Anwender noch ein zusätzlicher Beweis seiner Identität, ein elektronisches Zertifikat, verlangt. Diese Zertifikate basieren meist auf asymmetrischen Verschlüsselungsverfahren und werden durch Zertifizierungsstellen ausgegeben.

Sinnvoll ist es auch, verschiedene Sicherheitsmechanismen miteinander zu kombinieren. Das folgende Beispiel veranschaulicht ein umfassendes Sicherheitskonzept einer Internet-Intranet-Kopplung auf Basis von Lotus Notes/Domino. Ausgangspunkt ist ein Unternehmen, das seine Produkte über das Internet vertreibt:

Das Internet-Angebot wird auf einem unternehmensinternen Server (Server 2) erstellt und per selektiver Replikation im Rahmen eines Gateway-Konzepts auf den Internet-Server (Server 1) übertragen (siehe Abbildung). Via Browser greifen die Kunden auf diesen Server zu und tätigen den Kauf bei Gefallen. Die Bestellungen werden dann im Rahmen eines Workflow-Prozesses auf den unternehmensinternen Server 2 zurückübertragen. Hier werden die Bestellungen weiterverarbeitet - sensible Daten wie Preiskalkulationen und Rabattsätze berücksichtigt.

Ein Router verbindet den Server 1 mit dem Internet. Er überprüft eingehende IP-Pakete mittels Paketfilterung auf die darin adressierten Ports und läßt nur Pakete für den Domino-Port 80 passieren. Server 1 ist als Domino-Server (HTTP-Task) konfiguriert.

Er besitzt zwei Netzwerkkarten (Multi-Homed-Host), wobei eine davon über TCP/IP und den Router mit dem Internet kommuniziert und die andere mittels eines Nicht-IP-Protokolls - zum Beispiel SPX - für die unternehmensinterne Anbindung eingerichtet ist. Die HTTP-Task des Server 1 ist darüber hinaus so konfigurierbar, daß nur bestimmte IP-Adressen auf diesen Server zugreifen können.

Beide Notes-Server laufen in einer eigenständigen Notes-Domäne. Die öffentlichen Schlüssel liegen daher in unterschiedlichen Adreßbüchern, so daß eine Kommunikation zwischen beiden Servern erst nach einer Querzulassung möglich wird. Dies schützt zusätzlich vor unerlaubten Zugriffen.

Die Kundenidentifikation und deren Kommunikation mit Server 1 wird über SSL gesichert. Domino sieht hierbei sowohl die Verwendung selbsterstellter Schlüssel als auch die von öffentlichen Zertifizierungsstellen vor. SSL ermöglicht in diesem Rahmen zum Beispiel die verschlüsselte Übertragung von Zahlungsinformationen wie Kreditkartennummern. Die Verwaltung der Kunden erfolgt in einer Registrierungsdatenbank (einem zweiten Namens- und Adreßbuch), wo jeder Kunde mit Namen und dazugehörigem Paßwort verzeichnet ist.

Das Konzept koppelt ein Notes-basiertes Intranet an das Internet, und nur ausgewählten Kunden stehen die Internet-Angebote offen. Es verhindert zudem den Zugriff auf nichtöffentliche Daten, die unternehmensintern verwaltet werden.

Angeklickt

Seit Beginn des Internet-Booms im Jahre 1993 haben viele Unternehmen ihre interne Kommunikation auf TCP/IP umgestellt und ihre Netzwerke erweitert. Sie nutzen dadurch weltweit Groupware-Dienste auf Basis der Internet-Technologie. Dadurch entstanden allerdings auch Netze, die noch größer und komplexer sind als früher und hohe Sicherheitsrisiken bergen. Der Beitrag schildert, wie sich mittels Paketfilterung, Verschlüsselung, Authentifizierung und Multiprotokoll-Unterstützung die Systemsicherheit erhöhen läßt. Abschließend wird am Beispiel einer Lotus Notes Domino-Installation die kombinierte Anwendung dieser Mechanismen vorgestellt.

*Klaus Fochler und Jörg Ungermann sind Mitarbeiter von Fochler Consulting in Frankfurt am Main.