Peer-to-Peer-Computing: Einer für alle, alle für einen

Die Last im Netz verteilen

10.12.2001
Mit Peer-to-Peer-Computing macht derzeit ein Verfahren von sich reden, das anstelle von zentralen Rechnern auf gleichberechtigtes Miteinander im Rechnerverbund setzt. von Klaus Henke*

Die berühmt-berüchtigte Musiktauschbörse Napster hat der Peer-to-Peer-Technik zu zweifelhafter Popularität verholfen. Lehrte sie doch der internationalen Unterhaltungsindustrie das Fürchten, indem sie Anwendern aus aller Welt den Austausch von populären Musikstücken in Form von MP3-Dateien via Internet ermöglichte. Auf diese Weise umgingen die Napster-Benutzer die üblichen Vertriebskanäle, und weltweite Musikkonzerne wie Sony oder EMI sahen sich bereits in ihrer Existenz bedroht.

Während jedoch das Phänomen Napster vom Establishment der Unterhaltungsindustrie aufgesogen wurde, hat die zugrunde liegende Technik durchaus das Zeug, die vernetzte Computerwelt grundlegend zu verändern. Napster speicherte die von ihm gehandelten Dateien nämlich nicht zentral ab - die Musiktitel lagen weltweit verteilt auf den Rechnern der daran angeschlossenen Benutzer. Zwischen diesen Endknoten des Systems gibt es keine hierarchische Abstufung, weswegen das zugrunde liegende Verfahren auch Peer-to-Peer-(P-to-P-)Computing genannt wird. Der englische Begriff Peer bedeutet so viel wie Gleichrangiger, Gleicher. Die an das Netz angeschlossenen Einheiten sind also einander ebenbürtig - leider lässt sich das im Deutschen nicht annähernd so griffig ausdrücken.

Es dauerte nicht lange, bis die ersten Experten begannen, von einem Paradigmenwechsel zu sprechen, den P-to-P für das Internet, aber auch für Unternehmensnetze einläuten könnte. Es wurden sogar schon Stimmen laut, die von einem Ende der Client-Server-Ära sprachen.

Bei näherer Betrachtung des hinter P-to-P stehenden Prinzips stellt sich heraus, dass damit viel mehr möglich ist, als nur Anwender verteilte Dateien nutzen zu lassen. Weitere interessante Einsatzgebiete sind beispielsweise die Bereiche Distributed Computing, Instant Messaging oder Collaboration. Der Vielfalt der Einsatzmöglichkeiten entsprechend erweist es sich als äußerst schwer, eine knappe und dabei passende Definition des Begriffs zu finden. Am simpelsten hat es vielleicht Brian Buehling, Geschäftsführer der Beratungsfirma Dakota Systems, formuliert: "P-to-P lässt sich am ehesten als eine Gruppe von Verfahren beschreiben, die darauf abzielen, die Nutzung vernetzter Ressourcen zu optimieren."

Clients werden Server

In der Regel geschieht das über spezielle Client-Software, die auf dem Rechner des Anwenders installiert wird. Sie sorgt dafür, dass der Benutzer mit seinen "Peers" kommunizieren kann und ermöglicht anderen Teilnehmern den Zugriff auf die eigenen freigegebenen Ressourcen. Da dies in der Regel über das Internet geschieht, könnte man vereinfachend sagen, dass dadurch jeder Client gleichzeitig zum Server wird, der die Anfragen anderer Clients beantwortet.

Zu den prominenten Beispielen für Distributed Computing gehört das Projekt Seti@Home. Seti (Search for Extraterrestrial Intelligence) ist der Name eines Programms, das versucht, mit Hilfe eines riesigen Radioteleskops Signale außerirdischer Lebensformen aus dem Weltall aufzufangen. An der Auswertung der gigantischen Datenmengen können sich Privatpersonen beteiligen, indem sie sich einen speziellen Bildschirmschoner auf ihrem Rechner installieren. Immer dann, wenn der PC nicht benutzt wird, nutzt der Screensaver die brachliegende Rechenleistung für die Untersuchung von Datenhappen, die ihm ein Server des Labors für Weltraumforschung der Universität von Berkeley, Kalifornien, zuschickt. Die Ergebnisse sendet er seinerseits an die Forscher zurück.

Sämtliche Rechner ziehen somit an einem gemeinsamen Strang und ermöglichen so den Wissenschaftlern, Berechnungen auszulagern, für die sie sonst teure Hochleistungscomputer einsetzen müssten. Dabei werden die abzuarbeitenden Daten in Häppchen von 340 KB an die Teilnehmer verschickt.

Das Projekt hat beeindruckende Ausmaße: Nach Angaben von David Anderson, einem der Initiatoren von Seti@Home, stellten im Oktober des vergangenen Jahres 2,5 Millionen Teilnehmer ihre schlummernden Rechenreserven zur Verfügung. Zusammengenommen entsprechen sie laut Anderson einem Supercomputer mit einer Rechenleistung von etwa 20 Teraflops. Zum Vergleich: Der 110 Millionen Dollar teure, schnellste Computer der Welt (im Besitz des US-amerikanischen Energieministeriums) schafft 12 Teraflops.

Eine weitere, viel zitierte Einsatzmöglichkeit bildet das File Sharing. Das Napster-System ist mit Sicherheit der bekannteste Vertreter dieses Ansatzes. Allerdings handelt es sich hier eigentlich nicht um Peer-to-Peer-Computing, weil eine zentrale Instanz die Kommunikation unter den Anwendern regelt. Deswegen sei hier ein weiteres Projekt erwähnt, das ohne Server auskommt: Gnutella.

Der Name Gnutella setzt sich zusammen aus der Bezeichnung des Open-Source-Projekts Gnu, was für "Gnu#s not Unix" steht, und dem Namen eines Brotaufstrichs. Seine Erfinder suchten ursprünglich nur nach einer Möglichkeit, mit anderen Personen Kochrezepte über das Internet auszutauschen. Sie entwickelten eine Lösung, die in ihrer ursprünglichen Form tatsächlich dezentral arbeitete und ohne eine koordinierende Instanz in Gestalt eines Servers auskam. Der Hauptvorteil der Gnutella-Struktur: Das Gesamtsystem ist fehlertolerant und ausfallsicher, weil es keinen Single Point of Failure gibt. Die inzwischen aus Performancegründen erfolgte Einführung von "Host Caches", die Adressen von Gnutella-Knoten vorhalten, hat dieses Prinzip allerdings etwas aufgeweicht.

Dass die verteilte Datenhaltung auf P-to-P-Basis von Vorteil ist, hat inzwischen auch Microsoft erkannt. Der Softwarehersteller arbeitet unter dem Namen "Farsite" an einer Lösung, bei der die angeschlossenen User ihre Daten auf einem fiktiven zentralen Server speichern, der physikalisch nicht existiert. Tatsächlich werden die Informationen auf den einzelnen Rechnern selbst verteilt abgelegt. Detaillierte Informationen hierzu finden sich unter http://research.microsoft.com/sn/farsite/overview.htm.

P-to-P kann aber noch mehr: "Jabber" etwa ermöglicht es den teilnehmenden Clients, im Sinne von Instant Messaging direkt miteinander zu kommunizieren, ohne dass ein zentraler Server benötigt wird. Das soll einen Vorteil zumindest im Hinblick auf die Geschwindigkeit der Kommunikation bringen: P-to-P-Befürworter behaupten, auf diese Weise erreichen Nachrichten um bis zu 50 Prozent schneller ihren Adressaten.

Permanent online?

Einen Schritt weiter geht "Groove", das Ray Ozzie, einer der Väter von Lotus Notes, entwickelt hat. Die bereits kommerziell erhältliche Software bietet neben Instant Messaging weitere Möglichkeiten, mit anderen Nutzern zusammenzuarbeiten. So kann man gemeinsam Dokumente editieren, Whiteboards benutzen oder in Foren diskutieren. Groove setzt dabei auf Techniken wie die Extensible Markup Language (XML) und das Simple Object Access Protocol (Soap).

Groove-Networks bieten dazu eine ergänzende Dienstleistung, durch die man nicht ständig online sein muss, um das Programm nutzen zu können: Ein zentraler Server kontrolliert die Anwesenheit der Nutzer. Loggen sie sich aus, speichert dieser Rechner alle in Abwesenheit des Teilnehmers stattfindenden Änderungen und synchronisiert sie bei erneuter Anmeldung.

Es ist nicht von der Hand zu weisen, dass solche Lösungen auch für Unternehmen interessant sein können. Hier werden die in den Desktop-Rechnern schlummernden Ressourcen ebenfalls nicht optimal genutzt - mit P-to-P ließe sich das ändern. So wäre es durchaus denkbar, dass die PCs im Firmennetz mit Hilfe dieser Technik mit vereinten Kräften eine rechenintensive Aufgabe für die Entwicklungs- oder Forschungsabteilung lösen helfen.

Von Vorteil wäre auch die Nutzung von File Sharing auf P-to-P-Basis. Wenn Rechner nicht mehr jedes Mal auf einen zentralen Punkt zugreifen müssen, ließen sich Engpässe an wichtigen Servern vermeiden, auf die viele Clients zugreifen müssen. Außerdem könnte man die vorhandene Übertragungsleistung im Unternehmensnetz gleichmäßiger ausnutzen, wenn bestimmte Files dezentral auf verschiedenen Clients verteilt lagern. So wäre es denkbar, sämtliche für eine Arbeitsgruppe relevanten Dateien verteilt auf den Rechnern der dazugehörigen Mitarbeiter zu speichern. Normale Schreib- und Lesezugriffe würden folglich nur Datenverkehr in diesem speziellen Segment erzeugen.

Auf diese Weise ließe sich beim File Sharing und Instant Messaging die Netzlast insgesamt verringern. Beim Distributed Computing hingegen führt die Dezentralisierung eher zu einem Mehr an Datenkommunikation im Netz. Der Nutzen von P-to-P für ein Unternehmen kann daher nur anhand genauer Analyse des betreffenden Einzelfalls beurteilt werden.

Schließlich gibt es eine Reihe von Problemen, die dem Einsatz von P-to-P im professionellen Umfeld derzeit noch entgegenstehen. Dazu gehört vor allem das Fehlen einer einheitlichen Kommunikationsinfrastruktur, wie Brian Morrow, Chairman der Peer-to-Peer Working Group sowie President und Chief Operating Officer der Firma Endeavors, bestätigt. Nur nach Einführung entsprechender Standards ist in einem zweiten Schritt an eine Interoperabilität verschiedener P-to-P-Lösungen zu denken.

Aktivitäten in diese Richtung gibt es bereits: Sun etwa versucht, seine "Jxta"-Plattform als technologische Basis zu etablieren, auf der P-to-P-Dienste aufsetzen können. Die Lösung ist modular aufgebaut: Auf der untersten Ebene bietet sie einen so genannten Technology Layer mit Funktionen für den Beitritt von Peers zu Gruppen sowie Mechanismen zur Kommunikation ("Peer Pipes") und Authentifizierung("Peer Monitoring"). Darauf setzt eine Service-Schicht auf, die funktionsreichere Bausteine für die Anwendungsentwicklung bietet. Anwendungen wie Napster oder Groove müssten beispielsweise keine eigenen Infrastrukturdienste definieren, sondern könnten die von Jxta bereitgestellten Services nutzen. Das Konzept ist viel versprechend - ob sich Jxta allerdings etablieren kann, lässt sich momentan noch nicht absehen.

Auch in puncto Management gibt es noch offene Fragen. Die IT-Abteilungen in den Unternehmen werden nicht gewillt sein, sich einen P-to-P-Wildwuchs ins Unternehmensnetz zu holen und nach

Sicherheit fraglich

einer Möglichkeit verlangen, die P-to-P-Verbindungen kontrollieren und administrieren zu können. Das erscheint insbesondere dann gerechtfertigt, wenn auch Teilnehmer außerhalb des Unternehmens die Möglichkeit erhalten sollen, an den firmeninternen P-to-P-Gruppen teilzunehmen.

Unklar ist auch noch die Sicherheit von P-to-P. Zwar bieten einige Systeme starke Sicherheitsfunktionen. Bei Groove etwa erfolgt die gesamte Kommunikation zwischen den Clients verschlüsselt, ebenso werden alle Dateien auf der Festplatte gespeichert. Diese Features lassen sich zudem nicht einmal abschalten. Auch in Suns Jxta sind ähnliche Dienste, etwa für die Authentifizierung, enthalten. Die Analysten der Geneer Corp. weisen in ihrem Report "Peer-to-Peer Computing and your Business" allerdings darauf hin, dass "viele, wenn nicht die meisten der derzeit verfügbaren P-to-P-Applikationen, keinerlei Sicherheitsfunktionen implementieren".

Ein weiterer Bereich, der im professionellen Umfeld Probleme bereiten könnte, ist die Verfügbarkeit. Wenn Unternehmen beispielsweise dezentral Daten speichern wollen, dann muss sichergestellt sein, dass alle Clients auch stets darauf zugreifen können. Hier bedarf es der Implementierung von Mechanismen zur Replizierung und zum Backup der betroffenen Informationen. Nur so lässt sich erreichen, dass Dateien auch dann zugänglich sind, wenn ein spezieller Rechner einmal nicht eingeschaltet oder offline ist.

Trotz dieser Defizite prognostizieren die Analysten von Frost & Sullivan dem noch jungen Verfahren ein "kräftiges Wachstum" im Unternehmensumfeld. Dem europäischen P-to-P-Markt sagen die Auguren allerdings frühestens für das Jahr 2005 das Erreichen eines "kommerziell interessanten Volumens" voraus.

Frost & Sullivan ist darüber hinaus der Ansicht, dass die "Early Adopters" vor allem solche Unternehmen sein werden, die hochgradig globalisiert sind und aus IT-bewussten Sektoren stammen. Die Marktforscher zählen dazu vor allem die Bereiche Telekommunikation, Finanzdienstleistungen, Fahrzeugkonstruktion sowie in der Biowissenschaft tätige Unternehmen.

* Klaus Henke ist freier Journalist in München.