PEER-TO-PEER-NETZE

Ein Superrechner aus vielen PCs

01. Oktober 2001
Reppesgaard studierte in Hannover und arbeitete danach als Reporter und Moderator bei Hörfunk von Radio Bremen zu innen- und jugendpolitischen Themen und in den Bereichen Technologie und Wissenschaft. Seit dem Jahr 2000 lebt er in Hamburg, seit 2001 arbeitet er mit Christoph Lixenfeld im druckreif Redaktionsbüro zusammen.
Nach Weltraum- und Krebsforschern arbeiten jetzt auch Banken mit nicht hierarchisch geordneten Computer-Netzen, darunter die New Yorker First Union. Der Vorteil: Brachliegende PC-Ressourcen werden genutzt, teure Anschaffungen vermieden. Noch gibt es jedoch Sicherheitsbedenken.
Peer-to-Peer-Netz
Peer-to-Peer-Netz

BEIM KAMPF gegen Krebs hat Dr. Sujuan Ba Verstärkung bekommen. Fast 460000 Internet-Nutzer stellen dem Direktor der amerikanischen National Foundation for Cancer Research die Rechenleistung ihrer PCs zur Verfügung. Eine Software verteilt über das Internet die Rohdaten zur Berechnung von Molekülen an alle, die sich das entsprechende Programm heruntergeladen haben. Während Bas Unterstützer an ihren Computern arbeiten, werden im Hintergrund mit ungenutzten Rechnerressourcen virtuelle Molekülmodelle zusammengesetzt -- in der Hoffnung, eines zu finden, das die Proteine zum Stillstand bringt, die Blutkrebs verursachen. Intel und United Devices, ein junges Unternehmen aus Austin, Texas, haben die computergestützte Arzneimittelforschung entwickelt. Die Texaner betreiben das Berechnen einer gemeinsamen Aufgabe durch voneinander getrennte Desktop-Computer nach dem Vorbild des Search-for-Extraterrestrial-Intelligence- Projekts (Seti). Dabei stellen Freiwillige der kalifornischen Berkeley University ihre Rechnerleistung für die Suche nach außerirdischen Radiosignalen zur Verfügung. Lässt sich das Rechenmodell der Seti-Lauscher und Krebsforscher auch auf Geschäftsanwendungen übertragen? Die Betreiber der deutschen Internet-Seite Moneybee glauben ja. Moneybee schickt Aktiencharts zur Analyse an die mehr als 3000 Teilnehmer seines Netzes, um die Entwicklung von Wertpapieren vorher zu berechnen. Bisher setzen Wissenschaftler für solch komplexe Aufgaben große Einzelrechner ein. Doch deren Leistung hat ihren Preis: Der derzeit schnellste Supercomputer, eine Maschine, die fünf Milliarden Rechenoperationen pro Sekunde (Teraflops) vollzieht, kostet mehr als hundert Millionen Dollar. Die Kosten für ein virtuelles Rechennetz sollen dagegen nur eine Million Dollar betragen -- und dabei im Idealfall laut Intel eine etwa zehnmal höherer Rechenleistung erlauben. "Dieser Ansatz wird die Forschung grundlegend verändern", glaubt Craig Barrett, Chief Executive Officer der Intel Corporation. Ihm zufolge ist das Peer-to-Peer-Computing (P2P), das verteiltes Rechnen und den Datenaustausch ohne zentrale Server ermöglicht, auf dem Weg, erwachsen zu werden. Redundanz bringt Reserven Till Mansmann, Mitgründer von i42, dem Betreiber von Moneybee, bestätigt: "Wir kommen viel billiger zu einer absolut ausreichenden Rechenleistung. Beim Verteilen der Aufgabenpakete erzeugen wir sogar vielfache Redundanzen und schrauben damit die Prognosequalität hoch." Deshalb spielt es keine Rolle, wenn einzelne Rechner ausfallen oder Teilnehmer aussteigen, die die Lust am Projekt verloren haben. Besonders für die Finanzwelt klinge so eine Technik verführerisch, sagt Erik Oldekop, Leiter der "Tec- Advanced Technology Group" der Deutschen Bank in San Francisco. "Distributed Computing ist für uns schon lange ein Thema. Wir haben weltweit in der Bank 100000 Desktops. Die werden maximal acht Stunden am Tag genutzt, und dann vor allem für 'Powerpoint', E-Mail und 'Word'." An der Wall Street setzt bereits eine Großbank auf das verteilte Rechnen: Die 254 Milliarden Dollar schwere First Union nutzt Software des New Yorker Startups Data Synapse. Ein Server für die Berechung von Derivaten ist nun mit ihrer Hilfe mit mehr als hundert Büro-Computern vernetzt. Auf den PCs laufen heute im Hintergrund Teile von Investment-Kalkulationen, ohne dass es die Anwender merken. Risiko-Analysen sollen dadurch nicht mehr nur allabendlich, sondern beinahe in Echtzeit zur Verfügung stehen. Joe Belciglio, Managing Director im Bereich Handelstechnologie: "Unser Ziel war es, an jedem einzelnen Arbeitsplatz mehr Umsatz zu generieren." Eine dezidierte Arbeitsgruppe zu dem Thema oder konkrete Pläne, ähnliche Plattformen einzuführen, hat die Deutsche Bank dennoch nicht. "Wenn es nur um reines Zahlen knacken geht, könnte man so etwas heute schon anwenden", sagt Oldekop. "Aber in einer Bank fallen ja auch viele andere Prozesse an. Beim Austausch von wirklich sensitiven Daten -- und das sind vor allem unsere Kundendaten -- wäre ich im Moment bei den Lösungen, die ich kenne, skeptisch." Mit diesen Bedenken steht Oldekop nicht allein da. Auch Dirk Häger vom Bundesamt für die Sicherheit in der Informationstechnik (BSI) zweifelt daran, dass das verteilte Rechnen bereits Industriereife erlangt hat: "Wenn ich etwas Wichtiges zu berechnen habe und das in tausend Teilaufgaben aufteile, stehe ich vor dem Problem, dass ich nicht weiß, wie verlässlich die Ergebnisse sind, die ich bekomme." Tatsächlich sparen ProjekteProjekte wie Seti nicht nur Rechnerleistung, immer wieder müssen für Plausibilitätsprüfungen einige Prozessorenstunden investiert werden. James Bernardin, Mitgründer und Chief Technical Officer von Data Synapse, betont dagegen: "Unsere Software ist dazu entwickelt worden, in Wall-Street-Unternehmen zu arbeiten, wo man jederzeit auf den Penny genau die richtigen Antworten haben muss. Unsere Software arbeitet zu hundert Prozent korrekt, das garantieren wir den Kunden." Den strengen Kontrollmechanismen von First Union hat die Software augenscheinlich genügt. "Sie sind sehr zufrieden mit unserem Produkt", sagt Bernardin. "Es ist eine andere Geschichte als Seti, denn die Technologie selbst ist von Wall-Street-Experten entwickelt worden." Zu optimistische Kostenberechnung Kritiker von P2P fürchten auch den größeren Wartungsaufwand, der entstehen kann, wenn Großrechner durch mehrere PCs unterstützt oder gar ersetzt werden. "Ich fürchte, die Total Cost of Ownership wird bei solchen Lösungen höher liegen als bei Zentralrechner-Architekturen", sagt BSI-Experte Häger. Zudem hält er manche Projektkostenrechnungen, die P2P-Befürworter aufstellen, für zu optimistisch. "Bei Seti oder dem Krebsprojekt installieren die Leute die Software selbst, und wenn der Rechner deswegen abstürzt, starten sie ihn selbst neu. All das geht nicht in die Kostenrechnung des Gesamtprojekts ein." Das vernetzte Rechnen wirft zudem Sicherheitsprobleme auf. Wer seinen Rechner öffnet, kann schwer ausschließen, dass Netzpartner auf vertrauliche Bereiche der eigenen Festplatte zugreifen. James Bernardin sagt zwar: "Unsere Software arbeitet innerhalb des Intranets von First Union. Ihre Sicherheitsarchitektur wird davon nicht beeinflusst." Dennoch ist klar: Wo jeder mit jedem zum Rechnen vernetzt ist, entstehen mehr Löcher als in einem von einem Zentral-Server gesteuerten Netz. Siegfried Steiner, Chief Technical Officer von Jatelite in München, einem Entwickler von P2P-Lösungen für Geschäftskunden, sieht deshalb in einer Mischform aus zentralisiertem und dezentralem Rechnen die ideale Lösung für geschäftskritische Anwendungen. Während die Rechenleistung und die Daten frei fließen, darf nur der teilnehmen, der sich einem Server gegenüber korrekt identifiziert hat. "Diese Mischformen haben ihre Berechtigung, weil die Authentifizierung der Nutzer sicherer und die Adminstration sehr viel einfacher möglich ist."
Überblick Peer-to-Peer-ComputingHerkömmliche Unternehmens-Netzwerke funktionieren hierarchisch. Ein zentraler Server wird von relativ schwachen Rechnern, den Clients, angezapft. Bei einem Peer-to-Peer-Netzwerk übernehmen auch Clients Server- Funktionen und teilen selbstständig anderen Rechnern mit, was auf ihren Festplatten liegt. Durch die Doppelrolle als Rechner und Mittler können Daten in alle Richtungen ausgetauscht werden. Die Musiktauschbörse Napster ist das populärste Beispiel einer solchen Server-losen Vernetzung. Auf den Napster- Rechnern selbst liegen keine Musikdateien, sondern nur die Informationen, wo im P2P-Netz welcher Titel liegt. Andere P2P-Architekturen wie Gnutella kommen sogar ohne zentrale Mittlerstellen aus. Kommerzielle P2P-Software verteilt innerhalb von Unternehmensnetzen Rechenaufgaben, die die einzelnen Computer dann durch Distributed Computing lösen. Zudem wird es möglich, Geschäftsprozesse mit Hilfe von Zwischenrechnern, Firewalls und reservierten Bandbreiten auch im Internet sicher zu erledigen. "Groove Networks" schafft beispielsweise mit Hilfe von P2P über das Internet virtuelle Arbeitsplätze, an denen Konzepte oder Konstruktionspläne gemeinsam bearbeitet werden. Der US-Pharmakonzern Glaxo-Smith-Kline hat bereits 10000 Groove-Lizenzen erworben. Weitere Testkunden sind das Rüstungsunternehmen Raytheon und die amerikanische Militärforschungsagentur Darpa. Alles zu Projekte auf CIO.de

Links zum Artikel

Thema: Projekte

Kommentare zum Artikel

comments powered by Disqus
Zur Startseite