Peer to peer und Dezentralität – von den Wurzeln des Netzes zu den aktuellen Trends

26. September 2013 at 08:00 2 Kommentare

Ein Beitrag von Lambert Heller, Leiter des Open Science Lab der TIB Hannover. Auch nachzulesen in der Zukunftswerkstatt-Kolumne im Bibliotheksdienst 2013 (47) 8

Telefon, Textnachrichten, Speicher und soziale Netzwerke – wir haben uns in den letzten Jahren daran gewöhnt, unsere Gespräche und unser Gedächtnis Internetdiensten anzuvertrauen, die zentralistisch aufgebaut sind, von Whatsapp bis Facebook. Und das, obwohl wir diese alltäglichen Dinge ja eigentlich für uns selbst benutzen wollen, oder mit unseren eigenen sozialen Kreisen.

Das Netz funktionierte von Anfang an dezentral. An drei klassischen Netzanwendungen – Mail, Web und Blog – ist das exemplarisch zu erkennen.

Per Mailprotokoll kann jeder jedem Nachrichten schicken, egal, welchen Mailserver er benutzt. Nur das Internet selbst und die Konventionen des Mailverkehrs sind Voraussetzung. Das gilt selbst dann noch, wenn die meisten bei einem der heute dominierenden Großanbieter wie Google Mail, Yahoo oder Outlook sind.

Ähnlich das Lesen im Web. Man kann darin auf HTML-Dokumente verlinken, die irgendwo auf irgendwelchen Servern liegen. Ein Klick auf den Link öffnet das Dokument im Browser, ohne dass der Benutzer etwas über die Technik des jeweiligen Webservers wissen muss. Welch ein Fortschritt gegenüber Telnet oder Bulletin Board-Systemen! Alles daran beruht heute allein auf den Konventionen des Webs. (Wie etwa HTML.)

Selbst die Blogs, mit denen Ende der 1990er Jahre auf der Grundlage des Web de facto erstmals strukturierte soziale Netzwerke entstanden, waren dezentral. Die verstreuten, in sich geschlossenen HTML-Dokumente des “Ur-Webs” wurden nun durch kleine Content Management-Systeme ersetzt. (Blogsoftware wie Movable Type, B2 oder WordPress). Mit diesen können einzelne Autoren in eigener Regie ständig neue Nachrichten publizieren. Blogrolls, Trackbacks, RSS-Feeds und Blog-Aggregatoren sorgen dafür, dass das Netzwerk der Blogs navigierbar und lesbar bleibt, ohne dass irgendjemand einer “Blogzentrale” vertrauen müsste.

Netzjahre sind so kurz wie Hundejahre, wenn nicht kürzer. All das scheint längst vergangen und vergessen zu sein. Heutzutage muß es scheinbar zentralisiert zugehen, wenn gewinnorientierte Unternehmen uns maximal nützliche und einfache Lösungen anbieten – siehe ganz oben.

Doch wer sich heute nach dem Neuen, Innovativen und Interessanten im Netz umschaut wird feststellen, dass die Konzepte von Dezentralität und Peer-to-peer lebendiger und vielfältiger sind als je zuvor, wie die folgenden Beispiele aus verschiedenen Anwendungsbereichen zeigen.

Beim Thema Cloud-Speicher denken wir heute typischerweise an zentrale Dienste wie Dropbox oder Google Drive, die ihren Benutzern ein paar Gigabyte Speicher anbieten, der auf den Serverfarmen der jeweiligen Firma genutzt werden kann. Von dort werden die Inhalte der eigenen Festplatte(n) synchronisiert und ggf. noch um zusätzliche Dienste wie browserbasierte Bildbetrachtung oder Textverarbeitung angereichert.

Dieses Modell wurde erstmals 2010 von der Open Source-Lösung Owncloud umformuliert. Bei Owncloud reicht es, ein wenig Webspace gemietet zu haben, auf dem man ein eigenes PHP-Skript laufen lassen kann. Damit wird man als Benutzer dann zum Administrator des eigenen Cloudspeichers, mit voller Kontrolle über die Daten und deren Bewegungen. Die Features von Owncloud stehen nicht hinter den All-Inclusive-Angeboten wie Dropbox zurück, bis hin zu Versionierung von Dokumenten, integrierter Suche und einem ausgeklügelten Rollen- und Rechtesystem.

Und doch: Dropbox, bei dem man sich in 10 Sekunden registriert hat, verhält sich zu völlig nutzergesteuerten Lösungen wie OwnCloud ungefähr so wie Facebook zu einem selbstgehosteten WordPress-Blog. Noch einen Schritt weiter geht deshalb das gecrowdfundete Projekt Spacemonkey. (http://www.theverge.com/2013/5/14/4330116/down-with-the-cloud-p2p-distributed-datacenter) In den Wohnzimmern der Spacemonkey-Benutzer soll quasi die gigantische Serverfarm von Google und seinen Konkurrenten dezentral nachgebaut werden. Jeder verbindet sein Spacemonkey-Gerät – ein gemieteter, vorkonfigurierter kleiner Netzwerkspeicher – mit seinem Internetanschluß. Peer-to-peer-Technik und Kryptographie sorgen dafür, dass im verteilten Netz von Spacemonkey die Daten der Nutzer sicher als Kopien hinterlegt werden können. Wo genau das ist braucht mich als Nutzer nicht zu kümmern. Nur ich habe Zugriff, und einer zentralen Instanz a la Dropbox brauche ich nicht zu vertrauen.

Minimalistischer ist der Ansatz von Bittorent Sync (BTsync): Hier installiere ich eine Software auf meinen Rechnern und kann damit beliebige Verzeichnisse komplett auf beliebige andere Rechner synchronisieren. Eine zentrale Instanz gibt es auch hier nicht, und somit kein Vertrauensproblem und auch keine Größenbeschränkung. Diese Lösung ist ein Segen z.B. für verteilte Teams, die im Multimedia-Bereich aktiv sind und ständig Gigabyte-große Dateien gemeinsam lesen und bearbeiten.

Übrigens arbeitet das Internet Archive seit 2012 mit Bittorrent zusammen, und das CERN bietet seit 2013 in seinem Repository Zenodo auch einen Upload via Dropbox an.

Auf die Anwendung von BitCoin als einer völlig dezentralen “virtuellen Währung” kann ich an dieser Stelle nicht näher eingehen. Doch allein die Innovationen, die auf dieses Peer-to-peer-System aufbauen, sind bemerkenswert. Hervorzuheben ist an dieser Stelle BitMessage, das – obgleich noch in einem frühen Entwicklungsstadium – das Potential hat, zu einer Alternative sowohl für Email als auch für soziale Netzwerkdienste zu werden. (http://bitcoinmagazine.com/bitmessage-a-model-for-a-new-web-2-0/)

Bemerkenswert ist, dass in BitMessage starke Verschlüsselung sowie echte Pseudonymität “eingebaut” sind, und ganz nebenbei Spam sowie Denial of Service-Angriffe ausgeschlossen werden können. E-Mail hatte stets das Defizit, dass sichere Verschlüsselung a la PGP/GnuPG nachträglich “drangeschraubt” werden musste und sich deren Verbreitung daher stets in engen Grenzen hielt.

Immer mehr anspruchsvolle Anwendungen, die bislang als Software auf dem Rechner installiert werden mußten, laufen heute im Browser – dank neuerer Entwicklungen (die Stichworte dazu sind  Javascript und HTML 5) auch ohne zusätzliche Plugins. Die von Google initiierten Konventionen für Multimedia und Peer-to-peer-Verbindungen im Browser (Stichwort WebRTC) lassen es denkbar erscheinen, dass Skype und Co. demnächst Konkurrenz von Startups mit möglicherweise dezentralen, jedenfalls rein browserbasierten Anwendungen wie Palava.tv bekommen.

Doch was heißt das für unsere Branche? Wer Informationsdienste anbietet, arbeitet heute unweigerlich im und mit dem Netz. Und in diesem Netz ging und geht es um den direkten Nutzen vieler Einzelner (meine Daten, meine Anwendungen) sowie die Verbindungen und Gespräche zwischen diesen Einzelnen. Letzteres war bereits 1999 im Cluetrain Manifesto treffend festgehalten worden, lange bevor Social Media zum Hype geworden war.

Wer seine Informationsdienste erfolgreich weiterentwickeln will ist gut beraten, sich nicht zum Flachbildschirmrückseiten-Berater (frei nach Gunter Dueck) eines zentralen Diensteanbieters herunterzuqualifizieren, an dessen Angebot sich wenig bis gar nichts drehen lasst. Um das Potential des Netzes zu hebe müssen wir unsere Angebote vielmehr selbst in die Hand nehmen. Die kreativen Impulse dafür werden immer wieder aus Gesprächen in Blogs und Barcamps hervorgehen; sie lassen sich hingegen nicht zentral planen.

Die oben skizzierte (Weiter-)Entwicklung des Netzes wirft genug spannende Fragen auf. Mit welchen Diensten unterstützen wir Menschen dabei, Informationen unter einem Pseudonym zu veröffentlichen – oder zu konsumieren? Wie sieht die passende Informationsumgebungen für ein Lernen aus, das seine formalisierte, institutionalisierte Hülle abstreift und nicht mehr hinter den Paßwortschutz eines “Lernmanagement”-Systems passt? Und wie organisieren wir den langen Abschied vom singulären, in sich geschlossenen Dokument? Das Netz wird zu einer weltweiten, verteilten Festplatte, auf der natürlich auch Kultur und Wissenschaft produziert und remixt werden. Aber was wird dann z.B. aus der Forschung? Eines ist klar: Forschung ist ein Messie. Aber wenn das so ist: Wer organisiert die Partition “Forschung” der weltweiten Festplatte? Dies sind nur einige der Fragen, die wir uns stellen sollten.

Lambert Heller Lambert Heller ist Bibliothekar. Seit 2013 ist er Leiter des Open Science Lab der TIB Hannover. In Vorträgen, Publikationen und vielen Tweets (@Lambo) beschäftigt er sich mit Wissenschaftskommunikation im Netz, Open Access, Open Knowledge Production, Literaturverwaltung und anderen Themen.


Dies ist eine Open Access-Version eines im Rahmen der Zukunftswerkstatt-Kolumne abgedruckten Textes in: Bibliotheksdienst 2013 (47) 8.

Entry filed under: Bibliotheksdienst-Kolumne open access.

Tool der Woche – Spieleapps Tool der Woche – Duck Duck Go – Suchen ohne Spuren zu hinterlassen

2 Kommentare Add your own

  • 1. Lambert Heller  |  26. September 2013 um 12:18

    Dafür, dass ich im Mai diesen Artikel über P2P geschrieben habe, finde ich ihn jetzt, nach Snowden, erstaunlich aktuell… 😉 Neben BitMessage sind seit den NSA-Leaks noch einige weitere Ideen für dezentrale Crypto-Systeme getreten, die mindestens genauso interessant sind, z.B. das Kickstarter-finanzierte „Trsst“.

  • 2. Souveränität | Fortbildung in Bibliotheken  |  30. September 2013 um 01:53

    […] zu den aktuellen Trends”, der sowohl in der Zukunftswerkstatt-Kolumne im Bibliotheksdienst als auch im Blog der Zukunftswerkstatt erschienen ist, sollte im Fortbildungsbereich Beachtung finden! Warum? Wegen diesem […]

Hinterlasse einen Kommentar

Trackback this post  |  Subscribe to the comments via RSS Feed


Zukunftswerkstatt im Netz

Zukunftswerkstatt auf Twitter

Gib deine E-Mail-Adresse ein, um diesem Blog zu folgen und per E-Mail Benachrichtigungen über neue Beiträge zu erhalten.

Schließe dich 923 anderen Abonnenten an

Kategorien