Nur für Eingeweihte
Von Uli Ries
Für beinahe jeden Internet-Surfer sind Suchmaschinen wie Bing und Google das Tor ins Web – in Wahrheit sind sie aber bestenfalls ein Sehschlitz: Was in den Ergebnislisten auftaucht, wird angeklickt, und zumeist auch nur die Links, die auf den ersten paar Seiten der Trefferlisten zu finden sind. Aber selbst wenn sich der Informationssuchende die Mühe machen würde und sämtliche der ausgespuckten Links anklickt, er sähe nur einen Teil dessen, was im Internet zu finden ist. Denn Google & Co. sind zwangsweise nicht allwissend. Leicht lassen sich Inhalte im Web vor den Suchmaschinenschnüfflern verbergen.
Für Suchmaschinen und deren Nutzer unsichtbar ist das so genannte Deep Web. Experten schätzen, dass es mehr als tausendmal so groß ist wie das herkömmliche, in diesem Fall „Surface Web“ (Oberflächen-Web) genannte Internet.
Crawler finden, was erlaubt ist
Mit dem Deep Web sind einerseits riesige Datenbanken wie Bibliothekskataloge gemeint, deren Inhalt von den bekannten Suchmaschinen nicht verstanden wird; erst wenn ein Anwender eine spezielle Anfrage an die Datenbank schickt, produziert diese das gewünschte Ergebnis. Mit solchen dynamisch erzeugten Inhalten sind Bing, Google, Yahoo und andere Suchmaschinen überfordert. Andererseits gehören auch Server zum tiefen Web, die die Roboter der Suchmaschinenbetreiber gezielt aussperren – entweder per Login oder durch spezielle Botschaften an die Webcrawler.
Jeder Betreiber einer Website kann bestimmen, ob und wenn ja welche Teile seines Angebots im Index von Google & Co. landen dürfen. Lässt ein Seitenbetreiber keine Webcrawler zu, taucht sein Angebot selbst dann nicht in den Trefferlisten auf, wenn Zehntausende bereits im Suchmaschinenkatalog erfasste Sites auf seinen Online-Dienst verlinken – unter normalen Umständen ein Garant für eine Platzierung ganz weit vorne in den Suchergebnissen.
Kataloge mit sieben Siegeln
Einmal mehr bleiben die Googles dieser Welt also auf einem Auge blind und zeigen ihren Nutzern nur einen Ausschnitt dessen, was sich im Web tummelt. Deep-Web-Angebote wie die Kataloge von Bibliotheken sind zwar zumeist auf herkömmlichen Webservern gespeichert. Der Zugriff ist aber nur nach einem Login erlaubt – den die Suchmaschinen natürlich nicht haben. Sie können also nur von außen auf die verschlossene Tür blicken und müssen unverrichteter Dinge weiterziehen.
Teil 1 sagt, warum firmeninterne Suchmaschinen die bessere Alternative zum Webstöbern sind. Teil 2 gibt Tipps zur Trefferquote und wirft das Thema Zugriffsrechte auf. Teil 3 warnt vor zweifelhaften Geschäftsmodellen und sagt, welche Anbieter der Datensicherheit gerecht werden.
Das Gleiche gilt für Datensammlungen mit Fluginformationen, medizinische Fachinformationen, Produktdatenbanken etc. Zwar hat Google durch den Kauf von ITA Software zumindest das Problem der Fluginformationen gelöst (amerikanische Google-Nutzer können dank ITA heute schon Suchanfragen eingeben wie „Was ist der günstigste Flug von New York nach Las Vegas“), taucht damit aber längst nicht richtig ins Deep Web ein. Nur kostenpflichtige Suchmaschinen wie Bright Planet versprechen, auch die Tiefen des Deep Webs zugänglich zu machen.
Die dunkle Seite des Webs
Auch die Betreiber von Darknets schätzen Suchmaschinen gering und verbergen ihr Treiben. Die Idee hinter den Online-Darknets ähnelt dem Konzept der Geheimbünde und verborgenen Logen der realen Welt und hat erst einmal gar nichts mit illegalen Machenschaften zu tun: Nur wer mindestens einem Logen-Mitglied persönlich bekannt ist, wird zu den Treffen vorgelassen. Die Treffen finden an mehr oder weniger öffentlich zugänglichen Orten statt, aber nur Eingeweihte wissen, was sich wann und wo abspielt.
Schwarz auf Weiß
Dieser Beitrag erschien zuerst in unserer Magazinreihe. Einen Überblick mit freien Download-Links zu sämtlichen Einzelheften bekommen Sie online im Pressezentrum des MittelstandsWiki.
Aufs Internet übertragen heißt das: Darknets setzen auf die gleiche Technik wie alle anderen Internet-Dienste – Webseiten, E-Mail, Filesharing und so weiter – und wären im Prinzip für jeden zugänglich. Vorausgesetzt, er verwendet die richtige Software und weiß, wonach er suchen muss.
Empfehlung startet den Austausch
Entstanden sind Darknets, seitdem Strafverfolger weltweit Online-Tauschbörsen unter die Lupe nehmen und die rührigsten Teilnehmer juristisch verfolgen. Die Filesharing-Nutzer suchten also nach Wegen, ihr Treiben unbehelligt fortzusetzen, und konzipierten ein verstecktes Pendant der öffentlich zugänglichen (P2P)-Plattformen (Peer-to-Peer), die unter Namen wie Napster, KaZaA, eDonkey oder Bit Torrent zweifelhafte Berühmtheit erlangten. In P2P-Netzen kümmern sich zumeist zentrale Server darum, dass alle Nutzer untereinander MP3-Dateien, Videos oder Bilder austauschen können – ohne sich freilich dabei um Urheberrechte oder andere rechtliche Details zu scheren.
Die neu geschaffenen, versteckten Netze innerhalb des Internets wurden in Anlehnung an P2P mit F2F abgekürzt: Friend to Friend. Anders als bei den bekannten P2P-Netzwerken gibt es keine Server und die Teilnehmer können bei F2F die Dateien nicht mit beliebigen anderen F2F-Nutzern austauschen. Vielmehr muss jeder Nutzer die IP-Adresse seiner Freunde kennen und deren digitale Visitenkarte (Zertifikat) besitzen, um mit ihnen in Kontakt zu treten. Außenstehenden und vor allem Strafverfolgern soll es so unmöglich gemacht werden, sich in die Tauschgeschäfte einzuklinken.
Freenet baut im Untergrund
Eine der bekanntesten Anwendungen zum Aufbau von F2F-Netzen ist Freenet (nicht zu verwechseln mit dem gleichnamigen Internet-Provider). Die Software nutzt zwar die vorhandene Internet-Infrastruktur wie Provider und deren herkömmliche Netzzugänge, kapselt sich aber so gut es geht vom herkömmlichen Web ab. Und Freenet kennt nicht nur den Austausch unter einzelnen Personen, also den reinrassigen Darknet-Modus. Innerhalb des gespannten Netzwerks finden sich darüber hinaus auch Webseiten (Freesites) im klassischen Sinn. Es existieren auch ein ebenfalls vom Web abgeschottetes E-Mail-System sowie Diskussionsforen.
Die Motivation der Macher von Freenet war es, ein Netz im Netz zu schaffen, in dem die Nutzer anonym bleiben, in dem nicht zensiert wird und das Meinungsfreiheit zulässt und fördert. Menschen sollten sich insbesondere in Ländern wie China frei austauschen können, ohne Repressalien durch den Staat befürchten zu müssen.
Dies funktioniert nur im privaten Modus der Software, bei der die Nutzer gezielt miteinander in Kontakt treten. Sämtliche Kommunikation ist verschlüsselt und wandert auch nicht zwischen zwei Gesprächspartnern direkt hin und her. Vielmehr werden die Datenströme – ähnlich einem P2P-Netzwerk – durch die Rechner von anderen Freenet-Nutzern geschleust. Somit ist es für (staatliche) Lauscher extrem schwierig, die Kommunikation einzelner Anwender mitzulesen.
Weniger privat als der Austausch in geheimen Zirkeln, aber für herkömmliche Suchmaschinen dennoch unsichtbar, sind die Freesites. Sie existieren nur innerhalb des Freenet-Verbundes und es gibt keine Querverbindung ins öffentliche WWW.
Freenet hat sich im Lauf der Jahre weiter entwickelt und ist stark gewachsen. Es gibt inzwischen auch ein Verzeichnis von frei zugänglichen Freesites, Linkageddon genannt. Die Liste ist nicht durchsuchbar, Freenet-Nutzer müssen das unsortierte Angebot durch Scrollen sichten. In der Sammlung tauchen neben den offenbar unvermeidbaren Pornoangeboten auch Seiten auf, die Raubkopien anbieten, gleich neben Servern, die Informationen zur Lage in Tibet liefern, oder von Wirrköpfen betriebene Seiten, die mit pseudo-wissenschaftlicher Präzision an der Ausschwitz-Lüge feilen. Die von den Freenet-Machern beschworene Meinungsfreiheit geht sogar soweit, dass Kinderpornografie geduldet wird. Offensichtlich nutzen viele die Abwesenheit von Zensur aus, um weitgehend unbehelligt illegalen Aktivitäten nachgehen zu können.
Fazit: Legale Zwecke sollen profitieren
Darknets müssen aber nicht notwendig illegales Treiben unterstützen, finden Billy Hoffman und Matt Wood. Sie arbeiten in der Forschungsabteilung des IT-Riesen Hewlett Packard (HP) und haben vor zwei Jahren mit Veiled (englisch für „verschleiert“) eine neue Darknet-Software demonstriert. „Wir sind überzeugt, dass Darknets wesentlich weiter verbreitet wären, wenn es die Einstiegshürden wie Download, Installation und Konfiguration der Software nicht gäbe“, so Billy Hoffman.
Wären Darknets also einem größeren Personenkreis zugänglich, würden sich laut Hoffman auch schnell legale Anwendungszwecke finden. Die Forscher dachten bei der Konzeption von Veiled z.B. an eine auf Darknets basierende Variante der Internet-Seite Wikileaks. Bislang setzen die Wikileaks-Betreiber auf herkömmliche Webserver, die durch rechtlichen oder politischen Druck vom Netz zu nehmen wären. Würden die Dokumente aber über ein dezentral organisiertes Darknet verteilt, wäre es ein Kampf der Wikileaks-Gegner gegen Windmühlen. Denn die im Darknet kursierenden Dokumente sind nicht auf einigen wenigen Servern gespeichert, sondern werden in Häppchen über alle Darknet-Nutzer verteilt. Nach diesem Prinzip arbeitet auch Freenet.
Hoffman und Wood haben Veiled umfangreich dokumentiert und motivieren damit andere Programmierer, ihre Idee nachzubauen. Denn so pfiffig Veiled auch sein mag, die HP-Forscher werden die Software niemals veröffentlichen. Der Grund: juristische Bedenken seitens ihres Arbeitgebers. Sie haben aber eine Präsentation ins Netz gestellt, deren Informationsgehalt so hoch ist, dass andere Programmierer nach Ansicht von Hoffman leicht einen Veiled-Klon entwickeln können.
Die HP-Forscher wollen den Darknets etwas von ihrer Komplexität nehmen und setzen auf herkömmliche Internet-Browser zum Zugang. Veiled funktioniert somit ohne jedes Herunterladen und Konfigurieren auch auf Geräten wie dem iPhone; Windows-, Mac- und Linux-PCs sowie -Notebooks sind natürlich ebenfalls mit an Bord. Obwohl ein Internet-Browser auf den ersten Blick weniger leistungsfähig erscheint als eine ausgewachsene, dedizierte Darknet-Software, beherrscht Veiled alle wichtigen Funktionen eines Darknets wie das Verschlüsseln sämtlicher Datentransfers oder Chats zwischen den Teilnehmern.
Uli Ries ist freier Journalist und Autor mit abgeschlossene journalistischer Ausbildung und langjähriger Erfahrung (u.a. bei CHIP, PC Professionell und www.notebookjournal.de). Seine Spezialgebiete sind Mobilität, IT-Sicherheit und Kommunikation – zu diesen Themen tritt er immer wieder auch als Moderator und Fachreferent auf.
Kontakt via Xing