Dieser Artikel wurde von Katja Locker verfasst.
Vom Internet zum „Filternet“
In den Anfangsjahren des Internets sah es dort noch recht anders aus. Was daran lag, dass das weltweite Netz in den 90er-Jahren überwiegend aus statischen HTML-Seiten bestand. Das änderte sich schlagartig mit Beginn des Web-2.0-Zeitalters. Neue Darstellungsformate und Technologien wie Flash-animierte Webseiten oder Videos breiteten sich aus. Die Inhalte in sozialen Netzwerken, Community-Seiten und Chat-Foren kamen und verschwanden dabei schneller, als man schauen konnte – vor allem schneller, als Suchmaschinen sie erfassen konnten.
Das Netz wächst schnell – die Überwachungsversuche auch
Dass die Web-Crawler von Yahoo, Google und Co. mit zunehmender Web-Inhaltsdichte nur noch an der Oberfläche, am “Surface Web” oder “Visible Web” kratzten, fiel zuerst US-Computerwissenschaftler und Deep-Web-Namensgeber Michael K. Bergman auf. Aber nicht nur ihm. Auch die Zahl derer, die ein gesteigertes Interesse an der Kontrolle der Inhalte im Netz hatten, wuchs: Regierungen, Behörden, Internetkonzerne und Werbefirmen, die ihre ganz eigenen Interessen verfolgten. Sie wollten wissen, wer was im Internet tut, oder bestimmen, wer welche Webinhalte zu Gesicht bekommen sollte und welche nicht.
Das hat sich bis heute nicht geändert – im Gegenteil. In Anspielung auf die Inhalte, die weltweit zensiert und herausgefiltert werden, bezeichnen Bürgerrechtler und überzeugte Anhänger der Online-Meinungsfreiheit das Internet daher oft als „Filternet“. Jonathan Zittrain, Web-2.0-Ikone und Professor für Informatik und Internetrecht in Harvard, gehörte zu den ersten Wissenschaftlern, die sich um die Milleniumswende mit dem Filter-Phänomen befasst haben. Zittrain ist Mitbegründer der OpenNet-Initiative, die seit 2007 regelmässig Filter- und Überwachungsmassnahmen weltweit aufdeckt, analysiert und publik macht. Demnach hat die Zahl der Staaten, die Zugang zum Web und die Inhalte darin einschränken, vor allem in den letzten Jahren massiv gestiegen. Sei das durch technische Blockaden, Löschung von Suchergebnissen, Stilllegen unerwünschter Webseiten oder gesetzlich verordnete Selbst-Zensur.

Foto: Andrew Feinberg
Druck erzeugt Gegendruck
Je stärker die Internetüberwachung, desto mehr Leute zieht es ins Deep Web. Um dorthin zu gelangen, muss man sich oft so genannter Anonymisierungsdienste bedienen: Sie ermöglichen einen gewissen Grad an Privatsphäre, Anonymität und ein Durchbrechen der Internetzensur im eigenen Land. Ein Grossteil der Inhalte im Deep Web sind heute ausschliesslich über solche Anonymisierungsdienste erreichbar. Entwickelt wurden sie von “Internet-Begeisterten, die schon vor Jahren um die Freiheit des Internets bzw. der Internetnutzer fürchteten.
Das Tor zum Deep Web: Anonymisierungsnetze Freenet, Tor und Co.

Foto: Joshua Baer
Einer dieser “Internetfreaks” war der irische Student Ian Clarke. Ende der 90er-Jahre entwickelte er sein „dezentrales Informationsspeicher- und -abrufsystem“ namens „Freenet“: das erste frei verfügbare Peer-to-Peer-Netzwerk, in dem Nutzer anonym und ohne Zugang Dritter kommunizieren konnten. „Es schien so offensichtlich, dass dies die eigentliche Bestimmung des Internets ist – die Möglichkeit, frei und ohne Angst zu kommunizieren“, sagt Clarke heute. „Aber damals war dies schlicht nicht möglich. Das Internet konnte schneller und umfassender überwacht werden als ältere Kommunikationssysteme wie die Post.“ Zwölf Jahre später, 2012, wurde Freenet bereits über zwei Millionen Mal von der Webseite heruntergeladen, vor allem von Nutzern in Europa und den USA.

Quelle: https://freenetproject.org/
Über Freenet kann man seither anonym und verschlüsselte Dateien austauschen, kommunizieren oder im Internet surfen. Dabei wird jede Nutzeranfrage verschlüsselt, zerlegt und an mehrere Computer weitergeleitet. Bis die Anfrage am Ziel ankommt, ist nicht mehr zu erkennen, von wem sie ursprünglich stammt.
Die Sache mit den „Darknets“ im Deep Web
Als Reaktion auf Internetangriffe und Spam bietet Freenet seit 2008 zusätzlichen Schutz mit dem „Darknet-Modus“: Darknets sind private, Peer-to-Peer-Netze, die nur einem geschlossenen Nutzerkreis zugänglich sind. Hier kommuniziert nur eine kleine Gruppe Vertrauter innerhalb einer rundum verschlüsselten Umgebung. Solche Darknets sind schon allein deshalb stärker vor dem Zugriff Dritter geschützt, da Aussenstehende nichts von ihrer Existenz wissen. Heute tummeln sich immer mehr Nutzer in solche geschützten Darknets. „Jede Information, jede Transaktion, jede Kommunikation, die in irgendeinem beliebigen Land auf dem Index steht, findet sich hier“, schreibt SPEX-Journalist Michael Seemann. Und je nach Gesetzeslage und politischer Situation im jeweiligen Land kann das gut oder schlecht sein. Die Whistleblower-Plattform http://www.wikileaks.org zum Beispiel operierte lange Zeit als Darknet, bevor sie an die „Oberfläche“ trat. Seither hat die US-Regierung wiederholt versucht, die Plattform wieder verschwinden zu lassen.
Andere Internet-Aktivisten folgten Clarkes Beispiel und es entstanden weitere Anonymisierungsdienste. Die beiden grössten und meistgenutzten heissen „Tor“ und „I2P“.
Warum der “typische” Tor-Nutzer anonym surfen möchte und wieso es das Netzwerk ohne Initiative der US-Regierung heute gar nicht gäbe, steht im 4. Deep-Web-Teil: kommenden Donnerstag, 21. März.