Deep Web – Das Netz unter dem Netz (Teil 6)


Dieser Artikel wurde von Katja Locker verfasst.

Und was bringt 2013? Verbieten, sperren – oder lieber doch nicht?

Eine akzeptable Lösung dafür zu finden, wie man illegale Aktivitäten im Deep Web stoppen könnte, ist nach Einschätzung von Freenet-Gründer Ian Clarke geradezu utopisch. Das erfordere in jedem Fall einen Eingriff „von oben“ und würde den gesamten Sinn und Zweck von Diensten wie Freenet zerstören: „Die kriminellen Aktivitäten Einzelner rechtfertige nicht das Ende der freien Meinungsäusserung im Internet.“

Wolfgang_kleinwaechter
Prof. Wolfgang Kleinwächter, Internetpolitik-Experte, sieht den freien Zugang zum Internet als ein bedrohtes Menschenrecht.

Wie sich das Thema Deep Web-Kontrolle in westlichen Ländern entwickeln wird? Fragt man Internet-Regulierungsexperte Prof. Wolfgang Kleinwächter, ist die Marschrichtung klar. Vor allem im vergangenen Jahr habe man einen massiven nationalen und wirtschaftlich motivierten Trend zur musicKontrolle beobachtet: „Die Musikindustrie, Hollywood, die Telekommunikations-Industrie – hier gibt es milliardenschwere Unternehmen, die in einem freien und offenen Internet durchaus erhebliche wirtschaftliche Einbußen hinnehmen müssen […]. Seine Prognose für die Zukunft: eine andauernde Debatte „darüber, ob es mehr Kontrolle, Durchleuchtung und Überwachung des Datenverkehrs geben soll“. Dabei bleibe es fraglich, ob Internetsperren nicht gegen die Menschenrechte verstoßen, „weil das Recht auf freie Meinungsäußerung eben auch das Recht zum freien Internetzugang einschließt.“

Vor allem in den USA versuchen konservative Kräfte, das Deep Web und alles, was Nutzer darin anonym tun, zu kontrollieren. In jüngster Vergangenheit etwa mit dem „Stop Online Piracy Act“ (SOPA) – dem US-Gesetzesentwurf, der Anfang 2012 an massivem Bürgerprotest gescheitert war. Darin war zwischen den Zeilen u.a. die Rede davon, Anonymisierungsdienste komplett zu verbieten. Begründung: Derartige Plattformen hinderten die US-Regierung daran, gegen Raubkopierer vorzugehen.  fish

08/15-Internetnutzer im Deep Web nur kleine Fische?

So ganz einig sind sich Politiker des Landes allerdings nicht: Interessanterweise werden etwa 80 Prozent des jährlichen 2-Millionen-Dollar-Budgets von Tor durch US-Regierungsstellen gesponsert – mit Fördergeldern für Meinungsfreiheit und wissenschaftliche Forschung. Gleichzeitig berichten Medien über das auffallend grosse Interesse der Amerikaner an allem, was sie im Deep Web finden können. Und zwar nicht wie sonst aus Gründen der Zensur-Offensive. Sondern, um die Inhalte aus dem Deep Web für ihre eigenen Zwecke zu nutzen.

Wer gewinnt, weiss am meisten: Wettlauf der Nationen um die Kontrolle des Deep Web

So berichtet das IT-Fachmagazin „Wired“  Anfang 2012 erstmals über Pläne der “National Security Agency” (NSA), Anonymisierungsdienste für Cyberangriffe auf unliebsame Regierungen oder Unternehmen weltweit zu nutzen. Dabei beruft sich “Wired” auf einen Bericht des „Defense Science Board“ aus dem Jahr 2010, in dem ganz konkret die Rede ist vom „Ausspionieren klassifizierter Geheimnisse möglicher Widersacher“.
Geheimdienste weltweit sind genau daran bis vor Kurzem noch gescheitert. Vor allem aufgrund mangelnder technischer Kapazitäten, um den riesigen Datenmengen Herr zu werden, die beim Abhören des weltweiten Datenverkehrs und dem gezielten Durchforsten des Deep Webs und dem Knacken verschlüsselter Informationen anfallen. Im Laufe dieses Jahres wird sich das ändern: Bis September 2013 soll ein gigantisches Speicherzentrum inklusive Supercomputer auf 1,5 Mio. Quadratmetern Fläche in der Wüste des US-Bundestaates Utahs einsatzbereit sein. Damit soll die National Security Agency (NSA) in der Lage sein, in kürzester Zeit mehrere Yottabytes an Daten speichern, verarbeiten und auswerten zu können. Ein Yottabyte entspricht 1024 Bytes, ist aktuell die grösste definierte Masseinheit für Daten überhaupt – und ein Vielfaches dessen, was Deep Web und Surface Web zusammen ergeben.

Utah_Data_Center_of_the_NSA_in_Bluffdale_Utah
Was für die Cybersicherheit und den Kampf gegen Terrorismus gut ist, kann für alle anderen Spionagezwecke ja nicht schlecht sein: Sagt sich vermutlich die “National Security Agency” (USA) und durchforstet ab Herbst 2013 das Deep Web vom neuen “Utah Data Center” aus. Dieser Lageplan wurde auf Basis von Medienberichten angefertigt. Skizze: Tomwsulcer

Angesichts des technologischen Tempos, das die Konkurrenz vor allem in Japan und China mit immer grösseren Rechnern und Speicherkapazitäten vorlegt, hat es die US-Regierung besonders eilig mit der Fertigstellung des Centers. Geplanter Spionage-Start ist September 2013. Und spätestens dann dürften Internetnutzer in- und ausserhalb des Deep Webs erkennen: Die Kontrolle des Internets und seiner Nutzer ist im Endeffekt auf dem gesamten Globus keine Frage der Gesetze, der Bürgerrechte oder der politischen Haltung von Regierungen. Es ist lediglich eine Frage der  Rechnerkapazität.

%d bloggers like this: