Deep Web

Aus IT-Forensik Wiki
Version vom 2. August 2019, 11:36 Uhr von St181645 (Diskussion | Beiträge)
(Unterschied) ← Nächstältere Version | Aktuelle Version (Unterschied) | Nächstjüngere Version → (Unterschied)

Das Deep Web bezeichnet die Gesamtheit der im Internet erreichbaren Daten und Dienste, welche nicht durch Suchmaschinen wie Google indexiert wurden. Dies umfasst auch das Dark Net welches aber nur einen kleinen Teil vom Deep Web ausmacht. Der Großteil des Deep Web sind Datenbanken, Back End und Admin Infrastruktur, geschützte Webseiten und private Fileshares. „Die Größe des Deep Webs kann nicht eindeutig definiert werden. Eine Studie aus dem Jahre 2001 argumentierte, dass das Deep Web bis zu 550 Mal größer ist als das Visible Web. Da diese Studie schon mehr als ein Jahrzehnt alt ist, wird an-genommen, dass dieser Wert auch heute noch exponentiell weiter steigt.“ Eine genaue Größe des Deep Web lässt sich nur schwer schätzen, sie dürfte aber im Zettabyte-Bereich angesiedelt sein.

Zusammenhang zwischen Clear, Deep und Dark Web

Das Deep Web wird oft mit dem Dark Net verwechselt. Dies liegt an der Namensähnlichkeit aber auch der inhaltlichen Nähe. Das Dark Net (oder auch Dark Web bezeichnet) ist jedoch ein spezielles Peer-to-Peer Overlay-Netzwerk, welches mit dem Spezialbrowser TOR (the Onion Router) zugänglich ist. Dieses auf absolute Anonymität ausgelegte Netzwerk ist zwar Teil des Deep Webs, allerdings ein vergleichbar kleiner Teil. Um ein Teil des Deep Web zu werden muss man also für den Ausschluss der gewünschten Webseite aus den Indizierungsmechanismen der Suchmaschinen sorgen. „Eine manuelle Maßnahme, um zum Deep Web zu gehören, wird mit Hilfe des Noindex Elements im <head> Bereich des Quelltextes erreicht: <me-ta name=“robots“ content=“noindex“>. Daneben kann in der robots.txt Datei mittels des Disavow Be-fehls spezifiziert werden, welche Inhalte von Spidern ignoriert werden sollen. Damit können nicht nur Unterseiten, sondern auch Bilder, Videos und PDFs aus dem Index ausgeschlossen werden. Weiterhin können Crawlern der Zugriff verweigert werden, indem eine Aktion ausgeführt werden muss, wie zum Beispiel die Eingabe eines Passworts, um eine Seite zu besuchen.“ Auch kann eine Website ungewollt Teil des Deep Webs werden, wenn der Ausschluss von der Suchmaschine selber ausgeht. Dies kann bei Verstößen gegen die Richtlinien der Suchmaschinen, z.B. Slow Death durch Duplicate Content, geschehen oder durch Anordnung von Staatlichen Autoritäten.

Quellen:
https://www.advidera.com/glossar/deep-web/
https://www.ub.uni-bielefeld.de/biblio/search/help/invisibleweb.htm
https://oedb.org/ilibrarian/invisible-web/