Wie kann ich alle Seiten einer Website herunterladen?
Jede Plattform ist geeignet.
HTTRACK eignet sich hervorragend zum Kopieren des Inhalts einer ganzen Website. Dieses Tool kann sogar die Teile erfassen, die benötigt werden, um eine Website mit aktivem Codeinhalt offline funktionieren zu lassen. Ich bin erstaunt, was es alles offline replizieren kann.
Dieses Programm wird alles tun, was Sie von ihm verlangen.
Viel Spaß bei der Suche!
Wget ist ein klassisches Kommandozeilentool für diese Art von Aufgabe. Es wird mit den meisten Unix/Linux-Systemen mitgeliefert, und Sie können es auch für Windows bekommen. Auf einem Mac ist Homebrew der einfachste Weg, es zu installieren (brew install wget
).
Sie müssen etwa so vorgehen:
wget -r --no-parent http://site.com/songs/
Weitere Details finden Sie im Wget-Handbuch und in den Beispielen, oder z.B. in diesen:
Ich werde mich mit der Online-Pufferung befassen, die die Browser verwenden...
Normalerweise verwenden die meisten Browser einen Browser-Cache, um die Dateien, die Sie von einer Website herunterladen, für eine gewisse Zeit zu speichern, damit Sie statische Bilder und Inhalte nicht immer wieder herunterladen müssen. Dies kann unter Umständen die Ladezeiten erheblich verkürzen. Im Allgemeinen sind die meisten Browser-Caches auf eine bestimmte Größe begrenzt, und wenn diese Grenze erreicht ist, werden die ältesten Dateien im Cache gelöscht.
Internetdienstanbieter verfügen in der Regel über Cache-Server, die Kopien von häufig aufgerufenen Websites wie ESPN und CNN speichern. Dies erspart ihnen die Mühe, diese Websites jedes Mal aufzurufen, wenn jemand in ihrem Netz sie besucht. Dies kann zu erheblichen Einsparungen bei der Anzahl der doppelten Anfragen an externe Websites für den Internetdienstanbieter führen.