Hvordan kan jeg downloade alle sider fra et websted?
Enhver platform er fin.
HTTRACK fungerer som en mester til at kopiere indholdet af et helt websted. Dette værktøj kan endda hente de dele, der er nødvendige for at få et websted med aktivt kodeindhold til at fungere offline. Jeg er forbløffet over de ting, som det kan replikere offline.
Dette program vil gøre alt, hvad du kræver af det.
God jagt!
Wget er et klassisk kommandolinjeværktøj til denne slags opgaver. Det følger med de fleste Unix/Linux-systemer, og du kan også få det til Windows. På en Mac er Homebrew den nemmeste måde at installere det på (brew install wget
).
Du'ville gøre noget i stil med:
wget -r --no-parent http://site.com/songs/
For flere detaljer, se Wget Manual og dens eksempler, eller f.eks. disse:
Jeg vil tage fat på den online buffering, som browsere bruger...
Typisk bruger de fleste browsere en browsercache til at gemme de filer, du downloader fra et websted, i et stykke tid, så du ikke behøver at downloade statiske billeder og indhold igen og igen. Dette kan under visse omstændigheder gøre tingene en del hurtigere. Generelt er de fleste browsercaches begrænset til en fast størrelse, og når den når denne grænse, sletter den de ældste filer i cachen.
Internetudbydere har ofte caching-servere, der opbevarer kopier af ofte besøgte websteder som ESPN og CNN. Det sparer dem for besværet med at skulle ramme disse websteder, hver gang en person på deres netværk besøger dem. Dette kan betyde en betydelig besparelse i mængden af dobbeltanmodninger til eksterne websteder for internetudbyderen.