Hur laddar jag ner en hel webbplats för offline läsning?

Hur laddar jag ner en hel webbplats för offline läsning? / internet

Även om Wi-Fi är tillgängligt överallt i dessa dagar kan du hitta dig själv utan det från tid till annan. Och när du gör det kan det finnas vissa webbplatser du önskar att du kan spara och komma åt medan du är offline-kanske för forskning, underhållning eller efterkommande.

Det är enkelt att spara enskilda webbsidor för offlineläsning, men vad händer om du vill ladda ner en hela webbplatsen? Tja, det är lättare än du tror! Här är fyra smutsiga verktyg som du kan använda för att ladda ner vilken webbplats som helst för offlineläsning, nollansträngning krävs.

1. WebCopy

Finns endast för Windows.

Webbcopy av Cyotek tar en webbadress och skannar den för länkar, sidor och media. Eftersom det hittar sidor söker det rekursivt efter fler länkar, sidor och media tills hela webbplatsen upptäcks. Då kan du använda konfigurationsalternativen för att bestämma vilka delar som ska hämtas offline.

Det intressanta med WebCopy är att du kan ställa in flera “projekt” som alla har sina egna inställningar och konfigurationer. Detta gör det enkelt att ladda ner många olika webbplatser närhelst du vill, var och en på samma exakt sätt varje gång.

Ett projekt kan kopiera många webbplatser, så använd dem med en organiserad plan (t.ex. “Tech” projekt för kopiering av tekniska platser).

För att ladda ner en webbplats med WebCopy:

  1. Installera och starta appen.
  2. Navigera till Fil> Ny att skapa ett nytt projekt.
  3. Skriv webbadressen i Hemsida fält.
  4. Ändra Spara mapp fält där du vill spara webbplatsen.
  5. Leka med Projekt> Regler ... (läs mer om WebCopy Rules).
  6. Navigera till Fil> Spara som ... för att rädda projektet.
  7. Klick Kopiera webbplats i verktygsfältet för att starta processen.

När kopieringen är klar kan du använda fliken Resultat för att se statusen för varje enskild sida och / eller mediefil. Fliken Fel visar eventuella problem som kan ha uppstått och fliken Hoppade över visar filer som inte hämtades.

Men viktigast är webbplatskartan, som visar webbplatsens fullständiga katalogstruktur som upptäckts av WebCopy.

För att visa webbplatsen offline, öppna File Explorer och navigera till den sparade mappen du har angett. Öppna index.html (eller ibland index.htm) i din webbläsare för att börja surfa.

2. HTTrack

Tillgänglig för Windows, Linux och Android.

HTTrack är mer känt än WebCopy, och är utan tvekan bättre eftersom den är öppen källkod och tillgänglig på andra plattformar än Windows, men gränssnittet är lite clunky och lämnar mycket att önska. Men det fungerar bra så låt inte det vända dig bort.

Liksom WebCopy, använder den ett projektbaserat tillvägagångssätt som låter dig kopiera flera webbplatser och hålla dem alla organiserade. Du kan pausa och återuppta nedladdningar, och du kan uppdatera kopierade webbplatser genom att hämta gamla och nya filer igen.

Att ladda ner en webbplats med HTTrack:

  1. Installera och starta appen.
  2. Klick Nästa att börja skapa ett nytt projekt.
  3. Ge projektet ett namn, en kategori, en basväg och klicka sedan på Nästa.
  4. Välj Ladda ner webbplats (er) för åtgärd, skriv sedan in varje webbadress i adressen Webbadresser lådan, en webbadress per rad. Du kan också lagra webbadresser i en TXT-fil och importera den, vilket är bekvämt när du vill ladda ner samma webbplatser senare. Klick Nästa.
  5. Justera parametrar om du vill, klicka sedan på Avsluta.

När allt har laddats ner kan du bläddra på webbplatsen som normalt genom att gå till var filerna hämtades och öppna index.html eller index.htm i en webbläsare.

3. SiteSucker

Finns för Mac och iOS.

Om du är på Mac, är ditt bästa alternativ SiteSucker. Det här enkla verktyget sprider hela webbplatser och upprätthåller samma övergripande struktur och innehåller alla relevanta mediefiler (t.ex. bilder, PDF-filer, stilark).

Den har ett rent och lättanvänt gränssnitt som inte kan vara lättare att använda: Du klistrar bokstavligen i webbadressen till webbplatsen och trycker på Stiga på.

En niffig funktion är möjligheten att spara nedladdningen till en fil, använd sedan den filen för att ladda ner samma exakta filer och strukturer igen i framtiden (eller på en annan maskin). Den här funktionen gör det också möjligt för SiteSucker att pausa och återuppta nedladdningar.

SiteSucker kostar $ 5 och kommer inte med en kostnadsfri version eller en gratis provperiod, vilket är dess största nackdel. Den senaste versionen kräver MacOS 10.13 High Sierra eller senare. Äldre versioner av SiteSucker är tillgängliga för äldre Mac-system, men vissa funktioner kan saknas.

4. Wget

Tillgänglig för Windows, Mac och Linux.

wget är ett kommandoradsverktyg som kan hämta alla typer av filer via HTTP och FTP-protokoll. Eftersom webbplatser serveras via HTTP och de flesta webmediefiler är tillgängliga via HTTP eller FTP, gör det Wget till ett utmärkt verktyg för att rippa webbplatser.

Medan Wget vanligtvis används för att ladda ner enstaka filer, det kan användas för att rekursivt ladda ner alla sidor och filer som hittas via en första sida:

wget -r -p //www.makeuseof.com

Vissa webbplatser kan dock upptäcka och förhindra vad du försöker göra eftersom rippning av en webbplats kan kosta dem mycket bandbredd. För att komma runt detta kan du dölja dig själv som en webbläsare med en användaragentsträng:

wget -r -p -U Mozilla //www.makeuseof.com

Om du vill vara artig bör du också begränsa din nedladdningshastighet (så att du inte gräver webbserverns bandbredd) och pausa mellan varje nedladdning (så att du inte överväldigar webbservern med för många förfrågningar):

wget -r -p -U Mozilla - vänta = 10 --limit-rate = 35K //www.makeuseof.com

Wget levereras med de flesta Unix-baserade system. På Mac kan du installera Wget med ett enda Homebrew-kommando: brygga installationen wget (hur man konfigurerar Homebrew på Mac Hur man installerar Mac Apps i terminalen med Homebrew Hur man installerar Mac Apps i terminalen med Homebrew Visste du att du kan installera Mac-programvara i terminalen? Så här använder du Homebrew för att enkelt installera Mac-appar. Mer ). På Windows måste du använda den här portade versionen istället.

Vilka webbplatser vill du ladda ner?

Nu när du vet hur man laddar ner hela webbplatsen bör du aldrig fångas utan att läsa något, även om du inte har tillgång till internet.

Men kom ihåg: ju större webbplatsen desto större är nedladdningen. Vi rekommenderar inte att du laddar ned stora webbplatser som MakeUseOf eftersom du behöver tusentals MB-filer för att lagra alla mediefiler vi använder.

De bästa platserna att ladda ner De bästa hemsidorna på Internet De bästa webbsidorna på Internet En enorm lista över de bästa webbsidorna på Internet, i fjorton praktiska kategorier. Dessa anses vara de bästa sidorna som får dig vad du behöver. Läs mer är de med massor av text och inte många bilder och webbplatser som inte regelbundet lägger till nya sidor eller ändras. Statiska informationssidor, online ebook-webbplatser och webbplatser du vill arkivera om de går ner är perfekta.

Bildkredit: RawPixel.com/Shutterstock

Utforska mer om: Hämta hantering, offline-sökning.