2009-07-28 13:32:02 +0000 2009-07-28 13:32:02 +0000
362
362

Come posso scaricare un intero sito web?

Come posso scaricare tutte le pagine di un sito web?

Qualsiasi piattaforma va bene.

Risposte (20)

347
347
347
2009-07-28 13:55:39 +0000

HTTRACK funziona come un campione per copiare il contenuto di un intero sito. Questo strumento può anche afferrare i pezzi necessari per far funzionare offline un sito web con contenuto di codice attivo. Sono stupito dalla roba che può replicare offline.

Questo programma farà tutto ciò di cui avete bisogno.

Buona caccia!

282
282
282
2009-07-28 14:05:25 +0000

Wget è un classico strumento a riga di comando per questo tipo di compiti. Viene fornito con la maggior parte dei sistemi Unix/Linux, e si può ottenere anche per Windows . Su un Mac, Homebrew è il modo più semplice per installarlo (brew install wget).

Faresti qualcosa come:

wget -r --no-parent http://site.com/songs/

Per maggiori dettagli, vedi Wget Manual e i suoi esempi , o e. g. questi:

8
8
8
2009-09-16 22:12:13 +0000

Dovresti dare un'occhiata a ScrapBook , un'estensione di Firefox. Ha una modalità di cattura in profondità .

8
8
8
2009-09-16 21:56:24 +0000

Internet Download Manager ha un'utilità Site Grabber con molte opzioni - che permette di scaricare completamente qualsiasi sito web che si desidera, nel modo desiderato.

  1. È possibile impostare il limite di dimensioni delle pagine/file da scaricare

    1. È possibile impostare il numero di siti di filiale da visitare
    1. È possibile modificare il comportamento di script/popupup/duplicati
  2. È possibile specificare un dominio, solo sotto quel dominio verranno scaricate tutte le pagine/file che soddisfano le impostazioni richieste

  3. I link possono essere convertiti in link offline per la navigazione

  4. Avete dei modelli che vi permettono di scegliere le impostazioni di cui sopra per voi

Il software non è comunque gratuito - vedete se si adatta alle vostre esigenze, utilizzate la versione di valutazione.

7
7
7
2009-09-17 11:42:49 +0000
  • itsucks ** - questo è il nome del programma!
5
5
5
2009-09-17 02:08:03 +0000

Mi piace Offline Explorer . È un shareware, ma è molto buono e facile da usare.

5
5
5
2009-07-28 14:03:11 +0000

Mi occuperò del buffering online che i browser utilizzano…

In genere la maggior parte dei browser utilizza una cache di navigazione per mantenere i file scaricati da un sito web in giro per un po’, in modo da non dover scaricare immagini e contenuti statici più e più volte. Questo può accelerare un po’ le cose in alcune circostanze. In generale, la maggior parte delle cache dei browser è limitata a una dimensione fissa e quando raggiunge questo limite, cancella i file più vecchi nella cache.

Gli ISP tendono ad avere server di caching che conservano copie di siti web comunemente accessibili come ESPN e CNN. Questo gli risparmia la fatica di colpire questi siti ogni volta che qualcuno sulla loro rete ci va. Ciò può comportare un risparmio significativo nella quantità di richieste duplicate a siti esterni all'ISP.

4
4
4
2010-02-26 01:26:42 +0000

WebZip è anche un buon prodotto.

4
4
4
2009-07-28 23:23:28 +0000

Non lo faccio da molti anni, ma ci sono ancora alcuni servizi pubblici. Potresti voler provare Web Snake . Credo di averlo usato anni fa. Mi sono ricordato subito il nome quando ho letto la sua domanda.

Sono d'accordo con Stecy. Per favore, non martellate il loro sito. Molto male.

3
3
3
2009-10-14 11:41:36 +0000

Prova BackStreet Browser .

È un browser offline gratuito e potente. Un programma per il download e la visualizzazione di siti web ad alta velocità e multi-threading. Facendo più richieste simultanee al server, BackStreet Browser può scaricare rapidamente l'intero sito web o parte di esso, inclusi HTML, grafica, Java Applets, suoni e altri file definibili dall'utente, e salva tutti i file nel disco rigido, sia nel loro formato nativo, sia come file ZIP compresso e visualizza offline.

3
3
3
2013-03-21 17:14:16 +0000

Teleport Pro è un'altra soluzione gratuita che copia tutti i file da qualunque sia il vostro obiettivo (ha anche una versione a pagamento che vi permetterà di estrarre più pagine di contenuto).

3
3
3
2009-09-16 22:17:23 +0000

DownThemAll è un add-on Firefox che scarica tutti i contenuti (file audio o video, per esempio) per una particolare pagina web in un solo click. Questo non scarica l'intero sito, ma potrebbe essere il tipo di cosa che la domanda cercava.

3
3
3
2015-09-18 01:41:23 +0000

Per Linux e OS X: Ho scritto grab-site per archiviare interi siti web su file WARC . Questi file WARC possono essere browsed o estratti. grab-site permette di controllare quali URL saltare usando espressioni regolari, e questi possono essere modificati quando il crawl è in esecuzione. Viene anche fornito con un ampio set di impostazioni predefinite per ignorare gli URL spazzatura.

C'è un cruscotto web per monitorare i crawl, così come opzioni aggiuntive per saltare i contenuti video o le risposte oltre una certa dimensione.

1
1
1
2017-11-03 18:13:37 +0000

Power wget

Mentre wget era già menzionato questa risorsa e la linea di comando era così perfetta che ho pensato che meritasse di essere menzionata:wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/ Vedi questo codice spiegato su explainshell

0
0
0
2019-10-14 14:14:05 +0000

Save Page WE

Ottima estensione sia per Chrome che per Firefox che scarica la maggior parte/tutti i contenuti di una pagina web e li memorizza direttamente nel file .html. Google Chrome Extension Firefox Extension

Ho notato che su una pagina di galleria di immagini l'ho provata, ha salvato le miniature ma non le immagini complete. O forse non il JavaScript per aprire le immagini complete delle miniature.

Ma, ha funzionato meglio di wget, PDF, ecc. Ottima soluzione semplice per le esigenze della maggior parte delle persone.

0
0
0
2019-11-11 16:33:26 +0000

È possibile utilizzare i seguenti strumenti gratuiti online che renderanno un file zip di tutti i contenuti inclusi in tale url

0
0
0
2015-09-27 08:49:33 +0000

Il venerabile * FreeDownloadManager.org ** ha anche questa caratteristica.

Free Download Manager la ha in due forme in due forme: Site Explorer e Site Spider :

Site Explorer Site Explorer permette di visualizzare la struttura delle cartelle di un sito web e di scaricare facilmente i file o le cartelle necessarie. HTML Spider È possibile scaricare intere pagine web o anche interi siti web con HTML Spider. Lo strumento può essere regolato per scaricare solo i file con le estensioni specificate.

Trovo che Site Explorer sia utile per vedere quali cartelle includere/escludere prima di tentare di scaricare l'intero sito - specialmente quando c'è un intero forum nascosto nel sito che non si vuole scaricare, per esempio.

-1
-1
-1
2015-09-21 16:02:12 +0000

scaricare HTTracker scaricherà i siti web molto facili da seguire.

download link http://www.httrack.com/page/2/

video che possono aiutarvi https://www.youtube.com/watch?v=7IHIGf6lcL4

-3
-3
-3
2015-12-02 13:59:03 +0000
-4
-4
-4
2015-05-16 18:05:51 +0000

Credo che google chrome possa farlo sui dispositivi desktop, basta andare sul menu del browser e cliccare su salva pagina web.

Si noti anche che servizi come pocket potrebbero non salvare il sito web, e sono quindi suscettibili di marcire i link.

Infine si noti che copiare il contenuto di un sito web può violare il diritto d'autore, se si applica.