Come scaricare tutte le pagine di un sito Web in Linux

January 28

Il sistema operativo Linux utilizza il comando "wget" per scaricare le pagine Web al computer, ed è possibile utilizzare questo comando per scaricare una singola pagina o un intero sito web. Ogni file del sito, comprese le immagini e altri dati, sarà copiato in una directory sul computer locale. Poiché la maggior parte siti web non vogliono di scaricare l'intero sito, hanno posto ostacoli in atto per evitare questo. Il comando "wget" dispone di opzioni che consentono di ignorare le ostruzioni.

istruzione

1 Aprire una finestra di terminale tramite gli "Strumenti di sistema", sezione Utilità "del menu principale" Accessori "o".

2 Tipo "mkdir sito /" per creare la directory che conterrà le pagine web che si scarica, sostituendo "Sito" con qualsiasi nome che desideri.

3 Digitare "cd Sito web /" per navigare nella directory creata, sostituendo "Sito" con il nome corretto della directory.

4 Tipo "wget ​​--wait = 25 --limit-rate = 20K -r -p -U Mozilla http://mysite.com," sostituendo "http://mysite.com" con il nome del sito che si desidera per scaricare e "Mozilla" con il nome del tuo browser. L'opzione "aspettare", dice una pausa di 25 secondi tra ogni recupero; l'opzione "limit-rate", dice di limitare ogni download alla dimensione specificata.

5 Tipo "ls -l" per elencare il contenuto della directory quando il download è completato.