Shell: Scaricare un sito con wget
Attenzione
Questo articolo è stato pubblicato più di un anno fa, potrebbero esserci stati sviluppi.
Ti preghiamo di tenerne conto.
Nell’articolo di oggi vediamo come si scarica un sito per intero con il comando “wget
“.
Wget è un download manager open source, incluso nelle principali distribuzioni Linux. Si tratta di un tool a riga di comando, del quale esiste una gui per Gnome (“gwget“) e una gui per Windows (“wgetGUI“). Oggi vediamo qualche semplice istruzione, ma per chi vuole approfondire il manuale è sempre disponibile digitando da terminale “man wget
“.
Uso di wget per scaricare un file, anche di grosse dimensioni:
$ wget -c http://dominio.ext/file.iso
L’opzione “-c
” non è indispensabile, ma soprattutto per i file grossi rende possibile l’interruzione del download in qualsiasi punto, lanciando in futuro lo stesso comando dalla stessa directory il download verrà ripreso dallo stesso punto in cui l’abbiamo lasciato.
Uso di wget per scaricare un intero sito con tutti i link interni:
$ wget -r http://dominio.ext/
Senza l’argomento “-r
” verrebbe scaricato solo il file index.html presente nella radice del sito. In questo caso, invece, “-r
” fa in modo che vengano scaricati anche tutti i link interni e le immagini in modo ricorsivo. Attenzione con questo comando però, lanciandolo su un sito molto grosso il download rischia di non finire più.
Uso di wget per scaricare un intero sito, ma limitare a 3 il livello di profondità:
$ wget -r -c -l 3 -o wget.log http://dominio.ext/
Quest’altro comando scarica il sito ed i suoi collegamenti interni, è possibile riprendere il download se lo interrompiamo, i link verranno scaricati fino al terzo (gerarchicamente), tiene un file di log chiamato “wget.log” nella directory presente.
Purtroppo la gui non ha tutte queste opzioni da configurare, risulta essere un semplice download manager, il programma vero e proprio, invece, è pieno zeppo di configurazioni per tutte le esigenze.
0 commenti