A veces es muy útil bajarse algún sitio entero para poder navegarlo sin necesariamente estar conectado. En mi caso muy frecuentemente consulto guías de referencias de lenguajes o manuales para poder desarrollar (o sea trabajar) y me ha pasado de encontrarme que no funciona internet, gran problema. Bajar dichas páginas referencias y manuales es la solución ;-).

GNU Wget es una utilidad que sirve para “bajar” archivos de internet por medio de los protocolos HTTP o FTP. Por ser GNU es código abierto, por lo tanto su código se puede descargar de www.gnu.org.
GNU Wget nos permite descargar un sitio web recursivamente, es decir, puede actuar como un web crawler y descargar de cada página, las páginas de los enlaces que encuentra y así sucesivamente por cada página hasta el infinito, o bien, hasta un nivel de recursividad dado.
Veamos algunos ejemplos:
  • Descargar una página única: wget www.ubuntu.com
  • Descargar un sitio recursivamente hasta dos niveles: wget -r -l2 www.ubuntu.com
  • Descargar un sitio recursivamente hasta dos niveles (solo los archivos más nuevos a los locales): wget -r -l2 -N www.ubuntu.com
  • Descargar un sitio web completo: wget -m www.ubuntu.com o wget -r -l0 -N www.ubuntu.com
  • Descargar un sitio recursivamente omitiendo los vínculos a otros sitios: wget -r -l -np www.ubuntu.com (-np indica que no ascienda a directorios superiores)

Los archivos descargados quedan guardados en una estructura de directorios igual a la del sitio web descargado, aunque esto también se puede cambiar por medio de otros argumentos.
Para ver todos los argumentos y las opciones del programa, ejecuta wget –help o wget -help
Si utilizas Windows puedes descargarlo de aqui. Si utilizas Linux o alguna variante de UNIX probablemente lo tengas instalado, caso contrario puedes descargar los fuentes o los binarios del sitio oficial. Si tu Linux es un Debian: $ sudo apt-get install wget
Obtenido de LuAuF