Como a todos/as quienes trabajamos en informática, me ocurre (ya van varias veces) que nos piden continuidad de un viejo trabajo pero resulta que el último administrador se fue dando un portazo y no hay manera de tener accesos como corresponde…
Entonces, debemos recurrir a nuestros mails, nuestra memoria… y finalmente, a alguna herramienta de descarga de una página web, para poder empezar con esa base.
Gracias a este post de GenBeta donde explican tres maneras de almacenar una página web para ver offline, pude retomar unos viejos interactivos.
Simplemente abriendo una terminal (en Debian) y poniendo:
wget --recursive --level=50 -p --convert-links http://lapaginaquequeresbajar.bla.bla
Esto descargará en forma “recursiva” todo el sitio hasta el nivel 50, convirtiendo los enlaces en locales.
En el mismo post se explica que si se quiere bajar todo el sitio se utiliza “inf” en lugar de un número, y se le agrega que espere 30 segundos entre una descarga y otra, para no sobrecargar el servidor:
--level=inf --wait=30