Guardar una web con wget

Para guardar la totalidad de la información almacenada en un sitio web tenemos varias opciones, y a continuación detallaremos una de ellas.

Wget puede descargarse gratis de su página oficial y podremos utilizarla para descargar tanto sitios completos como páginas. Con el siguiente comando “wget –recursive –level=50 -p (URL del sitio)” ejecutaremos wget de modo tal que descargará el sitio y todas las páginas que enlaza hasta 10 niveles, guardando archivos auxiliares y convirtiendo enlaces a descargas locales.

Para hacer una copia de toda la página web, deberemos agregar “inf” como número de niveles y agregar la opción “–wait=30” para evitar sobrecargar el servidor agregando una pausa de 30 segundos entre descargas.

Enlace wget

Vía

Busquedas a esta Pagina:
Nadie a llegado a esta página por un buscador, todavía!
0 Comentarios Compartir en Facebook Compartir en Twitter
Dejar un comentario Trackback URL RSS feed de los comentarios

Deja tu comentario

Requerido
Requerido, no publicable

Puedes usar etiquetas HTML tags y sus atributos: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>

Se prohibe la Copia total de cualquiera de las publicaciones de este weblog. Copias parciales deben citar la fuente,del post con un enlace directo.