Objet : Liste pour les discussions techniques (liste à inscription publique)
Archives de la liste
- From: Rault Alexandre <rault.alexandre AT gmail.com>
- To: technique AT april.org
- Cc: Lionel Allorge <lallorge AT april.org>
- Subject: Re: [TECH] Aspirer un site ?
- Date: Sat, 05 Sep 2009 12:29:15 +0200
- Domainkey-signature: a=rsa-sha1; c=nofws; d=gmail.com; s=gamma; h=message-id:date:from:user-agent:mime-version:to:cc:subject :references:in-reply-to:content-type:content-transfer-encoding; b=PaYKY+yY0fI9sxuAKLuCmTvKci6qCpukQUJZwphynXofOUngNCq5tlcDrL4xbCxeKQ 9T2PjqFPdfxL+eyLKOzFwirWoFJrmEkBBOrDbR/AHKUxDo7e9bNbNRY98bwBNRaKIO0n eapamcI8NnbYaGtFt70vW77rRJduodBh9VKMM=
Lionel Allorge a écrit :
Bonjour,Pour certains sites minimalistes, wget peut faire l'affaire, mais 'on rate' certains trucs sur des sites plus évolués
Je cherche à aspirer le contenu public complet d'un site web, y compris les images, pour en conserver une copie hors ligne.
Que me conseillez vous ? Wget ?
Bonne continuation.
HTTrack est plus adapté.. par contre, attention à bien configurer l'aspiration, sous peine d'importer aussi les sites "d'à coté" ! (Comme le client qui veux qu'on lui mette Internet sur une disquette)
http://www.httrack.com/page/2/fr/index.html
Alex - Linux Arverne / Blue Networks Technologies
- Aspirer un site ?, Lionel Allorge, 05/09/2009
- Re: [TECH] Aspirer un site ?, Rault Alexandre, 05/09/2009
Archives gérées par MHonArc 2.6.16.