Comment puis-je télécharger un site web entier ?
Comment puis-je télécharger toutes les pages d'un site web ?
Toute plate-forme est bonne.
HTTRACK fonctionne comme un champion pour copier le contenu d'un site entier. Cet outil peut même saisir les pièces nécessaires pour faire fonctionner hors ligne un site web dont le contenu est en code actif. Je suis étonné de ce qu'il peut reproduire hors ligne.
Ce programme fera tout ce que vous lui demanderez.
Bonne chasse !
Wget est un outil de ligne de commande classique pour ce genre de tâche. Il est fourni avec la plupart des systèmes Unix/Linux, et vous pouvez l'obtenir pour Windows également. Sur un Mac, Homebrew est la façon la plus simple de l'installer (brew install wget
). Vous feriez quelque chose comme :
wget -r --no-parent http://site.com/songs/
Pour plus de détails, voir Wget Manual et ses exemples , ou e. g. ces :
Vous devriez jeter un coup d'œil à ScrapBook , une extension de Firefox. Elle dispose d'un mode de capture in-depth capture mode .
Internet Download Manager dispose d'un utilitaire Site Grabber avec de nombreuses options - qui vous permet de télécharger complètement n'importe quel site web, comme vous le souhaitez.
Vous pouvez fixer la limite de la taille des pages/fichiers à télécharger
Vous pouvez fixer le nombre de sites de filiales à visiter
Vous pouvez modifier le comportement des scripts/opups/duplicata
Vous pouvez spécifier un domaine, mais uniquement sous ce domaine toutes les pages/fichiers répondant aux paramètres requis seront téléchargés
Les liens peuvent être convertis en liens hors ligne pour la navigation
Vous disposez de modèles qui vous permettent de choisir les paramètres ci-dessus pour vous
Le logiciel n'est cependant pas gratuit - voyez s'il répond à vos besoins, utilisez la version d'évaluation.
J'aime Offline Explorer . C'est un shareware, mais il est très bon et facile à utiliser.
Je vais aborder la mise en mémoire tampon en ligne que les navigateurs utilisent…
Généralement, la plupart des navigateurs utilisent une mémoire cache de navigation pour conserver un peu les fichiers que vous téléchargez d'un site web afin que vous n'ayez pas à télécharger des images et du contenu statiques encore et encore. Cela peut accélérer considérablement les choses dans certaines circonstances. En général, la plupart des caches des navigateurs sont limités à une taille fixe et lorsqu'il atteint cette limite, il supprime les fichiers les plus anciens dans le cache. Les FAI
ont tendance à avoir des serveurs de cache qui conservent des copies des sites web les plus fréquemment consultés comme ESPN et CNN. Cela leur évite d'avoir à accéder à ces sites chaque fois qu'un membre de leur réseau s'y rend. Cela peut représenter une économie considérable en termes de nombre de demandes dupliquées vers des sites externes au FAI.
WebZip est également un bon produit.
Je n'ai pas fait cela depuis de nombreuses années, mais il existe encore quelques services publics. Vous pouvez essayer Web Snake . Je crois que je l'ai utilisé il y a des années. Je me suis souvenu du nom tout de suite quand j'ai lu votre question.
Je suis d'accord avec Stecy. S'il vous plaît, ne martelez pas leur site. Très mauvais.
Essayez BackStreet Browser .
Il s'agit d'un navigateur hors ligne gratuit et puissant. Il s'agit d'un programme de téléchargement et de visualisation de sites web à grande vitesse et à plusieurs fils. En effectuant plusieurs requêtes simultanées sur le serveur, BackStreet Browser peut rapidement télécharger tout ou partie d'un site web, y compris les fichiers HTML, graphiques, applets Java, sons et autres fichiers définissables par l'utilisateur. Il enregistre tous les fichiers sur votre disque dur, soit dans leur format natif, soit sous forme de fichier ZIP compressé et les visualise hors ligne.
Teleport Pro est une autre solution gratuite qui permet de copier tous les fichiers, quelle que soit votre cible (il existe également une version payante qui vous permettra d'extraire davantage de pages de contenu).
DownThemAll est un add-on Firefox qui permet de télécharger en un seul clic tout le contenu (fichiers audio ou vidéo, par exemple) d'une page web particulière. Il ne télécharge pas l'intégralité du site, mais c'est peut-être ce que recherchait la question.
Pour Linux et OS X : J'ai écrit grab-site pour archiver des sites web entiers dans des fichiers WARC . Ces fichiers WARC peuvent être parcourus ou extraits. grab-site vous permet de contrôler les URL à sauter à l'aide d'expressions régulières, et celles-ci peuvent être modifiées lorsque le crawl est en cours d'exécution. Il est également fourni avec un vaste ensemble de valeurs par défaut pour ignorer les URL indésirables.
Il existe un tableau de bord web pour surveiller les crawls, ainsi que des options supplémentaires pour sauter des contenus vidéo ou des réponses dépassant une certaine taille.
Bien que wget ait déjà été mentionné, cette ressource et cette ligne de commande étaient si transparentes que j'ai pensé qu'elles méritaient d'être mentionnées:wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/
Voir ce code expliqué sur explainshell
Excellente extension pour Chrome et Firefox qui télécharge la plupart/tout le contenu d'une page web et le stocke directement dans le fichier .html
.
Extension Google Chrome
Extension Firefox
J'ai remarqué que sur une page de galerie d'images que j'ai essayée, elle sauve les vignettes mais pas les images complètes. Ou peut-être simplement pas le JavaScript pour ouvrir les images complètes des miniatures.
Mais, il a mieux fonctionné que wget, PDF, etc. Une solution très simple pour répondre aux besoins de la plupart des gens.
Vous pouvez utiliser les outils en ligne gratuits ci-dessous qui vous permettront de créer un fichier zip de tous les contenus inclus dans cette url
Le vénérable * FreeDownloadManager.org ** dispose lui aussi de cette fonctionnalité.
Free Download Manager l'a sous deux formes sous deux formes : Site Explorer et Site Spider :
Site Explorer Site Explorer vous permet de visualiser la structure des dossiers d'un site web et de télécharger facilement les fichiers ou dossiers nécessaires. HTML Spider Vous pouvez télécharger des pages web entières ou même des sites web entiers avec HTML Spider. L'outil peut être ajusté pour télécharger des fichiers avec des extensions spécifiques uniquement.
Je trouve que Site Explorer est utile pour voir quels dossiers inclure/exclure avant de tenter de télécharger le site entier - surtout quand un forum entier se cache dans le site que vous ne voulez pas télécharger par exemple.
téléchargez HTTracker il permettra de télécharger des sites web très faciles à suivre.
lien de téléchargement http://www.httrack.com/page/2/
vidéo qui peut vous aider https://www.youtube.com/watch?v=7IHIGf6lcL4
Firefox peut le faire nativement (au moins 42 FF). Il suffit d'utiliser “Save Page”
Je pense que google chrome peut faire cela sur les appareils de bureau, il suffit d'aller dans le menu du navigateur et de cliquer sur enregistrer la page web.
Notez également que des services comme pocket peuvent ne pas enregistrer le site web, et sont donc susceptibles de pourrir les liens.
Enfin, notez que la copie du contenu d'un site web peut porter atteinte au droit d'auteur, s'il s'applique.