2013-06-07 02:35:43 +0000 2013-06-07 02:35:43 +0000
8
8

Copier tous les fichiers d'un emplacement de dossier HTTP vers un dossier local

Je suis étudiant et j'ai besoin de retirer beaucoup de choses du site web de mon professeur, en conservant de préférence une partie de la structure des dossiers.

Je travaille sur des boîtes Windows et j'ai accès à Windows XP, Windows 7, et Windows Server 2008 R2. À l'époque (il y a deux ou trois ans), j'ai essayé des utilitaires qui reflétaient des pages web et ce genre de choses et, pour diverses raisons, ils ne fonctionnaient jamais correctement, ou alors je ne pouvais jamais obtenir ce que je voulais d'eux.

Donc, par exemple, ces dossiers :

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolderABCXYZ

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder123456

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder4321

http://myUniversity.edu/professor/classLectures/folder1/programmaticFolder2345

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolderABCXYZ2

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder1234563

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder43214

http://myUniversity.edu/professor/classLectures/folder2/programmaticFolder23455

En gros, c'est très pénible d'essayer de les télécharger manuellement pour les utiliser plus tard.

J'ai essayé cet utilitaire et soit c'est exagéré, soit ce n'est pas assez simple, parce que je n'ai jamais réussi à télécharger des fichiers sur mon disque dur.

Idéalement, j'aimerais scanner récursivement le dossier, recréer la structure du dossier dans un dossier spécifique, puis copier les fichiers du serveur distant dans le dossier correspondant sur ma machine locale.

Réponses (3)

9
9
9
2013-06-07 03:05:59 +0000

L'utilitaire le plus simple pour télécharger les fichiers d'un site web de manière récursive est WGET : http://gnuwin32.sourceforge.net/packages/wget.htm

5
5
5
2013-06-07 06:08:35 +0000

Regardez l'utilisation de HTTrack :

Il vous permet de télécharger un site Web de l'Internet vers un répertoire local, en construisant récursivement tous les répertoires, en récupérant le HTML, les images et d'autres fichiers du serveur vers votre ordinateur. HTTrack organise la structure des liens relatifs du site d'origine. Il suffit d'ouvrir une page du site “miroir” dans votre navigateur, et vous pouvez parcourir le site de lien en lien, comme si vous le consultiez en ligne. HTTrack peut également mettre à jour un site miroir existant, et reprendre les téléchargements interrompus. HTTrack est entièrement configurable et dispose d'un système d'aide intégré.

5
5
5
2014-07-21 03:20:11 +0000

Addon à Firefox : (https://addons.mozilla.org/en-US/firefox/addon/downthemall/)

Extension chrome : GetThemAll