J’aurai voulu savoir un truc tout bête : Sous linux peut on monter un dossier HTTP ?
En gros je voudrai avoir dans /var/documents/ le contenu de http://site.web/documents/
Sachant que le dossier distant en question, ne contient que des fichiers, et pas de page web (arborescence totalement browsable)
Vous pensez ça réalisable ?
Vu le peu de résultats sur Google à ce sujet, je me fais pas trop d’illusions mais sait on jamais :rolleyes:
[quote=« Thomas Monzie, post:2, topic: 52247 »]Ca me semble être ça, jamais testé. httpfs[/quote]J’ai vu ça, mais a ce que j’ai compris ca monte qu’un seul fichier, et pas un dossier complet et ses sous dossiers…
Mais l’idée est là.
EDIT j’ai testé pour le dossier complet et je me prend une erreur :
auth data: (null)
httpfs2: HEAD: server must Accept-Range: bytes
httpfs2: HEAD: exchange: server error
HTTP/1.1 200 OK
Server: nginx/0.9.3
Date: Wed, 16 Feb 2011 00:14:04 GMT
Content-Type: text/html;charset=UTF-8
Connection: keep-aliveMais j’avoue j’y ai cru quelques instants…
[quote=« HIZUN, post:3, topic: 52247 »]Excusez ma curiosité mais je comprends pas trop le principe d’un dossier HTTP ?
C’est de pouvoir synchroniser un dossier local sur son serveur ?
[/quote]Non en fait il y a des sites qui archivent des documents que j’aimerai bien avoir à disposition sans forcement avoir besoin de les télécharger.
Oui j’ai oublié de préciser je veux juste avoir la lecture sur les fichiers pas l’écriture.
Et une connexion en sshfs avec un ro ça ne serait pas une bonne chose ?
c’est par ce moyen que je me connecte aux sites que je gère et franchement ça marche pas mal
après il faut que le serveur gère ssh…
sans faire de pub aucune, ovh le fait même sur les mutualisés…
huum… franchement, je vois pas bien l’intérêt. J’ai suivi le truc pour savoir s’il y avait une solution, mais même avec une solution, quel est l’intérêt? :blink:
Par essence, le net (et un site en particulier encore plus) est un univers qui change chaque jour, et un site web avec plein d’infos sympa peut disparaitre du jour au lendemain. Le téléchargement complet du répertoire de doc me parait largement plus intéressant, avec eventuellement un mise a jour hebdo ou mensuelle, avec un message d’erreur quand le site aura disparu.
C’est des archives, donc il y a énormément de fichiers, avec de mises à jour régulières.
Je trouvais ça pratique d’avoir en temps réél les fichiers, sans me demander si il fallait tout re-télécharger pour avoir les dernières versions.
Et l’avoir monté en local me permet aussi de rechercher dans le dossier beaucoup plus facilement par nom de fichier, sans avoir à browser l’arborescence manuellement.
As-tu pensé à un aspirateur de sites (il me semble que wget peut télécharger un site entier) ? Tu auras toujours le site disponibe, le seul inconvénient sera de devoir faire les mises à jour manuellement.
Par curiosité, tu peux en dire plus sur la nature des fichiers et donner un ordre d’idée de la taille que ça représente ? Tu ne connais pas le propriétaire du site ?
C’est beaucoup de scan de documents et de fichiers doc entre autres, pour le nombre et la taille j’en sais rien, mais il y en a énormément.
Sinon non, je ne connais pas le propriétaire, et je ne pense pas que le fait d�??accéder à ces documents de cette manière fasse partie de leurs priorités, j’ai pas envie non plus non plus de leur en parler, au cas ou ils bloqueraient l�??accès (je pense pas que l�??accès à ces docs soit involontaire mais sait-on jamais)…
Bref je vais tout aspirer et faire des MàJ de temps en temps.
Le sujet reste ouvert au cas ou une solution miracle tomberai du ciel :rolleyes:
L’avantage de wget c’est que tu peux faire une tâche cron pour faire des mises à jour automatiques. (de mémoire, httrack c’est davantage orienté interface graphique que ligne de commande)