[Linux] Monter dossier HTTP avec fstab

Bonjour à tous,

J’aurai voulu savoir un truc tout bête : Sous linux peut on monter un dossier HTTP ?

En gros je voudrai avoir dans /var/documents/ le contenu de http://site.web/documents/
Sachant que le dossier distant en question, ne contient que des fichiers, et pas de page web (arborescence totalement browsable)

Vous pensez ça réalisable ?
Vu le peu de résultats sur Google à ce sujet, je me fais pas trop d’illusions mais sait on jamais :rolleyes:

Ca me semble être ça, jamais testé.
httpfs

Excusez ma curiosité mais je comprends pas trop le principe d’un dossier HTTP ?
C’est de pouvoir synchroniser un dossier local sur son serveur ?

[quote=« Thomas Monzie, post:2, topic: 52247 »]Ca me semble être ça, jamais testé.
httpfs[/quote]J’ai vu ça, mais a ce que j’ai compris ca monte qu’un seul fichier, et pas un dossier complet et ses sous dossiers…
Mais l’idée est là.

EDIT j’ai testé pour le dossier complet et je me prend une erreur :

auth data: (null) httpfs2: HEAD: server must Accept-Range: bytes httpfs2: HEAD: exchange: server error HTTP/1.1 200 OK Server: nginx/0.9.3 Date: Wed, 16 Feb 2011 00:14:04 GMT Content-Type: text/html;charset=UTF-8 Connection: keep-aliveMais j’avoue j’y ai cru quelques instants… :frowning:

[quote=« HIZUN, post:3, topic: 52247 »]Excusez ma curiosité mais je comprends pas trop le principe d’un dossier HTTP ?
C’est de pouvoir synchroniser un dossier local sur son serveur ?
[/quote]Non en fait il y a des sites qui archivent des documents que j’aimerai bien avoir à disposition sans forcement avoir besoin de les télécharger.

Oui j’ai oublié de préciser je veux juste avoir la lecture sur les fichiers pas l’écriture.

C’est a ca que servait qqch comme WebDAV.

Intéressant, comment savoir si WebDAV est supporté par ces sites ?

Dans nautilus, tu peux tenter dav://site.web/documents/ j’ai pas la ligne de commande en tête pour faire ça en console.

Merci, j’ai regardé la commande est simplement

mount.davfs http://site.web /var/dossier

Mais il me répond : [quote]mount.davfs: mounting failed; the server does not support WebDAV
[/quote]:frowning:

A moins que quelqu’un ait le trick pour faire ça avec httpfs2, je crois que c’est mort…

Et une connexion en sshfs avec un ro ça ne serait pas une bonne chose ?
c’est par ce moyen que je me connecte aux sites que je gère et franchement ça marche pas mal
après il faut que le serveur gère ssh…
sans faire de pub aucune, ovh le fait même sur les mutualisés…

my 2 cents

Pour ca il faut surement avoir un compte sur la machine distante, or dans ce cas c’est un site public, on a accès uniquement au HTTP.

ah oui en effet au temps pour moi :slight_smile:

huum… franchement, je vois pas bien l’intérêt. J’ai suivi le truc pour savoir s’il y avait une solution, mais même avec une solution, quel est l’intérêt? :blink:
Par essence, le net (et un site en particulier encore plus) est un univers qui change chaque jour, et un site web avec plein d’infos sympa peut disparaitre du jour au lendemain. Le téléchargement complet du répertoire de doc me parait largement plus intéressant, avec eventuellement un mise a jour hebdo ou mensuelle, avec un message d’erreur quand le site aura disparu.

LoneWolf
'comprends pas…

C’est des archives, donc il y a énormément de fichiers, avec de mises à jour régulières.
Je trouvais ça pratique d’avoir en temps réél les fichiers, sans me demander si il fallait tout re-télécharger pour avoir les dernières versions.

Et l’avoir monté en local me permet aussi de rechercher dans le dossier beaucoup plus facilement par nom de fichier, sans avoir à browser l’arborescence manuellement.

As-tu pensé à un aspirateur de sites (il me semble que wget peut télécharger un site entier) ? Tu auras toujours le site disponibe, le seul inconvénient sera de devoir faire les mises à jour manuellement.

Oui c’est le plan B, il existe Httrack qui fait super bien son taf, mais le gros soucis c’est la place nécessaire, et les maj fréquentes…

Par curiosité, tu peux en dire plus sur la nature des fichiers et donner un ordre d’idée de la taille que ça représente ? Tu ne connais pas le propriétaire du site ?

C’est beaucoup de scan de documents et de fichiers doc entre autres, pour le nombre et la taille j’en sais rien, mais il y en a énormément.
Sinon non, je ne connais pas le propriétaire, et je ne pense pas que le fait d�??accéder à ces documents de cette manière fasse partie de leurs priorités, j’ai pas envie non plus non plus de leur en parler, au cas ou ils bloqueraient l�??accès (je pense pas que l�??accès à ces docs soit involontaire mais sait-on jamais)…

Bref je vais tout aspirer et faire des MàJ de temps en temps.

Le sujet reste ouvert au cas ou une solution miracle tomberai du ciel :rolleyes:

Si ça risque de disparaître, vaut mieux créer un miroir local, tu peux le faire avec wget : http://forum.ubuntu-fr.org/viewtopic.php?id=21805

L’avantage de wget c’est que tu peux faire une tâche cron pour faire des mises à jour automatiques. (de mémoire, httrack c’est davantage orienté interface graphique que ligne de commande)

Suggérer un accès FTP anonyme sur le site?