[Résolu][Firefox] Sauver en local toutes les pages ouvertes en un clic

Bonjour à tous,

Dans le cadre d’une veille marketing concurrentielle je dois sauvegarder sur mon PC le ranking Google d’une quarantaine de termes et mots clés.

Par exemple je dois sauver en local l’intégralité de la page http://www.google.fr/search?q=test
où “test” représente l’expression ou le mot clé surveillé.

J’ai créé un dossier dans mes bookmarks contenant tous les liens des pages en question.

Question : comment automatiser cette sauvegarde dans Firefox pour que toutes les pages soient sauvées d’un clic ?

Merci d’avance.

C-s?

autre chose que firefox?

Un script bidon avec wget ou equivalent. Au moins 2min de travail. Ou un bout de code dans un langage quelconque.

https://code.google.com/intl/fr-FR/apis/customsearch/v1/getting_started.html#intro
perso je suis pas sur que google apprécie les requetes wget automatisées sur sa page web, tu risques d’être bloqué assez vite.

curl + user-agent + cron + 40 lignes

Exemple concret :

Tu parles, ils s’en foutent, pour une requête par minute toutes les 10 minutes (ce qui est déjà large)…
au pire après il peut spoofer l’ua.
Bref, oui pour faire propre tu as raison, leur API c’est achement plus pratique que de parser leurs résultats de merde. Mais je crois que son job c’est de faire ça à la main :slight_smile:

Merci à tous pour vos réponses.

�?videmment s’il y a plus pratique je suis preneur :slight_smile:

Oui, Google m’avait banni en quelques minutes avec un simple combo Greasemonkey + SEOquake.

C’est surtout que je suis une grosse bille en programmation. Et j’aimerai éviter de perdre trop de temps à chaque fois que je fais cette sauvegarde. Pour conclure quel est le moyen le plus rapide d’éffectuer cette manip ?

Bon, je suis très pressé. Qui se propose pour me faire un script FONCTIONNEL qui répond à la problématique ? Je le paye. Oui oui, je suis sérieux.

Sinon, pour quelques euros de plus, je peux aussi m’occuper de ta femme/copine (si elle est mignonne) :ninja: :innocent: :smiley:

Ci-dessous l’aide apportée par Anathelion :

[quote name=‘Anaethelion’ timestamp=‘1289213550’]
Salut,

Je veux bien t’aider GRATUITEMENT, mais uniquement si t’as un linux.

Auquel cas tu te fais un fichiers urls.txt, un url par ligne, tu sauvegardes le fichier et le script ça doit donner à peu près ça :

Ce qui te sortira, à condition que les urls soient formées comme suit :

Te sortira un fichier arguments.html avec le contenu de la requête.

Une requête toutes les deux secondes pour pas de faire jeter par google, et si t’as pas linux je peux rien pour toi.
(doit aussi fonctionner sous mac)[/quote]

Cependant je suis sous Windows, qui sait faire un équivalent ?

Installe Cygwin.

Un poil plus simple:
https://addons.mozilla.org/fr/firefox/addon/212/

Utilisation:
Fichier > enregistrer tous les onglets sous …
Sélectionner Archive web, Maff zippé

Tu peux faire page par page. Ouvrir le/les fichier/s avec Firefox pour consulter les pages plus tard, les envoyer, etc…

Well done nolan, topic résolu !

Autohotkey.

Sinon, PERECil, rappelle moi le nom de ta chère et tendre :slight_smile: Jake, tu t’en souviens? Désolé!