Dans le cadre d’une veille marketing concurrentielle je dois sauvegarder sur mon PC le ranking Google d’une quarantaine de termes et mots clés.
Par exemple je dois sauver en local l’intégralité de la page http://www.google.fr/search?q=test
où “test” représente l’expression ou le mot clé surveillé.
J’ai créé un dossier dans mes bookmarks contenant tous les liens des pages en question.
Question : comment automatiser cette sauvegarde dans Firefox pour que toutes les pages soient sauvées d’un clic ?
Tu parles, ils s’en foutent, pour une requête par minute toutes les 10 minutes (ce qui est déjà large)…
au pire après il peut spoofer l’ua.
Bref, oui pour faire propre tu as raison, leur API c’est achement plus pratique que de parser leurs résultats de merde. Mais je crois que son job c’est de faire ça à la main
�?videmment s’il y a plus pratique je suis preneur
Oui, Google m’avait banni en quelques minutes avec un simple combo Greasemonkey + SEOquake.
C’est surtout que je suis une grosse bille en programmation. Et j’aimerai éviter de perdre trop de temps à chaque fois que je fais cette sauvegarde. Pour conclure quel est le moyen le plus rapide d’éffectuer cette manip ?
Bon, je suis très pressé. Qui se propose pour me faire un script FONCTIONNEL qui répond à la problématique ? Je le paye. Oui oui, je suis sérieux.
Je veux bien t’aider GRATUITEMENT, mais uniquement si t’as un linux.
Auquel cas tu te fais un fichiers urls.txt, un url par ligne, tu sauvegardes le fichier et le script ça doit donner à peu près ça :
Ce qui te sortira, à condition que les urls soient formées comme suit :
Te sortira un fichier arguments.html avec le contenu de la requête.
Une requête toutes les deux secondes pour pas de faire jeter par google, et si t’as pas linux je peux rien pour toi.
(doit aussi fonctionner sous mac)[/quote]
Cependant je suis sous Windows, qui sait faire un équivalent ?