Panda, Pingouin & co : connaissez-vous le zoo de Google ?

https://www.google.fr/?q=chiptune#safe=off&q=chiptune

bon, avec tout ce qui doit se faire de plus mal en SEO je suis en 4ème position (en comptant le résultat wikipédia en encadré) :smiley:

j’imagine qu’avoir une bonne url (en l’occurence j’ai chiptune.com) est un élément essentiel.
Également, n’y aurait-il pas un système de « directory » d’url fait à la main comme dans les portails généralistes? car le texte sous mon url ne provient pas de mon site à priori, donc c’est quelqu’un qui l’a indexé :smiley:

Les considérations de Google sont connues depuis plus d’une décennie : une technique qui tienne la route, du contenu pas produit par un bot, et des citations / liens entrants vers toi. De la rigueur à tous les métiers et de la logique dans la priorisation des actions SEO.
Si @Cafeine le souhaite, nous pouvons imaginer par la suite d’autres articles plus courts, et mieux relus de mon côté :stuck_out_tongue:

Ton domaine est connu depuis 1999. Bravo il a survécu à la chute de la station Mir sur Paris :stuck_out_tongue:
La description servie par le moteur provient de Dmoz : un annuaire manuel qui fait ou faisait référence (voir ce lien).

2 « J'aime »

Bon article ! Merci JulienC
J’ai une aversion pour une grosse partie des experts SEO, principalement parceque je suis passé par la team de Matt Cutts en tant qu’analyste, et que j’ai ingurgité des tonnes de spams jusqu’a en gerber (et à l’époque c’était le western comme domaine…)
Mais il y a des vrais bons SEO, et c’est plaisant d’en lire un :slight_smile:

Il y aurait des trucs à débattre sur « du contenu pas produit par un bot », notamment sur les histoires de maillage/tags, mais je vois ce que tu voulais dire par ca :wink:

Sinon un tips que j’aimais pas mal pour ceux qui se demandent ce que ca veut dire un site correctement structuré : imaginez que le bot de Google soit un aveugle (ce qu’il est si on y réfléchit un peu). Si le site est accessible, au sens web du terme, c’est que vous utilisez correctement la sémantique et les outils a votre disposition pour rendre la lecture et la navigation accessible. Google va vous kiffer.

Et un autre domaine intéressant sur le SEO, qui est rarement abordé et qui pour le coup justifie l’intervention d’experts : si un site contient des dizaine de milliers de pages, il y a un vrai soucis sur le crawling. Le crawlers auront du mal à bien indexer toutes les pages, surtout si du contenu est frais. A ce moment la il faut trouver un moyen de diriger correctement les crawlers vers les pages fraiches et importante. Réfléchir à la profondeur des pages, trouver des moyens de multiplier le maillage sans « diluer » le pagerank etc…

1 « J'aime »

Ravi de correspondre avec un ex-membre de la team de GoogleGuy. Il nous manque, j’avoue !!
Par rapport à ton dernier point, nous l’avons aussi abordé sur GZ en simulant le crawl de Googlebot et en analysant son vrai parcours via les logs :slight_smile:

2 « J'aime »

Quand Google “joue” de sa puissance… :x

http://www.nextinpact.com/news/101931-protonmail-accuse-google-avoir-ecarte-certaines-recherches.htm

Pour moi c’est pas super nouveau… suffit de voir la dégringolade des comparateurs de prix juste avant l’arrivé de google shopping :confused:

Hum. A ma connaissance les départements sont assez étanches et tu vas pas avoir d’intervention sur le ranking organique pour faire bénéficier un produit maison.

Pour les comparateurs de prix, le principal soucis c’était que les gros comparateurs (genre Kelkoo à l’époque) indexaient des centaines de milliers de pages de résultats de recherche.
Et la politique c’était en gros que ca n’avait aucun intérêt pour l’expérience utilisateur de cliquer dans les résultats de recherche de Google pour retomber sur les résultats de recherche d’un autre moteur de recherche.
Donc si le moteur en question ne proposait pas une vraie valeur ajoutée sur ses pages, et notamment du contenu organique, c’était clasé comme borderline spam et ca prenait une pénalité.

Je ne sais pas trop ce qui justifie le problème avec Protonmail, mais ca me semblerait surprenait qu’ils blacklistent le truc pour des histoires de concurrences avec leurs propres produits. Je suis loin d’être un fan de Google, pour plein de raisons, mais la dessus généralement ils sont plutôt clean. Erreur humaine ou algo ?

Après les impacts sont énormes oui… surtout si ton business repose en partie sur l’apport du trafic organique (généralement mauvais signe…)

On a eu des cas assez déments à l’époque au tout début de l’équipe, avec par exemple le site de l’Assemblée Nationale qui spammait sur le mot « loi ». Au début Google s’en tapait de communiquer avec les BH SEO
(BlackHat), et certaines boites d’optimisation en France faisaient vriament n’importe quoi avec des clients très importants. Il a fallu bien expliquer à Matt Cutts et compagnie que oui, c’était du webspam, mais que non on ne pouvait pas blacklister le site du parlement. D’un coté ca semblait logique que si on tape « loi » on tombe sur le site « assemblee-nationale.fr », de l’autre la méthode pour y arriver n’était pas tolérée…

C’était un peu le souk, jusqu’à ce que les pénalités commencent à être plus précises, et que les contacts avec les webmasters se mettent place. Il y a eu notamment l’histoire de BMW en Allemagne, ou le site a été complètement blacklisté (en partie à cause/grace à ma femme ! :smiley:

Ca a fait flippé les boites de consulting SEO qui ont fait marche arrière sur plein de sites.

2 « J'aime »