Les nouvelles recommandations de google selon Matt Cutts

Block title
Block content

Matt Cutts est en charge de l'équipe de Google spécialisée dans les questions de référencement. Il a pour mission de diffuser les recommandations de Google en matière de SEO. Matt Cutts a rejoint le moteur de recherche en janvier 2000. Il est titulaire d'un doctorat en infographie à l'Université de Caroline du Nord. Sa derniére visite à Paris à confirmer un certain nombre d'annonces faites sur internet concernant l'implémentation de nouvelles régles dans la recherche de google, en voiçi un résumé:
 

Il ne faut pas donner au Pagerank trop d'importance:

Le directeur de la recherche de Google, Peter Norvig, a affirmé que "le Pagerank était une notion sur-médiatisée". Il reste un critére important mais ce n'est pas le seul algorithme qui est utilisé il y en a 199 autres qui sont aussi importants, le Pagerank n'est que l'un d'entre eux.
Les responsables de sites se focalisent beaucoup trop sur cet indicateur, et la manière de l'améliorer. La meilleure voie pour concevoir un site Web consiste à se mettre à la place de l'utilisateur, et ne pas seulement se vocaliser sur le Pagerank. Cet indcateur est modifié environs trois fois par an début janvier, début avril, début juillet, début novembre (pour les pages importantes).
Il a été discuté chez Google de modifier son nom afin de minimiser son importance mais il ne changera pas de nom car c'est un terme qui continue de parler aux référenceurs.

Autre info, la fréquence de crawl des robots sur un site décroit en fonction du PR de la page. Plus la page a un PR important, plus les robots passeront souvent.

L'introduction de la vitesse de chargement des pages:

il ne faut pas non plus donner à ce critère trop d'importance. Mais, c'est une réelle avancée dans la mesure où en mesurant la vitesse de chargement d'une page, nous pouvons nous donner une idée de la facilité d'accès au site. Ce qui n'est qu'un facteur de qualité parmi d'autres.

Cette notion n'affecte que 1% des requêtes,  ce qui correspond environ à 1 million de sites Web.  Il n'en reste pas moins que c'est élément de conception important pour l'utilisateur, et pas seulement pour nous.
 

Concernant l'analyse de contenu:

Sur ce point les algorithmes ont assez peu changé ces derniers temps. Mais, il y a un élément que les robots n'analysent plus du tout. Il s'agit de la balise Meta Keywords. Google a publié récemment une vidéo sur le sujet. Ces balise ne sont plus du tout prises en compte  Les webmasters y intégraient autant de mots clés qu'ils voulaient, ce qui rendait improductif le traitement de ce champ par les robots.

En revanche, Matt Cutts insiste beaucoup sur l'importance des mots clés placés dans le titre de la page, mais également des termes et expressions utilisés dans le nom de domaine et le reste de l'URL des pages d'un site. Le nombre de reprise d'un mot clé dans une page est également important, ainsi que leur proximité.

Pour résumer les recommandation de contenu:
Structure / Ergonomie:

  • Disposer d’une page claire et à valeur ajoutée pour l’internaute.
  • Une page ne doit pas disposer de plus de 100 liens
  • Disposer d’un site valide W3C n’aura aucun impact sur le référencement.

Les Contenus:

  • Il faut veiller à varier les expressions clés (cadres de l’industrie, professionnels de l’industrie, spécialistes de l’industrie)
  • Ne pas surcharger la page avec un même mot-clé pour espérer se positionner sur ce dernier. Plus il y aura d’occurrences pour un même mot-clé sur une page, plus
  • Google n’effectue pas de zoning de page. Chaque zone dispose de la même importance, cependant, les textes qui se répètent sur chaque page comme le footer n’ont pas la même pertinence que du contenu neuf.
  • La place des mots dans les contenus n’a pas d’importance (début / fin de paragraphe), cependant, la proximité des termes clés a une importance pour donner un champ sémantique à l’article.
  • La répétition des liens dans une page dévalue la pertinence de ces liens. Un footer répété sur chaque page a donc peut de chance d’être utile. En revanche, il est donc envisageable d’avoir un footer optimisé en fonction de la page sur laquelle on se trouve.
  • Un lien peut être acheté. "Business is business", mais il faut lui donner l’attribut no-follow

Concernant le nom de domaine et les sous domaines:

  • Eviter les stop words dans les URLs
  • Utilisation des tirets dans les URLs par rapport aux underscores. Le pire est de ne pas avoir d’espace entre les mots.
  • La préférence de Matt Cutts va aux sous-domaines pour qu’ils puissent disposer d’un champ sémantique propre et ne pas canibaliser le domaine principal.

Les Backlinks ou les liens de retour:

Les backlinks doivent être de qualité. Google y attache une importance toute particulière. 10 bons backlincks vaudront mieux que 500 backlincks issus d’annuaires peu pertinents et de pages partenaires ».

Autres informations:

  • Depuis la mise à jour de son moteur, Google travaille à la suppression des pages qui lui semble inutile
  • Si un site reprend des contenus et qu’il dépose un lien en no-follow, cela pourra quand même être utile pour identifier la source.
  • Google lit et exécute du javascript dans certains cas. L’utilisation des liens en javascript pour que ces robots ne puissent voir le contenu commence à être une technique désuète.
  • Une page déclassé pour keyword stuffing (utilisation d’une masse d’occurrence trop importance pour un même mot-clé) ne dessert pas le site entier.
  • Les raccoursisseurs d’URL qui utilisent des redirections 301 transmettent le PageRank.
  • Les liens en Javascript peuvent transmettre du PageRank.
  • Avec la Google Toolbar, le pagerank grisé (PR-1) signifie que Google ne dispose d’aucune information sur cette page. Un lien suffit à lui faire connaître cette page qui passera à un PR 0

Quelles sont les prochaines étapes ?

Les principales évolutions de Google viseront notamment à prendre en compte le Web social. Il s'agira par exemple de proposer des services géolocalisés de type recherche de restaurants à travers lequel l'internaute pourra préciser des critères impliquant une composante sociale : le restaurant situé à proximité proposant le meilleur cheeseburger en fonction des avis laissés par les autres internautes... Google va travailler à enrichir  les pages de résultats en vue de proposer ce type de possibilité, ce qui engendrera naturellement l'apparition de nouvelles techniques de référencement.

L'autre grand changement sera probablement le référencement en temps réel. Si une information est publiée sur un site telle qu'une actualité, typiquement l'évolution du cour d'une action, Google devra être capable de la restituer dans ses résultats dans les quelques secondes ou la minute qui suit.

Google recommande déja aux sites de s'impliquer sur les réseaux sociaux. Une trop faible part d'entre eux sont positionnés sur Twitter ou Facebook. Twitter est un bon moyen de relayer des informations liées à une activité. Grâce à ce levier, 30% de vos visiteurs feront peut-être un copier-coller d'une information, et mentionneront votre activité dans leur twitts. C'est la reprise de ce genre de flux dans les résultats  que cherche à optimiser par le biais de nouvelles possibilités de recherche temps réel.
Sources:

Wikipédia
- Journal du Net
- Le blog de Guillaume Giraudet

recommandationsPageRankgoogleMatt CuttsURLvitesse de chargementanalyse de contenudomaine

Block title