Le SEO (search engine optimization) regroupe un ensemble d'actions que nous pouvons mettre en œuvre pour améliorer la visibilité d'un site sur un moteur de recherche. Parmi les leviers actionnables, les 3 principaux qui se devaient d'être réunis étaient :
- Aucune erreur technique sur le site afin que les moteurs puissent y naviguer facilement ;
- Un contenu minimal afin que le moteur puisse vaguement comprendre quelle était la thématique de votre site ;
- Des liens afin de faire valoir aux moteurs que votre site était cité de partout, et donc, qu'il était populaire.
Les 2e et 3e leviers ont malheureusement fait l'objet d'un travail si intense de la part des référenceurs (netlinking notamment) qu'il a rapidement montré ses limites tant il était facile de le manipuler. Les abus ont été tels que les résultats de recherche étaient devenus « n'importe quoi »avec parfois des sites factices devant des sites de marques… Chacun sait ce qu'il est advenu, Panda, Penguin, et autres sanctions en tous genres pour tenter de casser ce travail de « manipulation » des résultats. Mais en parallèle de ce travail de nettoyage indispensable de la part de Google, pour donner une apparence de qualité à ses résultats, sont apparues quelques idées moins avouables de la part du moteur :
Si nous profitions de notre moteur pour étudier le comportement des internautes ? Nous avons là le plus énorme panel d'utilisateurs de la planète sur toutes les thématiques et nous n'avons même pas besoin de les rémunérer. En effet, les datas sont une chose, mais leur interprétation grâce à l'immense échelle de Google vaut de l'or, bien plus que les datas elles-mêmes !
Voyons comment cela pourrait se passer
Un internaute tape une requête. Mais comme il est fainéant, ce sera 2 ou 3 mots seulement. Par contre, il a un historique de recherche. Le moteur connaît aussi les sites qu'il a visités auparavant, ceux où il est resté, les pages qu'il est ensuite allé voir en cliquant sur les liens du site, mais aussi les sites dont il s'est enfui. Ceci particulièrement si le « si pratique » Chrome a été utilisé pour cette navigation… Derrière, un peu d'analyse du contexte des sites visités (textes, liens suivis ou pas, etc.) et Google peut alors modifier la requête de l'internaute, à son insu, pour lui fournir un résultat de recherche personnalisé. Cela revient à dire que la page de résultats ne correspond pas stricto sensu à ce que l'internaute a tapé, mais plutôt à ce qu'il cherche, selon Google. Et plus ça va, plus Google gagne en précision…
Du même coup, les pages doivent être optimisées sur ce que l'internaute cherche et pas sur ce qu'il tape. Cela change toute l'approche que nos devons avoir pour nos contenus. Cette optimisation doit être basée sur l'intention explicite pressentie… Du coup, ce n'est plus la page avec une tonne de contenu qui gagnera, mais celle qui collera le mieux à la reformulation de Google. Nous nous sommes rendu compte de cela dès les premiers travaux de R&D sur les metamots il y a maintenant 5 ans. Cela n'a fait que s'étendre et se développer depuis lors.
La finalité de tous ces changements
Vous avez beau être passionné par votre sujet, être un rédacteur émérite, véritable expert de votre domaine, savoir écrire correctement en vrai français, si vous n'avez pas placé certains termes précis ensemble dans votre contenu, Google n'aura pas assez d'indices pour qualifier votre page comme parmi les pages les plus pertinentes… Cette forme de sémantique de l'intention « vue par Google » tue la sémantique de l'expert qui connaît pourtant bien son sujet…
La sémantique de l'intention s'est aussi étendue aux liens eux-mêmes. Ceci est particulièrement remarquable en maillage interne : Google doit pouvoir prédire ce que l'internaute trouvera derrière le lien, sans quoi ledit lien ne vaut presque rien… Les metamots tentent de reconstituer cette sémantique si particulière. Beaucoup d'incompréhension sur les mouvements des résultats de recherche de Google a pour origine ce qui précède. Un vrai changement de paradigme dans nos approches est donc nécessaire.