S'obtenir des backlinks artificiels
L'erreur consiste à aller "poser" des liens un peu partout sur des sites dont l'objectif est d'offrir des liens aux SEO (annuaires, sites de soit-disant communiqués de presse, etc.). Avec ces liens, vous augmentez vos risques de "pénalité algorithmique" (Google Penguin, sorti en 2012 et toujours en cours) et même de pénalité manuelle. A priori c'est une histoire de proportion : si vous dépassez un certain seuil (de mauvais liens parmi l'ensemble de votre profil de liens entrants), la pénalité arrive. A la place, publiez des contenus de haute qualité et faites-en la promo (réseaux sociaux, mailings, partenariats, articles invités) afin d'obtenir des liens de qualité. Au passage, ce n'est pas idiot de surveiller régulièrement vos backlinks (dans Search Console ou plus sérieusement dans des outils tels que Ahrefs, Majestic ou Moz).
Avoir des contenus dupliqués internes
L'erreur consiste à ne pas surveiller son site sur le plan technique et laisser le CMSgénérer plein de contenus dupliqués. Il y a plein de cas possibles, à vous de les passer en revue ! Voici 12 exemples (tirés de mon dossier spécial contenus dupliqués) :
- Indexer son site avec et sans www
- Avoir 2 URL pour sa page d'accueil
- Avoir 2 URL pour la page 1 (pagination)
- Avoir 2 types d'URL indexables (réécrites et classiques)
- Ne pas toujours passer les paramètres d'URL dans le même ordre
- Inclure seulement parfois des paramètres dans les URL
- Indexer la version imprimable
- Indexer la version PDF
- Inclure la catégorie dans l'URL d'une fiche produit ou d'un article
- Avoir plusieurs noms de domaine indexés pour un même site
- Faire indexer le site en HTTP et en HTTPS
- Faire indexer en desktop des URL du site mobile
Pour les détecter, à part l'analyse manuelle des points précédents, vous pouvez regarder le rapport « Améliorations HTML » situé dans la rubrique « Apparence dans les résultats de recherche » de votre compte Google Search Console. Pour aller bien plus loin dans la détection et la facilité de résolution des problèmes, faites un audit en ligne RM Tech de votre site (disclaimer : il s'agit de mon outil). Le rapport d'audit vous listera de très nombreux conseils, notamment la liste des pages ayant une balise title ou meta description en doublon, ainsi que les pages dont le contenu est 100% dupliqué.
Faire indexer trop de pages à faible contenu
La course au maximum de pages indexées est une technique du passé ! Aujourd'hui, il faut des pages qui répondent le mieux possible à la demande de l'internaute. Plus vous décevez l'internaute, plus vous augmentez vos risques de pénalité avec l'algorithme Google Panda. Pour repérer les pages de trop faible qualité, vous devez combiner plusieurs analyses. Pour n'en citer que 2, regardez dans Google Analytics (par exemple les pages à fort taux de rebond, avec le paramétrage du taux de rebond ajusté si votre site est éditorial, ou les pages trop lentes à charger) et dans RM Tech (l'outil vous liste les pages ayant sans doute un contenu trop faible).
Ne pas avoir de version mobile
Vous ne devez pas justifier l'absence de version mobile sur votre site sous prétexte qu'actuellement il y a peu de monde qui consulte le site sur mobile ! C'est peut-être bien précisément car il n'y a pas de version mobile... Et puis Google incite tellement à passer au mobile qu'ils ont décidé de favoriser (sur mobile) les pages compatibles mobiles. Pour l'instant l'impact est faible, mais il pourrait certainement augmenter. Suivez les conseils de Google et testez vos pages avec cet outil.
Avoir des pages trop lentes
Que vous ayez une boutique en ligne ou un site éditorial, aucun internaute n'apprécie les pages qui mettent trop de temps à se charger. Plus le temps de chargement augmente, plus le taux de conversion s'écroule... et plus vous prenez de risques que Google finisse par pénaliser votre site en termes de référencement. En effet, il s'agit d'un critère officiel depuis 2010. Pour vous aider à identifier les problèmes, suivez les recommandations de Google et testez vos pages avec son outil PageSpeed Insights. Pour avoir des conseils plus détaillés et en français, utilisezDareboost, un outil français très pratique. En plus du temps de chargement (qui concerne les internautes), n'oubliez pas d'optimiser le temps de téléchargement de vos pages (brutes) pour Googlebot. Google Search Console fournit le temps moyen journalier de téléchargement des pages (rapport "Statistiques sur l'exploration" de la rubrique "Exploration"). Pour identifier quelles pages sont vraiment trop lentes, consultez le rapport d'audit RM Tech.
Miser sur le bourrage de mots-clés
Un peu comme vos backlinks qui ne doivent plus être artificiels, vos textes doivent être bien rédigés, adaptés à une lecture web agréable et bien lisible pour l'internaute. Il est totalement inefficace (et même risqué) de faire du bourrage de mots-clés (oubliez définitivement les histoires d'indices de densité). D'ailleurs, Google développe de plus en plus d'algorithmes visant à mieux comprendre les contenus. On est passé d'une analyse des mots à une analyse des entités, d'où l'intérêt d'aborder dans vos contenus les bons mots, les bonnes expressions et entités associées à votre sujet. Misez dès maintenant sur l'ajout de données structurées (référentiel schema.org) ! Google a également bien progressé dans la compréhension de la requête de l'internaute, y compris les recherches vocales sur mobile. Je peux citer par exemple l'algo Hummingbird sorti en 2013 etRankBrain sorti début 2015 (mais révélé en octobre).
Olivier Duffez est consultant en référencement (WebRankExpert), créateur de WebRankInfo et Ranking Metrics. Il est depuis novembre 2015 chroniqueur pour le Monde Informatique sur cette thématique. Accéder au blog Le Monde su SEO d'Olivier Duffez à cette adresse.