La cause la plus fréquente d’une baisse soudaine du trafic sur le site Web est une mise à jour récente de l’algorithme de recherche. Les pénalités, les redirections, les règles incorrectes relatives au fichier robots.txt et les pertes de classement sont autant d’autres raisons légitimes de voir une baisse du trafic sur le site Web.
Heureusement, dans la plupart des cas, si vous êtes affecté par une baisse soudaine du trafic, vous pouvez vérifier plusieurs choses en plus de ce que j’ai mentionné ci-dessus. Espérons qu’à la fin, vous pourrez diagnostiquer pourquoi les choses ont pu changer.
Voici 11 points sur lesquels j’aimerais vérifier si je remarque qu’un site enregistre une baisse du nombre de visites mensuelles ou une baisse soudaine du trafic:
- Mises à jour de l’algorithme
- Suivi des erreurs
- Règles Robots.txt
- Redirections
- Erreurs d’exploration
- Pertes de classement
- Changements de sitemap XML
- Pénalités manuelles
- Désindexation
- Cannibalisation
- Changements de mise en page SERP
1. Mises à jour de l’algorithme
Google ne cache pas le fait qu’il publie plusieurs mises à jour au cours de l’année, certaines plus importantes que d’autres. Malheureusement, essayer d’obtenir des détails concrets sur les changements est franchement un peu comme essayer d’obtenir du sang d’une pierre.
Cependant, un moyen simple de déterminer si une mise à jour d’algorithme a pu avoir une incidence sur votre site consiste à surveiller de près les modifications confirmées de Google.
Le moyen le plus simple d’obtenir des informations sur les modifications d’algorithmes consiste à utiliser des outils tels que Mozcast – de Moz.com et le capteur SEMrush de SEMrush. Si aucun de ceux-ci ne vous tente, Algoroo est un autre outil de suivi d’algorithme disponible gratuitement.
Si vous constatez qu’il y a eu une mise à jour récente, je vous recommande fortement de passer un peu de temps à analyser les sites les plus touchés. Essayez de repérer toute corrélation entre eux et assurez-vous que votre site ne subit pas le même sort.
2. Erreurs de suivi
Encore aujourd’hui, je suis étonnée du nombre de webmasters et de propriétaires de sites qui parviennent à retirer leurs codes de suivi du site et se demandent pourquoi le trafic chute.
Heureusement, c’est une erreur qui peut être facilement corrigée, mais à long terme, vous manquerez de données. Plus vous repérez vite cette information et plus vous la triez, mieux c’est!
Si vous remarquez que soudainement aucune session n’est enregistrée dans Google Analytics ou qu’une balise ne se déclenche pas, il est probable que les codes de suivi comportent une erreur ou aient été entièrement supprimés. Si vous y avez accès, vérifiez que le code est présent et correct.
Sinon, contactez vos développeurs et confirmez que le code de suivi est là où il doit être et fonctionne.
3. Règles robots.txt incorrectes
Êtes-vous sûr que votre site n’empêche pas les moteurs de recherche d’explorer le fichier robots.txt?
Il n’est pas rare que les développeurs laissent leurs fichiers robots.txt inchangés après avoir migré depuis un site Web de développement ou de transfert. La plupart du temps, lorsque cela se produit, c’est complètement accidentel.
Accédez au fichier robots.txt de votre site et assurez-vous que la règle suivante n’est pas présente:
Si tel est le cas, vous devrez supprimer la règle Disallow et réenvoyer votre fichier robots.txt via la Search Console Google et le testeur robots.txt.
Cet article peut vous intéresser : 3 techniques de référencement pour aider votre site à se positionner
4. Erreurs de redirection
La plupart des sites, en particulier les grands sites Web, auront des redirections en place. Ils sont le plus souvent ajoutés via un fichier .htaccess, ou si vous utilisez WordPress, un plugin pour vous simplifier la vie.
Lorsque vous ajoutez une nouvelle redirection permanente (301) sur votre site, il est vivement recommandé de la tester avant de la transférer dans un environnement en direct, à plus forte raison si vous ajoutez de grandes quantités de redirections.
Pour être sûr que les redirections fonctionnent toujours comme prévu, j’utilise simplement un robot d’indexation Web (ma préférence est Screaming Frog) et j’utilise le mode liste (Mode> Liste) pour coller ma liste d’URL redirigées et les analyser, puis analysez les codes de réponse et les destinations finales:
5. Erreurs d’exploration
À l’aide de la nouvelle console de recherche, ouvrez le rapport de couverture d’index et recherchez les URL comportant une erreur.
Les URL du rapport de couverture ayant une erreur associée ne seront pas incluses dans l’index. Les erreurs typiques trouvées dans ce rapport incluent:
- Erreurs de serveur
- Erreurs de redirection
- URL bloquées par le fichier robots.txt
- URL marquées d’une balise noindex
- Erreurs 404
- URL qui renvoient une demande non autorisée
- URL qui ne peuvent pas être localisées (404s)
- Erreurs d’exploration
Plus d’informations sur ces rapports sont disponibles ici.
6. Pertes de classement
Une autre raison très courante de voir le trafic diminuer sur le site Web est due à une perte de classement organique.
Désormais, si vous suivez vos performances à l’aide d’un tracker de classement, le dépannage sera beaucoup plus facile. Sinon, utiliser les données de la console de recherche sera votre meilleur choix.
J’utilise le processus suivant pour avoir une idée de tout changement de classement:
- À l’aide de Google Analytics et de la Search Console ou de votre outil de suivi du classement préféré (j’aime AccuRanker), identifiez le moment où le trafic a commencé à chuter.
- Exportation des mots-clés de classement avant et après la chute
- Utiliser Excel ou G Sheets pour créer un tableau et coller les données côte à côte
- Comparer le changement de position
- Retargeter les termes supprimés avec la recherche de mots clés et la cartographie
Exemple de feuille de calcul de comparaison de perte de classement
Alternativement, des outils tels que SISTRIX sont également très utiles pour aider à identifier les mots-clés qui ont été supprimés de la première page, voire des 100 meilleurs résultats.
Voici quelques techniques de référencement pour aider votre site à se classer, si vous souhaitez en savoir un peu plus sur le sujet.
7. Modifications du Sitemap XML
Si vous êtes un SEO, vous saurez (espérons-le) que seules les URL qui renvoient une réponse 200 et qui sont indexables doivent être visibles dans vos sitemaps, à moins que vous n’ayez délibérément laissé des URL redirigées afin que les moteurs de recherche les trouvent plus rapidement.
Une des raisons pour lesquelles vous pourriez voir un trafic en chute libre est un changement dans votre sitemap XML.
Analysez les URL de votre sitemap et assurez-vous qu’elles renvoient toutes une réponse 200 OK et que toutes les nouvelles pages de renvoi ou les nouveaux articles sont également inclus. Si votre site contient 200 URL et qu’il n’y en a que 50 dans le Sitemap, il faudra le régénérer et le renvoyer à l’aide de la Google Search Console.
8. Actions manuelles et pénalités
Une action manuelle sera lancée contre votre site si l’un des relecteurs humains aux yeux d’aigle trouve que le contenu du site va à l’encontre des consignes de Google. Vous pouvez trouver plus d’informations sur les directives de leur webmaster ici.
Vous pouvez voir si votre site a été affecté par des actions manuelles à l’aide du rapport sur les actions manuelles dans la Search Console (exemple ci-dessus).
9. URL en cours de désindexation
Google a récemment tweeté au sujet d’un bogue signalé de «désindexation» qui faisait que les sites voient que des pages importantes semblent avoir été supprimées de l’index presque du jour au lendemain. Mais ce n’est pas un problème récent.
La découverte de ces URL importantes n’étant plus disponibles dans les résultats de la recherche peut s’avérer un facteur important pour enquêter sur une perte soudaine de trafic sur le site Web.
Recherchez les erreurs éventuelles dans le rapport de couverture d’index de la console de recherche.
À l’aide de l’outil d’inspection d’URL, vérifiez que les pages importantes sont toujours dans l’index.
Sinon, utilisez l’option ‘REQUEST INDEXING’ dans Search Console.
10. cannibalisation de mot-clé
Si vous avez récemment créé beaucoup de nouveaux contenus sur un sujet spécifique sans tenir compte du ciblage par mots clés, vous avez peut-être été victime d’un problème de cannibalisation de mots clés.
La cannibalisation se produit lorsqu’un site web apparaît pour un mot clé avec plusieurs URL. Par exemple, Ahrefs.com a beaucoup de contenu sur la création de liens cassés.
Si le trafic est réparti sur plusieurs pages ou plusieurs publications, vous risquez de perdre un trafic organique précieux. Le moyen le plus simple que j’ai trouvé de mettre en évidence les erreurs de cannibalisation a été d’utiliser BigMetrics.io et le rapport de cannibalisation.
Créez simplement un compte (version d’évaluation ou payante) et connectez-le à votre Search Console puis exportez-le.
11. Modifications de la mise en page du SERP
Un changement récent dans la manière dont Google et les moteurs de recherche affichent des résultats organiques peut avoir une incidence sur votre trafic. Donc, assurez-vous que vous êtes adaptable et disposé à apporter des changements ira un long chemin.
Google, en particulier, a apporté plusieurs modifications quant à l’affichage des résultats. Désormais les résultats de Google affichent des extraits de concours et des featured snipets et des annonces googles ads de manière plus importantes (proéminente même) pour en nommer quelques-uns, rendant la vie des agences SEO et des professionnels très frustrante.
En faisant une recherche sur Google, vous verrez qu’avant de voir le moindre résultat organique, vous devez concurrencer les annonces, les featured snipet, et les suggestions de Google. Cela ne prend même pas en compte un certain nombre d’autres fonctionnalités de SERP.
Analysez les mots-clés que vous ciblez; le simple fait qu’ils n’aient pas déclenché une fonctionnalité SERP ne signifie pas qu’ils ne le font pas maintenant. Le vérificateur SERP d’AccuRanker est idéal pour cela.
Si les mots clés que vous ciblez déclenchent des extraits de code et des réponses instantanées, et que vous n’êtes pas cet extrait de code, vous perdrez des clics et du trafic sur votre site.
Pour résumer
Voir la baisse du trafic sur votre site Web peut être très décourageant, mais il y a toujours une raison à cela, et s’il y a une raison, cela peut généralement être corrigé.
Pour résumer cet article, il se peut qu’un déclin soudain soit dû à un certain nombre de raisons combinées, voire à une seule page clé riche en trafic qui est tombée de l’index.
Assurez-vous d’enquêter sur toutes les solutions possibles et vous en découvrirez rapidement la cause et mettrez en place un plan de redressement efficace.