Vous voulez réaliser un audit seo d’un site web ? A condition d’avoir les connaissances nécessaires, il est possible de le faire gratuitement, surtout que de nombreux sites internet n’ont pas encore intégré des aspects fondamentaux du référencement. Par où commencer ?

On peut être tenté de se jeter sur les tools d’audit seo automatiques dans penser à des points précis qui ne peuvent être que scrutés manuellement avec un cerveau d’humain 🙂 . Voici pour ma part, les 10 choses que je regarde systématiquement quand je réalise un audit.

1.Vérifier l’état d’indexation du site par les moteurs

Entre le client qui vous annonce 5000 pages et la réalité, il y a parfois un écart considérable. Une simple commande « site:monsite.com » sur google permet de voir le nombre de pages dans l’index et s’il n’y a pas des incohérences ou des fichiers internes à l’entreprise qui sont accessibles via google. Sur des wordpress, on voit très souvent les /category ou /page/ qui polluent le signal du site par exemple. Celà permet de voir aussi des pages qui auraient dû être indexées ne le sont pas.

Pensez à vérifier également l’existence de sous-domaines avec la commande : « site:monsite.com/& » et donc a refaire la manip plus haut avec les sous-domaines découverts.

2.Vérifier la pertinence de son title

Le site vend par exemple des produits de beauté ? Est-ce que sa balise « title » est cohérente par rapport à son marché ? En effet si le titre du site est « Bienvenue sur notre site » (ne riez pas, j’en connais, même de très grosses organisations !), il y aura donc des évidences à corriger. En matière de signal, cette balise est une des plus importante, il faudra donc la soigner pour la repositionner sur le marché visé.

3.Checker ses meilleurs mots clefs VS les mots clefs les plus puissants de son marché

Une fois que vous avez identifié le « terrain de jeu » du site en question, allez sur Google Adwords et regardez quels sont les mots clefs les plus recherchés, ceux en outre sur lesquels il y a des publicités et donc du business. Comparez-les avec les mots clefs qui rapportent le plus de visiteurs sur le site cible (même s’il y a beaucoup de « not provided ») en étudiant une large période pour avoir une idée du signal. A noter que vous avez un peu plus d’infos sur ces mots clefs sur Google Search Console.

Vous avez donc une idée des mots clefs qu’il faut travailler, les pages qui se positionnent et voir quelles optimisations on-site sont pertinentes.

4.Vérifier le nombre de liens et le nombre de domaines référents

On le sait tous, les liens c’est la clef, c’est sans doute l’élément le plus puissant en terme de preuve de popularité aux yeux de Google. Vérifier donc combien de backlinks pointent vers le site en question mais le plus important est le nombre de domaines, notamment la répartition. Les seo débutants ou les agences qui veulent avoir vite des résultats vont s’amuser à utiliser un site partenaire ou faisant parti d’un réseau de sites en mettant un mot clef dans le footer ou sur le côté (sitewide), c’est un très mauvais signal pouvant être assimilé à du spam ou du lien factice. Si l’ensemble des fondations ne tient que grâce à 1 site ou 2 qui détiennent 95 % des liens entrants, il y a des choses à revoir :), pensez également à voir l’etat de « trust » du site avec majestic seo.

5.Vérifier la structure de la page d’accueil

Une fois tout celà étudié, est-ce que la homepage est bien organisée notamment avec le balisage hn : 1 seul h1, des h2, h3 etc… avec une contenu suffisamment dense pour se positionner. Est-ce que le contenu textuel répond aux requêtes ? Celà peut paraitre basique mais je vois trop de fois que ce n’est pas le cas même sur des sites spécialisés dans des niches.

6.Voir s’il n’y a pas de pages qui répondent en erreur

Utilisez un crawler de type Xenu ou Screaming Frog pour voir s’il n’y a pas des pages qui sont en 404 (introuvables) ou autres (503, 500 etc…), celà permet d’améliorer le signal du site, de corriger des erreurs et de voir si le site n’a pas été hacké (j’ai eu le cas de figure avec un petit malin qui faisait du cloaking sur les 404). Profitez-en pour voir s’il n’y a pas des pages parasites de faible qualité éditoriale.

7.Vérifier le fichier robots.txt

Des points bloquants peuvent aussi se retrouver dans le fichiers /robots.txt, notamment suite à sites réglés par défaut. Pensez à mettre en disallow:/ des pages inutiles pour le référencement comme par exemple les /archives/ et /.pdf si vous ne les voulez pas dans l’index.

8.Vérifier s’il y a des contenus dupliqués

Il n’est pas rare que des webmasters feignants ou des stagiaires pondent du contenu de remplissage pour leur site en pompant les textes sur des encyclopédies en ligne ou sur d’autres sites spécialisés. Utilisez des tools comme Killduplicate, Copyscape ou bien en copiant/collant les dits contenus dans google directement pour vérifier que ce n’est pas le cas. En effet du contenu dupliqué est mal perçu par les moteurs qui vont généralement préférer une page donnée et déprécier les autres, vous êtes prévenus.

9.Vérifier l’arborescence et le maillage interne

Des outils comme Gephy ou Cocon.se permettent de visualiser comment les pages sont organisées et linkées entre elles. Celà peut permettre de repopulariser une page stratégique avec une nouvelle arbo, ou bien de faire des liens intext pour remailler le site et faire passer plus de « jus seo ».

10.Vérifier la qualité du contenu

Est-ce que les textes ne sont pas une grosse bouillie qui ne veut rien dire en français ? Autre point : voir si le contenu en question n’est pas trop spammy, c’est à dire est-ce qu’il ne tombe pas dans le « keyword stuffing » ? Est-ce qu’il n’est pas mis dans un footer ? Même si on aime écrire du texte pour les moteurs, le fait de l’organiser tout en l’optimisant pour les moteurs ne sera que bénéfique sur du long terme.

audit référencement

article sur le même sujet : https://www.youtube.com/watch?v=JlXoMbBJF9s

Beetle Seo - blog seo et referencement naturel