Le SEO on-page, le SEO off-page et le SEO technique peuvent être considérés comme les trois piliers du référencement organique.
Référencement technique vs référencement sur page vs référencement hors page
Parmi les trois, le référencement technique est le plus souvent ignoré, très probablement parce qu’il est le plus délicat à maîtriser. Cependant, avec la concurrence dans les résultats de recherche maintenant, nous, les marketeurs, ne pouvons pas nous permettre d’éviter les défis du SEO technique – avoir un site qui est crawlable, rapide et sécurisé n’a jamais été aussi essentiel pour assurer que votre site fonctionne bien et se classe bien dans les moteurs de recherche.
Parce que le SEO technique est un sujet si vaste (et en croissance), cette pièce ne couvrira pas tout ce qui est nécessaire pour un audit SEO technique complet. Cependant, il abordera six aspects fondamentaux du référencement technique que vous devriez examiner pour améliorer les performances de votre site Web et le garder efficace et sain. Une fois que vous aurez couvert ces six bases, vous pourrez passer à des stratégies de référencement technique plus avancées. Mais d’abord…
- Une définition du référencement technique
- Vérifiez que votre site est crawlable
- 2. Vérifiez que votre site est indexable
- Revoir votre sitemap
- Assurez-vous que votre site Web est adapté aux mobiles
- Auditez la vitesse des pages
- Google PageSpeed Insights
- Google Analytics
- Examen du contenu dupliqué
- Gardez votre SEO technique en bonne santé
Une définition du référencement technique
Qu’est-ce que le référencement technique ? Le référencement technique implique des optimisations qui rendent votre site plus efficace à crawler et à indexer afin que Google puisse fournir le bon contenu de votre site aux utilisateurs au bon moment. L’architecture du site, la structure des URL, la façon dont votre site est construit et codé, les redirections, votre sitemap, votre fichier Robots.txt, la livraison d’images, les erreurs du site et de nombreux autres facteurs peuvent affecter la santé de votre SEO technique.
Aujourd’hui, nous allons passer en revue les six premières choses que vous devriez vérifier pour un audit SEO technique rapide.
Vérifiez que votre site est crawlable
Il ne sert à rien d’écrire des pages de grand contenu si les moteurs de recherche ne peuvent pas crawler et indexer ces pages. Par conséquent, vous devez commencer par vérifier votre fichier robots.txt. Ce fichier est le premier point d’appel pour tout logiciel d’exploration du Web lorsqu’il arrive sur votre site. Votre fichier robots.txt indique quelles parties de votre site Web doivent être explorées et lesquelles ne doivent pas l’être. Pour ce faire, il « autorise » ou « interdit » le comportement de certains agents utilisateurs. Le fichier robots.txt est accessible au public et peut être trouvé en ajoutant /robots.txt à la fin de tout domaine racine. Voici un exemple pour le site Hallam.
Nous pouvons voir que Hallam demande à ce que toutes les URLs commençant par /wp-admin (le backend du site) ne soient pas crawlées. En indiquant où ne pas autoriser ces agents utilisateurs, vous économisez la bande passante, les ressources du serveur et votre budget d’exploration. Vous ne voulez pas non plus empêcher les robots des moteurs de recherche d’explorer des parties importantes de votre site Web en les « interdisant » accidentellement. Comme il s’agit du premier fichier qu’un robot voit lorsqu’il explore votre site, il est également préférable de pointer vers votre sitemap.
Vous pouvez modifier et tester votre fichier robots.txt dans l’ancienne Google Search Console.
Ici, vous pouvez saisir n’importe quelle URL du site pour vérifier si elle est crawlable ou s’il y a des erreurs ou des avertissements dans votre fichier robots.txt.
Bien que Google ait fait un travail relativement bon en transférant les aspects les plus importants de l’ancien outil dans la nouvelle Google Search Console, pour de nombreux spécialistes du marketing numérique, la nouvelle version offre toujours moins de fonctionnalités que l’ancienne. Cela est particulièrement pertinent lorsqu’il s’agit de référencement technique. Au moment de la rédaction de cet article, la zone des statistiques de crawl sur l’ancienne console de recherche est toujours consultable et est fondamentale pour comprendre comment votre site est crawlé.
Ce rapport montre trois graphiques principaux avec les données des 90 derniers jours. Les pages explorées par jour, les kilo-octets téléchargés par jour et le temps passé à télécharger une page (en millisecondes) résument tous le taux d’exploration de votre site Web et sa relation avec les robots des moteurs de recherche. Vous souhaitez que votre site Web ait presque toujours un taux d’exploration élevé ; cela signifie que votre site Web est visité régulièrement par les robots des moteurs de recherche et indique un site Web rapide et facile à explorer. La cohérence est le résultat souhaité de ces graphiques. Toute fluctuation importante peut indiquer un HTML défectueux, un contenu périmé ou un fichier robots.txt bloquant trop de choses sur votre site Web. Si votre temps de téléchargement d’une page contient des chiffres très élevés, cela signifie que Googlebot passe trop de temps sur votre site Web à l’explorer et à l’indexer plus lentement.
Vous pouvez voir les erreurs d’exploration dans le rapport de couverture de la nouvelle console de recherche.
Cliquer sur ces derniers permet de mettre en évidence les pages spécifiques avec des problèmes d’exploration. Vous voudrez vous assurer que ces pages ne sont pas des pages importantes pour votre site Web et traiter le problème qui en est à l’origine dès que possible.
Si vous trouvez des erreurs d’exploration significatives ou des fluctuations dans les statistiques d’exploration ou les rapports de couverture, vous pouvez approfondir la question en effectuant une analyse du fichier journal. Accéder aux données brutes des journaux de votre serveur peut être un peu pénible, et l’analyse est très avancée, mais elle peut vous aider à comprendre exactement quelles pages peuvent et ne peuvent pas être crawlées, quelles pages sont prioritaires, les zones de gaspillage du budget de crawl, et les réponses du serveur rencontrées par les bots pendant leur crawl de votre site web.
2. Vérifiez que votre site est indexable
Maintenant que nous avons analysé si Googlebot peut effectivement crawler notre site Web, nous devons comprendre si les pages de notre site sont indexées. Il existe plusieurs façons de le faire. En replongeant dans le rapport de couverture de Google Search Console, nous pouvons examiner l’état de chaque page du site Web.
Dans ce rapport, nous pouvons voir :
- Erreurs : Erreurs de redirection, 404s.
- Valides avec avertissements : Les pages qui sont indexées mais avec des avertissements qui leur sont attachés
- Valide : Les pages qui sont indexées avec succès.
- Exclues : Les pages qui sont exclues de l’indexation et les raisons de cette exclusion, comme les pages avec des redirections ou bloquées par le robots.txt.
Vous pouvez également analyser des URL spécifiques en utilisant l’outil d’inspection des URL. Peut-être voulez-vous vérifier qu’une nouvelle page que vous avez ajoutée est indexée ou dépanner une URL en cas de baisse de trafic sur l’une de vos pages principales.
Un autre bon moyen de vérifier l’indexabilité de votre site web est d’exécuter un crawl. L’un des logiciels de crawl les plus puissants et les plus polyvalents est Screaming Frog. Selon la taille de votre site Web, vous pouvez utiliser la version gratuite qui a une limite de crawl de 500 URL, et des capacités plus limitées ; ou la version payante qui est de 149 £ par an avec aucune limite de crawl, plus de fonctionnalités et des API disponibles.
Une fois que le crawl a été exécuté, vous pouvez voir deux colonnes concernant l’indexation.
Indexabilité : Cela indiquera si l’URL est « indexable » ou « non indexable ». »
Statut d’indexabilité : Ceci indiquera la raison pour laquelle une URL est non-indexable. Par exemple, si elle est canonisée vers une autre URL ou a une balise no-index.
Cet outil est un excellent moyen d’auditer en masse votre site pour comprendre quelles pages sont indexées et apparaîtront donc dans les résultats de recherche et quelles sont celles qui sont non-indexables. Triez les colonnes et recherchez les anomalies ; l’utilisation de l’API Google Analytics est un bon moyen d’identifier les pages importantes dont vous pouvez vérifier l’indexabilité.
Enfin, le moyen le plus simple de vérifier combien de vos pages sont indexées est d’utiliser le paramètre de recherche Google site:domain. Dans la barre de recherche, saisissez site:votredomaine et appuyez sur la touche Entrée. Les résultats de la recherche vous montreront chaque page de votre site Web qui a été indexée par Google. Voici un exemple:
Ici nous voyons que boots.com a environ 95 000 URL indexées. L’utilisation de cette fonction peut vous donner une bonne compréhension du nombre de pages que Google stocke actuellement. Si vous remarquez une grande différence entre le nombre de pages que vous pensez avoir et le nombre de pages indexées, alors cela vaut la peine d’enquêter davantage.
- La version HTTP de votre site est-elle toujours indexée ?
- Avez-vous des pages en double indexées qui devraient être canonisées ?
- De grandes parties de votre site web ne sont pas indexées alors qu’elles devraient l’être ?
En utilisant ces trois techniques, vous pouvez construire une bonne image de la façon dont votre site est indexé par Google et faire des changements en conséquence.
Revoir votre sitemap
L’importance d’un sitemap complet et structuré ne peut être sous-estimée lorsqu’il s’agit de référencement. Votre sitemap XML est une carte de votre site Web pour Google et les autres robots d’exploration des moteurs de recherche. Essentiellement, il aide ces crawlers à trouver et à classer les pages de votre site Web.
Il y a quelques éléments importants à prendre en compte lorsqu’il s’agit d’un sitemap efficace :
- Votre sitemap doit être formaté correctement dans un document XML.
- Il doit suivre le protocole XML sitemap.
- N’incluez que les versions canoniques des URL.
- N’incluez pas les URL « noindex ».
- Incluez toutes les nouvelles pages lorsque vous les mettez à jour ou les créez.
Si vous utilisez le plugin Yoast SEO, il peut créer une sitemap XML pour vous. Si vous utilisez Screaming Frog, leur analyse de sitemap est très détaillée. Vous pouvez voir les URL dans votre sitemap, les URL manquantes et les URL orphelines.
Vérifiez que votre sitemap inclut vos pages les plus importantes, n’inclut pas les pages que vous ne voulez pas que Google indexe, et est structuré correctement. Une fois que vous avez fait tout cela, vous devez soumettre à nouveau votre sitemap à votre Google Search Console.
Assurez-vous que votre site Web est adapté aux mobiles
L’année dernière, Google a annoncé le déploiement de l’indexation mobile-first. Cela signifie qu’au lieu d’utiliser les versions de bureau de la page pour le classement et l’indexation, ils utiliseraient la version mobile de votre page. Il s’agit de suivre l’évolution de l’utilisation du contenu en ligne par les utilisateurs. 52 % du trafic Internet mondial provient désormais d’appareils mobiles, de sorte que s’assurer que votre site Web est adapté aux mobiles est plus important que jamais.
Le test Mobile-Friendly de Google est un outil gratuit que vous pouvez utiliser pour vérifier si votre page est adaptée aux mobiles et facile à utiliser. Saisissez votre domaine, et il vous montrera comment la page est rendue pour les mobiles et indiquera si elle est adaptée aux mobiles.
Il est important de vérifier manuellement votre site web, aussi. Utilisez votre propre téléphone et naviguez sur votre site, en repérant toute erreur le long des principales voies de conversion de votre site. Vérifiez que tous les formulaires de contact, les numéros de téléphone et les pages de service clés fonctionnent correctement. Si vous êtes sur le bureau, faites un clic droit et inspectez la page.
Si vous n’avez pas construit votre site web pour qu’il soit compatible sur mobile, alors vous devez y remédier immédiatement. Beaucoup de vos concurrents l’auront déjà envisagé et plus vous laisserez traîner, plus vous serez en retard. Ne perdez pas de trafic et de conversions potentielles en laissant faire plus longtemps.
Auditez la vitesse des pages
La vitesse des pages est désormais un facteur de classement. Avoir un site rapide, réactif et convivial est le nom du jeu pour Google en 2019.
Vous pouvez évaluer la vitesse de votre site avec toute une série d’outils. Je vais couvrir certains des principaux ici et inclure quelques recommandations.
Google PageSpeed Insights
Google PageSpeed Insights est un autre outil Google puissant et gratuit. Il vous donne un score de « Rapide », « Moyen » ou « Lent » sur mobile et sur desktop, et il inclut des recommandations pour améliorer la vitesse de vos pages.
Testez votre page d’accueil et vos pages principales pour voir où votre site Web présente des lacunes et ce que vous pouvez faire pour améliorer la vitesse de votre site.
Il est important de comprendre que lorsque les spécialistes du marketing numérique parlent de la vitesse des pages, nous ne faisons pas seulement référence à la rapidité de chargement de la page pour une personne, mais aussi à la facilité et à la rapidité avec lesquelles les moteurs de recherche peuvent l’explorer. C’est pourquoi la meilleure pratique consiste à réduire et à regrouper vos fichiers CSS et Javascript. Ne vous contentez pas de vérifier l’aspect de la page à l’œil nu, utilisez des outils en ligne pour analyser complètement le chargement de la page pour les humains et les moteurs de recherche.
Google a un autre outil gratuit pour la vitesse du site se concentrant sur le mobile en particulier, renforçant l’importance de la vitesse du site mobile pour Google. Test My Site de Google vous fournit une analyse approfondie de la façon dont votre site Web pour mobile, y compris:
Comment votre site est rapide sur une connexion 3G et 4G
Il inclura votre vitesse en secondes, la notation, et si elle ralentit ou accélère.
Corrections personnalisées pour les pages individuelles
Possibilité de comparer la vitesse de votre site à celle de jusqu’à 10 concurrents
Plus important, comment vos revenus sont impactés par la vitesse du site
Ceci est vital si vous possédez un site de commerce électronique, car il démontre combien de revenus potentiels vous perdez à cause de la mauvaise vitesse du site mobile et l’impact positif que de petites améliorations peuvent avoir sur vos résultats.
De manière pratique, tout cela peut être résumé dans votre rapport gratuit et facile à comprendre.
Google Analytics
Vous pouvez également utiliser Google Analytics pour voir des diagnostics détaillés sur la façon d’améliorer la vitesse de votre site. La zone de vitesse du site dans Analytics, qui se trouve dans Comportement >Vitesse du site, regorge de données utiles, notamment la façon dont des pages spécifiques se comportent dans différents navigateurs et pays. Vous pouvez vérifier cela par rapport à vos pages vues pour vous assurer que vous donnez la priorité à vos pages les plus importantes.
La vitesse de chargement de vos pages dépend de nombreux facteurs différents. Mais il existe des correctifs courants que vous pouvez examiner une fois que vous avez fait vos recherches, notamment :
- Optimiser vos images
- Fixer le javascript bloqué
- Réduire les requêtes du serveur
- Assurer une mise en cache efficace
- Regardez votre serveur, il doit être rapide
- Envisager d’utiliser un réseau de diffusion de contenu (CDN)
Examen du contenu dupliqué
Enfin, il est temps d’examiner le contenu dupliqué de votre site Web. Comme la plupart des personnes travaillant dans le marketing numérique le savent, le contenu dupliqué est un gros problème pour le référencement. Bien qu’il n’y ait pas de pénalité de Google pour le contenu dupliqué, Google n’aime pas les copies multiples de la même information. Elles ne servent pas à grand-chose à l’utilisateur et Google a du mal à comprendre quelle page classer dans les SERPs – ce qui signifie finalement qu’il est plus susceptible de servir l’une des pages de votre concurrent.
Il existe une vérification rapide que vous pouvez faire en utilisant les paramètres de recherche de Google. Entrez « info:www.your-domain-name.com »
Allez à la dernière page des résultats de la recherche, si vous avez du contenu dupliqué, vous pouvez voir le message suivant:
Si vous avez du contenu dupliqué qui apparaît ici, alors il vaut la peine d’exécuter un crawl en utilisant Screaming Frog. Vous pouvez ensuite trier par titre de page pour voir s’il y a des pages dupliquées sur votre site.
Gardez votre SEO technique en bonne santé
Ce sont vraiment les bases du SEO technique, tout spécialiste du marketing numérique digne de ce nom aura ces fondamentaux qui fonctionnent pour tout site Web qu’il gère. Ce qui est vraiment fascinant, c’est à quel point vous pouvez aller plus loin dans le référencement technique : Cela peut sembler intimidant, mais une fois que vous aurez effectué votre premier audit, vous aurez envie de voir quelles autres améliorations vous pouvez apporter à votre site Web. Ces six étapes constituent un excellent point de départ pour tout spécialiste du marketing numérique désireux de s’assurer que son site Web fonctionne efficacement pour les moteurs de recherche. Plus important encore, elles sont toutes gratuites, alors allez-y, commencez !
À propos de l’auteur
Elliot Haines est un consultant en médias détenus chez Hallam. Elliot a de l’expérience dans la création et l’exécution de stratégies de référencement et de relations publiques numériques pour des clients B2B et B2C, obtenant des résultats dans un éventail d’industries, notamment la finance, l’hôtellerie, les voyages et le secteur de l’énergie.