Le guide du SEO technique : astuces et définitions

Le SEO technique est l’une des 3 branches principales du SEO avec la sémantique et le netlinking. Ce type de SEO, trop souvent négligé, est nécessaire pour tous les types de sites. Là où la sémantique et le netlinking servent bien souvent au développement, le SEO technique permet en quelques sortes de lever les freins qui ralentissent la croissance de votre site.

Ma définition du SEO technique

Le SEO technique concerne tous les aspects qui permettent de faciliter la navigation de Googlebot sur un site et la compréhension qu’il a de ce site. En ce sens, tous les éléments intervenant sur le crawl, les temps de chargement et le balisage rentrent dans le champ du SEO technique. L’objectif du SEO technique est de faciliter le travail de parcours de bots Google et d’analyse de l’algorithme.

L’importance du SEO technique

Comme expliqué précédemment, il n’y a pas de référencement naturel sans technique. Son importance est cruciale car même un site avec les meilleurs contenus n’a aucun intérêt si les internautes ont une mauvaise expérience de navigation et si les crawlers ne peuvent pas le parcourir correctement. Sur des sites avec un gros volume de pages, certaines petites actions techniques peuvent avoir un énorme impact quasi immédiat sur tout le trafic d’un site. A l’inverse des problèmes techniques en apparence mineurs peuvent détruire tous les acquis d’un site.

Les axes d’optimisation en SEO technique

Le SEO technique est le pilier du domaine qui contient le plus de leviers d’optimisation. Sans pouvoir être exhaustif car le versant technique est tellement vaste, j’ai essayé de vous présenter la majorité de ces leviers en les catégorisant dans divers objectifs.

L’optimisation du crawl

Le principal objectif du SEO technique est l’optimisation du crawl. Toutes les optimisations techniques impactent sur le crawl. Que vous optimisez votre code, le poids de vos images, la vitesse de chargement ou supprimez les liens vers les pages non accessibles, chaque action simplifie le parcours de vos pages par Google en réduisant les ressources qu’il doit utiliser pour les visiter.

Le fichier robots.txt

Le robots.txt est un fichier qui permet d’autoriser ou d’interdire l’accès à vos pages aux crawlers. Il s’agit d’un des premiers éléments à vérifier lors d’un audit SEO. Vous pouvez l’utiliser pour envoyer les mêmes indications à tous les crawlers ou définir des indications précises pour chacun. Vous pouvez ajouter des règles pour autoriser ou bloquer une URL ou bien un groupe d’URL. Bien que ce fichier puisse être très utile pour limiter le crawl de pages inutiles, il ne représente pas une solution universelle. Tous les crawlers ne respectent pas les règles du robots.txt et même Google peut parfois être borné et choisir de crawler une page bloquée via le fichier.

Exemple de règles par URLs :

Disallow: /exempleurl1
Allow: /exempleurl2

Ici l’URL https://exempledesite.com/exempleurl1 ne peut pas être crawlée et l’URL https://exempledesite.com/exempleurl2 peut être crawlée.

Exemple de règles par groupe d’URLs :

Disallow: /exempleurl*
Allow: /exempleurl2

Ici toutes les URLs qui commencent par https://exempledesite.com/exempleurl ne peuvent pas être crawlée mais l’URL https://exempledesite.com/exempleurl2 peut être crawlée car elle a une règle d’autorisation dédiée qui passe avant la règle générale.

Le sitemap XML

Le sitemap.xml est une page au format liste qui contient les URLs de votre site. Cette page permet de faciliter le crawl et l’indexation de vos pages. Vous pouvez le soumettre à Google dans la Google Search Console et l’ajouter à votre robots.txt. Cette page est présente nativement sur beaucoup de CMS ou peut être créée facilement. Pour améliorer le crawl cette page doit être optimisée pour ne contenir que vos pages importantes, indexables et accessibles (qui répondent en 200). Pour faciliter la compréhension d’un site aux crawlers, le sitemap peut être découpé en plusieurs sitemap pour réunir les pages d’une même langue ou d’un même type de page (produits, catégories, articles de blog, etc.).

Gestion et redirection des URLs en 404

Google déteste dépenser de l’énergie inutilement et c’est exactement ce qu’il se passe lorsqu’il visite une URL qui renvoie une erreur 404. Les ressources qu’il a utilisées pour visiter cette page qui ne répond pas sont perdues. Il est donc essentiel de traiter les URLs qui renvoient une erreur 404. Pour cela, vous pouvez commencer par supprimer tous les liens internes qui pointent vers cette page. S’il s’agit d’un lot de pages, vous pouvez utiliser le robots.txt pour interdire l’accès au lot de page. Pour vous assurer que Googlebot continue à parcourir votre site lorsqu’il crawle une page en 404, faites une redirection 301 vers une URL qui répond en 200.

Liens internes vers des URLs redirigées (301 ou 302)

Comme expliqué, Google n’aime pas dépenser de l’énergie pour rien. Les liens internes qui pointent vers une URL redirigée font que les crawlers doivent visiter 2 URLs pour consulter une page. Ils visitent l’URL redirigée puis l’URL qui répond en 200. Pour leur éviter ce détour inutile, modifiez vos liens internes pour intégrer directement l’URL qui répond en 200.

Les URLs canoniques

Une URL canonique est l’URL de référence d’une page. Si vous avez deux pages similaires ou très proches, vous pouvez utiliser la balise canonical pour indiquer une URL de référence, qui sera indexée par Google. Cette balise peut être très utile dans plusieurs cas, voici quelques exemples :

  • Vous avez des pages filtres créées à partir de vos catégories et vous ne souhaitez pas les indexer
  • Vous publiez du contenu provenant d’un autre site sur votre propre site
  • Vous utilisez des paramètres pour créer des liens de tracking
  • Vous avez de la pagination que vous ne pouvez pas exploiter en SEO

Pour les URLs qui ne sont pas dans un de ces cas ou dans un autre cas spécifique, on ajoute généralement une balise canonical avec l’URL elle-même.

Voici à quoi ressemble cette balise :

Dans certains cas, Google ignore tout l’URL que vous avez indiquée comme balise canonical et utilise l’URL qui lui semble plus pertinente comme URL canonique.

Les URLs avec paramètres

Les paramètres sont des éléments qui viennent s’ajouter à la fin d’une URL. Ils sont souvent ajoutés aux URLs catégories pour créer des pages filtres. Ces pages sont bien souvent non indexables de base. Elles peuvent toutefois être rendues indexables si elles sont pertinentes pour se positionner sur des mots-clés intéressants. Les paramètres sont aussi utilisés pour créer des URLs de tracking ou pour la pagination. Qu’il s’agisse de pages que vous souhaitez indexer ou non, il faut bien gérer vos pages avec paramètres.

Limitez les liens internes vers les pages que vous ne souhaitez pas indexer et mettez leur version sans paramètres comme balise canonical. A l’inverse, assurez vous que vos pages avec paramètres qui ont un intérêt stratégique soient reçoivent au moins un lien interne et aient une balise canonical qui pointent vers elles mêmes.

La mise en place du fil d’Ariane

Le fil d’Ariane est un élément de maillage interne structurel. Il est surtout utilisé sur les sites de type e-commerce mais également dans les sections blog. Il permet de faciliter la navigation pour les utilisateurs en faisant un lien vers la page de niveau supérieur.

Voici 2 exemples de fil d’Ariane dans le cadre d’un site e-commerce et d’un site informationnel :

Accueil > Catégorie > Sous Catégorie > Nom du produit
Accueil > Catégorie de blog > Titre de l’article

Ajouter un fil d’ariane à un site permet d’assurer d’avoir des liens internes sur toutes les pages et donc de s’assurer que Google puisse facilement crawler toutes les pages du site. Selon votre CMS le fil d’ariane s’ajoute plus ou moins facilement.

Optimiser votre page 404

Même les sites les mieux gérés techniquement n’échappent aux URLs en 404. Pour permettre à Googlebot de continuer à parcourir votre site efficacement quand il rencontre une URL 404, il faut avoir une page optimisée. Pour cela, pensez moteurs de recherche et utilisateur. Ajoutez un texte pour les internautes, afin de leur faciliter la reprise de la navigation et ajoutez des liens vers vos pages les plus importantes. En ajoutant ces liens, vous orientez le crawl de Googlebot vers vos pages stratégiques.

URLs en HTTPS et redirections

Pour sécuriser votre site internet, assurez vous d’avoir un certificat SSL valide. En plus d’améliorer la sécurité, le HTTPS est pris en compte par Google dans son algorithme. Pensez aussi à modifier votre htaccess pour rediriger toutes vos URLs vers la bonne version.

Voici les règles de redirections automatiques à mettre en place pour éviter d’éparpiller son crawl initialement.

http://exemple.com redirige vers https://exemple.com
https://www.exemple.com redirige vers https://exemple.com
http://www.exemple.com redirige vers https://exemple.com

Ces redirections permettent d’éviter que plusieurs URLs proposant le même contenu soit accessible pour les internautes ou les crawlers.

Optimiser la pagination

Dernier point de notre liste sur l’optimisation du crawl, la pagination. Elle est bien souvent peu optimisée de base, peu importe le CMS. Elles sont généralement générées automatiquement et ne sont pas éditables. Leur balise canonical renvoie généralement vers la page 1.

Le risque avec la pagination est que Google ne voit pas d’intérêt à crawler les pages paginées car elles ont le même format que la page d’origine. Pouvoir éditer ces pages permet de les rendre uniques et de potentiellement influencer sur leur taux de crawl. En les personnalisant, certaines peuvent également avoir un intérêt en référencement naturel et être source de trafic selon les thématiques.

Le format de pagination peut être optimisé en utilisant la pagination logarithmique qui permet aux crawlers d’avoir un accès facile à toutes les pages paginées.

La balise Hreflang

Les sites multilingues sont plus compliqués à gérer pour Google, surtout lorsqu’il a une version pour plusieurs pays ayant la même langue. Cela est très fréquent, notamment pour les sites présents ayant une version pour les Etats-Unis et pour l’Angleterre.

La balise Hreflang permet d’indiquer à Google quelle est l’URL qui doit se positionner dans un pays et la langue concernée.

Voici un exemple :

<link rel= »alternate » hreflang= »en-GB » href= »https://exemple.com/uk/article/ »/>
<link rel= »alternate » hreflang= »en-US » href= »https://exemple.com/us/article/ »/>

Dans ce cas de figure, les balises hreflang indiquent clairement à Google quelle est la page destinée à l’Angleterre “en-GB” et laquelle est à destination des USA “en-US”. Utiliser une balise Hreflang permet d’éviter que Google considère 2 pages dans la même langue comme du contenu dupliqué.

Les WebPerf et Core Web Vitals

Les WebPerf réunissent tous les éléments liés au chargement de votre page et au bon affichage des éléments qui la composent. Elles ont un double enjeu, pour la rétention des utilisateurs et pour le crawl des moteurs de recherche. Les Core Web Vitals sont un ensemble de critères liés à la vitesse et l’affichage sur lesquels sont évalués les sites web par Google.

L’optimisation du code HTML

L’optimisation du HTML consiste à éliminer tous les éléments superflus de votre code. Plus une page contient d’éléments, plus elle est longue à parcourir par un crawler. Pour faciliter le crawl de la page mais également sa compréhension par les algorithmes, vous pouvez supprimer tous les éléments inutiles :

  • Balises vides
  • Espaces vides
  • Succession de div
  • Balises en double
  • Appels de classes CSS inexistantes
  • Etc.

Chaque élément inutile supprimé contribue à faciliter le crawl de vos pages.

Suppression du CSS et JS inutilisé

Dans cette logique d’allègement du code, vous pouvez également intervenir sur le CSS et le JS inutilisés. Lorsque l’on utilise un CMS pour son site web et que l’on utilise des plugins, on ajoute souvent des classes CSS à son code. Bien souvent, une grande partie de ces classes CSS ne sont pas utilisées. Lorsque l’on change de format de page, nos fichiers CSS conservent souvent les classes qui ne sont plus utilisées.

Le javascript peut être utilisé pour pas mal de choses. On en ajoute souvent pour faire du tracking sur son site. Lorsque des solutions de tracking ne sont plus utilisées, le code javascript reste présent dans votre code. On retrouve bien souvent du JS qui n’est plus utilisé sur un site qui a de l’âge.

Pour le javascript, plus que pour le HTML ou le CSS, les éléments inutilisés peuvent avoir un énorme impact sur les temps de chargement de vos pages.

Le chargement différé des scripts

Pour réduire l’impact du javascript sur les performances de votre site, vous différer les scripts qui ne sont pas essentiels au fonctionnement de votre page. Pour cela vous pouvez utiliser l’attribut “defer”. Les scripts différés ne seront chargés que lorsque tout le reste de la page aura été chargé. Cette pratique est particulièrement intéressante pour les scripts liés à l’affichage de pubs ou au tracking.

Il est aussi possible de faire en sorte que les scripts soient chargés au clic de l’internaute. Cela permet que certains scripts ne soient pas chargés du tout si le visiteur n’interagit pas avec un élément concerné par le script.

Mise en place d’un CDN

La mise en place d’un CDN (Content Delivery Network) peut permettre d’améliorer l’expérience utilisateur en chargeant les pages plus rapidement. Un CDN est un ensemble de serveurs situés à divers endroits. Son intérêt est que votre site est stocké sur chaque serveur et sera chargé depuis le serveur le plus proche de l’internaute. Le chargement de vos pages sera plus rapide. De nombreux CDN existent dont certains avec une version gratuite comme Cloudflare.

Qualité de l’hébergement

La qualité de votre hébergement a aussi un impact sur les performances et la disponibilité de votre site web. Si vous avez un hébergement mutualisé, les ressources que vous avez à disposition sont partagées avec les autres utilisateurs de votre serveur. Ce type d’hébergement peut correspondre pour un petit site mais sera trop limité pour un site avec un certain nombre de visiteurs quotidiens.

Si vous utilisez plus de ressources que vous n’en avez à disposition, votre site ne sera plus disponible. Cela signifie que les visiteurs et les robots de Google ne pourront accéder à votre site.

Pour éviter d’avoir des problèmes d’accessibilité et assurer une bonne vitesse de chargement, vous pouvez opter pour un serveur dédié.

Les données structurées

Les données structurées sont des morceaux de codes Json principalement utilisés pour faire ressortir certains éléments dans les résultats de recherche. Elles permettent également de faciliter la compréhension globale de votre site internet par Google.

Pour les sites e-commerce

Les données structurées sont surtout intéressantes pour les sites e-commerce. Elles permettent de faire ressortir les notes de vos produits, leur prix et leur disponibilité. Ces éléments ont un impact sur le taux de clic depuis les résultats Google.

Pour les sites informationnels

Sur les sites informationnels, les données structurées de type “FAQ” sont les plus fréquentes. Elles permettent de faire ressortir des questions sous votre page dans les résultats Google.

L’optimisation des images

L’optimisation des images est également un aspect du SEO technique. Bien que ce travail puisse être anecdotique sur certains sites, il est essentiel sur les sites ayant un grand nombre d’images, comme les sites e-commerce.

Le poids et les dimensions

L’axe le plus répandu dans l’optimisation des images est la réduction des poids et le redimensionnement. Plus une image est lourde, plus il faudra de ressources pour la charger et plus la page sera longue à charger. Vous pouvez compresser une image pour réduire son poids. Pour conserver une bonne qualité d’image, il existe des solutions de compression sans perte de qualité.

Avoir des images aux bonnes dimensions permet d’éviter un redimensionnement côté navigateur lors du chargement de la page. Vous pouvez facilement redimensionner vos images via Canva, Photoshop ou même via des outils en ligne.

Le format

Depuis plusieurs années, Google recommande l’utilisation du format WebP, qui permet de réduire le poids des images tout en conservant leur qualité. Si vous ne pouvez pas utiliser de WebP, préférez le format Jpg au PNG.

Le balisage

L’optimisation des images ne passe pas que par le format, le poids et les dimensions mais également par le balisage HTML. L’attribut “alt” qui s’ajoute aux balises permet de donner une brève description du contenu de l’image. Cette description est notamment un des critères de positionnement dans Google Image.

Les attributs « width » et « height » servent à indiquer les dimensions de l’image aux moteurs de recherche. Ils s’ajoutent également aux balises .

La version mobile et le responsive

La majorité des recherches Google sont faites sur mobile. L’optimisation d’un site web pour les téléphones est donc essentielle. Pour se faire, votre site doit être responsive et avoir une version bien adaptée aux dimensions mobiles.

Une des problématiques fréquentes que l’on rencontre souvent est la duplication d’éléments dans le code HTML. Il y a des éléments spécifiques aux pages desktop et d’autres aux pages téléphone. Le menu de navigation est l’un des éléments les plus dupliqués.

Autre problématique fréquente des versions mobiles : les temps de chargement. Les sites sont bien souvent pensés desktop en premier lieu puis adaptés au mobile. Cela résulte sur une optimisation limitée pour le mobile. Les images sont par exemple souvent redimensionnées pour desktop mais pas pour la version mobile.

Pour réduire les temps de chargement des versions mobiles, Google a mis en place AMP (Accelerated Mobile Pages). Il s’agit d’un format de publication qui permet de servir une page rapidement sur téléphone. Adapter son site pour ce format fait aussi partie des actions à mettre en place pour optimiser son site.

Les outils pour analyser les aspects techniques

L’analyse technique en SEO passe par l’utilisation d’outils. Le principal type d’outil d’analyse technique est le crawler. Il s’agit d’un robot qui parcourt un site internet, comme pourraient le faire les robots de Google ou des autres moteurs de recherche. Le crawler le plus utilisé pour des analyses techniques poussées est Screaming Frog. Cet outil permet de relever la plupart des problématiques techniques et de recueillir des données à analyser sur une grande partie des aspects évoqués plus haut.

D’autres outils comme le PageSpeed Insights de Google, GT Metrix et Dareboost sont centrés sur l’analyse de la vitesse de chargement et des éléments qui influent dessus.

Des outils comme OnCrawl, Screaming Frog SEO Log File Analyser et SEOlyzer permettent de réaliser de l’analyse de logs. Cette pratique permet de voir en détail comment les bots Google se déplacent sur votre site et pour quelles pages il a de l’appétence. Analyser les logs est une pratique avancée, essentielle pour les sites avec beaucoup de pages.

Faites des audits techniques réguliers

Ne rechignez pas sur les audits SEO techniques, faites-en régulièrement ! Qu’il s’agisse de votre site personnel ou le site d’un de vos clients, il peut y avoir des changements techniques que vous n’avez pas prévu.

Pour la plupart des clients, le travail des développeurs est souvent aussi obscur que celui des SEO. Ils ne sont pas toujours au courant d’une mise en prod à venir et encore moins des impacts qu’elle peut avoir sur le SEO. Il est aussi possible que les développeurs web de vos clients estiment qu’il est inutile de vous prévenir pour une simple mise en prod.

Changements des balises title, ajout d’URLs avec paramètres, remplacement du robots.txt par la version de base du CMS, ajout d’un repository dans l’URL : De nombreux problèmes peuvent émerger après une mise en prod non communiquée.

Les modifications issues d’un changement de version de votre CMS ou de votre thème peuvent aussi être source de modifications techniques. Lancer un crawl dès qu’il y a une mise à jour de votre CMS est un bon réflexe à avoir. L’ajout d’un plugin peut aussi avoir un impact non identifié sur le fonctionnement technique de votre site.

Pour pouvoir réagir rapidement en cas de changement technique, l’idéal est de faire un crawl par semaine ou au moins toutes les deux semaines. Si vous voyez des éléments étranges émerger sur votre Google Search Console, comme une évolution des pages crawlées mais non indexées, des pages indexées, des URLs en 404, n’hésitez pas à auditer votre site directement.

Retour en haut