Une refonte de site est l’un des moments les plus dangereux pour le référencement naturel d’une entreprise. Mal anticipée côté SEO, elle peut effacer en quelques semaines des années de travail éditorial. C’est précisément ce scénario que j’ai rencontré en prenant en charge l’accompagnement SEO d’Altays, le SIRH français : un éditeur de logiciels RH reconnu, dont la visibilité organique avait sérieusement décroché suite à une migration technique non maîtrisée.
Ce retour d’expérience est l’occasion de détailler concrètement la méthode que j’applique dans ces situations : quatre audits complémentaires qui permettent de comprendre pourquoi le trafic a chuté, et de construire un plan de remontée solide et priorisé.
Le contexte : une refonte qui a coûté cher en visibilité
La situation d’Altays au moment où j’ai été mandaté n’est pas une exception. C’est même l’une des problématiques les plus fréquentes que je rencontre en mission de conseil : une équipe web qui décide (souvent à juste titre) de refondre son site pour moderniser son image ou améliorer l’expérience utilisateur, mais qui oublie d’intégrer le SEO dans le cahier des charges de migration.
Résultat : des URLs changent sans redirections, des pages disparaissent, la structure de navigation est remaniée sans réflexion sur le maillage interne, et le temps de chargement se dégrade avec le nouveau thème. Google finit par décrocher, et plusieurs mois après la mise en ligne, le trafic ne remonte pas.
C’est dans ce contexte qu’on m’a sollicité pour accompagner Altays, éditeur d’une suite de logiciel SIRH couvrant la gestion des talents, le recrutement, la formation et la GPEC, avec des clients comme la SNCF, ENEDIS ou Auchan dans le portefeuille, mais une présence en ligne qui ne reflétait plus cette légitimité terrain.
Audit technique : corriger les fondations avant tout le reste
L’audit technique est toujours le point de départ. Inutile de travailler le contenu ou les liens si le site présente des problèmes structurels qui empêchent Google de crawler et d’indexer correctement les pages. Dans le cas d’une refonte ratée, les anomalies sont souvent nombreuses et documentées assez rapidement.
Cartographie des erreurs 404 et des redirections manquantes
C’est le premier chantier à traiter. Lors d’une migration, si les anciennes URLs ne redirigent pas en 301 vers leurs équivalents sur le nouveau site, toute la « valeur SEO » accumulée (en termes de backlinks et de signaux historiques) disparaît brutalement. Chaque page qui répond en 404 est une opportunité de trafic perdue.
Les outils à mobiliser ici sont :
- un crawler comme Crawl Genius ou Screaming Frog pour parcourir l’ensemble des URLs comme le font les robots de Google. Le but est de détecter les codes de réponse anormaux, les erreurs de maillage interne, etc…
- croisé avec la Google Search Console pour identifier les pages qui généraient du trafic avant la refonte et qui ne sont plus accessibles. Ce croisement est précieux : on priorise les redirections à mettre en place en fonction de l’importance historique des pages perdues, pas juste de leur existence.
Pour Altays, ce travail a permis de recenser un volume significatif de redirections manquantes sur des pages de solutions et des articles de blog qui avaient accumulé des backlinks externes. Sans ces redirections, les liens pointant vers l’ancien site ne transmettaient plus rien. Pour les redirections qui ont été faites, le maillage interne n’avait pas été mise à jour, résultats, les robots devaient parcourir deux fois plus de pages que nécessaire pour trouver les contenus utiles.
Performance de chargement et Core Web Vitals
Un nouveau thème ou un nouveau CMS s’accompagne souvent d’une régression sur les performances de chargement. Les métriques Core Web Vitals (LCP, INP, CLS) sont désormais des signaux de classement officiels pour Google. Un site qui passe d’un score « bon » à « à améliorer », voir pire, à « lente » perd un avantage concurrentiel réel, surtout sur des marchés compétitifs comme le SIRH.
L’analyse se fait via PageSpeed Insights pour avoir une vision agrégée, mais surtout via les données de terrain disponibles dans Google Search Console (rapport « Expérience de page »). Ce sont les données issues d’utilisateurs réels, et elles sont les seules à compter pour Google.
Les causes les plus fréquentes de régression après une refonte : des images non optimisées (trop lourdes, sans format WebP), du JavaScript bloquant le rendu, des polices chargées sans stratégie de préchargement, et des ressources tierces (chatbots, analytics, pixels marketing) qui ralentissent le critical rendering path.
Indexation, structure et crawl budget
Troisième volet de l’audit technique : vérifier que ce que Google indexe correspond bien à ce que le site veut montrer. Cela passe par l’analyse du fichier robots.txt, des balises meta robots, de la configuration du sitemap XML et de la cohérence de la structure de liens internes.
Un piège classique lors des refontes : des pages importantes passent accidentellement en noindex, ou le nouveau sitemap ne référence que les pages de navigation principale en oubliant les articles de blog et les pages de solutions. Les outils d’analyse de logs serveur sont utiles ici pour comprendre quelles pages Google crawle réellement et à quelle fréquence, une vue que Screaming Frog seul ne peut pas donner.
A lire : SEO technique, crawl et analyse de logs : le guide actionnable
Audit sémantique : ce que Google voit dans vos contenus
Une fois les problèmes techniques identifiés et priorisés, on peut s’attaquer à la couche éditoriale. L’audit sémantique sert à comprendre deux choses : comment performent les contenus existants, et quelles opportunités le site n’exploite pas encore.
Analyse des performances des contenus existants
L’outil central ici est la Google Search Console. On commence par exporter les données de performance sur les 12 derniers mois pour avoir une vue complète des requêtes qui génèrent des impressions et des clics. On cherche notamment :
- Les pages en position 4-20 qui ont un bon volume d’impressions mais un CTR faible (opportunités d’optimisation de titre et de meta description)
- Les requêtes pour lesquelles le site rankait avant la refonte et qui ont décroché (indicateurs directs des dégâts de la migration)
- Les pages qui captent du trafic sur des intentions de recherche différentes de celles pour lesquelles elles ont été rédigées (problème d’alignement contenu/intention)
Pour Altays, cette analyse a révélé plusieurs pages de solutions qui généraient des impressions sur des requêtes informationnelles (du type « comment gérer les entretiens annuels ») alors qu’elles avaient été conçues comme des pages commerciales. Ce décalage entre l’intention de recherche et la nature du contenu pénalise le positionnement.
A lire : Recherche de mots-clés comme un pro dans la Google Search Console
Identification des opportunités de mots-clés manquées
La deuxième phase de l’audit sémantique consiste à cartographier les mots-clés que le site devrait cibler mais ne travaille pas encore. Dans le secteur du SIRH, l’enjeu est particulier : une grande partie des recherches sont des requêtes longue traîne très spécifiques (« logiciel entretien professionnel », « solution GPEC PME », « onboarding RH digital ») qui représentent un volume modeste individuellement mais une masse de trafic qualifié très significative collectivement.
C’est là qu’on applique la logique de la loi de Pareto en SEO : identifier les 20% de mots-clés qui vont générer 80% du trafic qualifié, et concentrer les efforts de création de contenu sur ces priorités plutôt que de disperser les ressources sur des centaines de sujets secondaires.
Audit concurrentiel : comprendre qui vous devance et pourquoi
L’audit concurrentiel SEO n’est pas un benchmark marketing classique. Il ne s’agit pas de comparer les features produit ou le positionnement tarifaire, mais d’analyser pourquoi certains sites se classent mieux que vous sur les mots-clés stratégiques de votre secteur.
Dans le cas d’Altays, le paysage concurrentiel SERP est particulièrement intéressant — et instructif. Sur les requêtes à fort volume autour du SIRH, les premiers résultats ne sont pas toujours les meilleurs éditeurs. On trouve :
- Des comparateurs et sites d’affiliation qui ont investi massivement dans le contenu éditorial et le netlinking, et qui rankent mieux que les éditeurs qu’ils référencent
- Des acteurs internationaux avec des ressources considérables pour la création de contenu et des domaines avec une autorité historique très forte
- Des médias RH qui couvrent le secteur sans être éditeurs eux-mêmes mais qui captent le trafic informationnel
L’analyse concurrentielle consiste donc à disséquer chaque concurrent visible sur les SERPs cibles : quels contenus ont-ils produit, à quelle fréquence, avec quelle profondeur ? Quelle est leur stratégie de maillage interne ? Quel est leur profil de backlinks ? On utilise pour cela des outils comme SEObserver, Semrush ou Ahrefs pour avoir une vision comparative des forces en présence.
Ce travail permet de calibrer le niveau d’effort nécessaire pour conquérir des positions sur chaque thématique. Sur certaines requêtes très compétitives dominées par des comparateurs avec des centaines de backlinks, l’approche raisonnée est parfois de cibler des variantes moins concurrentielles plutôt que de frontaliser des adversaires qui ont 10 ans d’avance.
A lire : Comment faire une analyse de marketing digital complète
Audit de netlinking : évaluer la santé du profil de liens
Le netlinking reste l’un des facteurs de classement les plus déterminants en SEO. Un profil de backlinks solide construit sur la durée est souvent la raison pour laquelle certains sites résistent mieux que d’autres à des mises à jour algorithmiques ou à des refontes ratées. À l’inverse, un profil de liens fragile ou toxique amplifie les dégâts d’une migration.
Inventaire et qualification des backlinks existants
La première étape est un inventaire complet des liens entrants pointant vers le site. On s’intéresse à trois dimensions :
- La qualité des domaines référents : les liens proviennent-ils de sites thématiquement proches, avec une autorité réelle, ou s’agit-il de liens issus de réseaux de bas qualité ?
- La distribution des ancres : les textes d’ancre sont-ils naturels et diversifiés, ou sur-optimisés sur des mots-clés cibles (ce qui peut envoyer un signal de manipulation à Google) ?
- Les liens perdus après la refonte : backlinks qui pointaient vers d’anciennes URLs aujourd’hui en 404 et qui n’ont pas été préservés par des redirections
Pour analyser ces métriques, les outils de référence sont Majestic — avec ses indicateurs Trust Flow et Citation Flow qui permettent d’évaluer à la fois la confiance et le volume de liens — ainsi que Ahrefs ou SEObserver pour croiser les données.
Analyse des opportunités de liens entrants
Au-delà du diagnostic, l’audit de netlinking sert aussi à identifier les opportunités de construction de liens. Dans le secteur SIRH, les leviers les plus accessibles sont souvent :
- Les partenaires, clients et intégrateurs qui peuvent légitimement mentionner l’éditeur sur leur site
- Les médias RH et tech qui couvrent régulièrement le secteur et acceptent des contributions ou des interviews
- Les comparateurs et annuaires spécialisés — souvent ceux qui vous concurrencent sur les SERPs et sur lesquels une présence est indispensable
- Les associations professionnelles et organismes de certification qui référencent les éditeurs du marché
La stratégie de netlinking n’est pas une course aux liens à tout prix. C’est une démarche de légitimation : obtenir des liens depuis des sources qui ont une vraie autorité thématique sur les RH et les logiciels de gestion, et qui vont renforcer la crédibilité du domaine aux yeux de Google.
La mise en place du plan d’action et le suivi mensuel
Quatre audits, c’est beaucoup d’informations. La valeur d’un accompagnement SEO ne réside pas dans la production d’un rapport exhaustif, mais dans la capacité à prioriser les actions selon leur impact potentiel et leur facilité de mise en œuvre. C’est exactement ce que permet une bonne lecture des données dans un dashboard SEO dédié.
La priorisation suit généralement cette logique :
- Corrections techniques urgentes : redirections manquantes, pages importantes en 404, problèmes d’indexation. Ces corrections doivent être faites en priorité absolue — chaque semaine sans redirections est une semaine de signals SEO perdus.
- Optimisation des pages à fort potentiel : pages en position 4-15 sur des mots-clés qualifiés, où un travail d’optimisation ciblé peut générer des gains rapides en clics.
- Création de contenu stratégique : couvrir les opportunités sémantiques identifiées lors de l’audit, en commençant par les sujets à fort volume et faible concurrence.
- Construction de liens : travail de plus long terme, mais qui démarre dès le début de l’accompagnement avec l’identification des partenaires et médias à activer.
Le suivi mensuel est indispensable. Un audit sans accompagnement dans la durée est une photographie sans follow-up. On surveille l’évolution des positions, du trafic et des indicateurs techniques, on ajuste les priorités en fonction des résultats, et on s’assure que les recommandations sont bien implémentées côté client. Sans cette réactivité côté client, même le meilleur plan d’action reste théorique.
Ce que ce type de mission enseigne sur le SEO B2B
Au-delà du cas Altays, ce type de mission illustre un principe fondamental du SEO en environnement B2B : la durée de vie d’une décision technique mal anticipée peut se compter en mois, parfois en années. Une refonte sans préparation SEO n’est pas une erreur anodine, c’est une dette qui se paie en trafic perdu et en conversions manquées.
L’autre enseignement est que le SEO d’un éditeur de logiciels ou d’un acteur B2B ne peut pas se résumer à « produire du contenu ». L’environnement SERP est complexe, dominé par des comparateurs et des médias qui ont des stratégies SEO sophistiquées et des ressources importantes. La victoire passe par une compréhension fine du paysage concurrentiel et une allocation intelligente des efforts, là où le rapport impact/effort est le plus favorable.
C’est ce qu’on appelle appliquer la loi de Pareto au SEO : ne pas chercher à tout gagner, mais identifier les 20% d’actions qui vont produire 80% des résultats.
Les questions que l’ont me pose souvent dans ce cas
Tout dépend de la rapidité à laquelle les corrections techniques (redirections, indexation) sont mises en place. Si les problèmes sont traités rapidement, une première amélioration est souvent visible entre 6 et 12 semaines. Pour une récupération complète du niveau de trafic antérieur, comptez généralement 4 à 8 mois selon l’ampleur des dégâts et la compétitivité du secteur.
Les outils incontournables sont Screaming Frog et/ou Crawl Genius (crawl complet du site et détection des erreurs 404, redirections manquantes, problèmes d’indexation), Google Search Console (identification des pages qui perdent du trafic et des erreurs signalées par Google) et PageSpeed Insights ou Lighthouse pour les performances de chargement. Pour les gros sites, l’analyse de logs serveur apporte une vision complémentaire sur le comportement réel du bot Googlebot.
On commence toujours par les corrections techniques qui bloquent l’indexation : redirections 404, pages importantes en noindex, sitemap incomplet. Ensuite, on travaille les pages déjà positionnées en 4-15 sur des mots-clés à fort potentiel (gains rapides). La création de nouveaux contenus et la construction de liens arrivent en troisième et quatrième priorité. L’objectif est de ne pas disperser les efforts mais de concentrer les ressources là où l’impact sera le plus immédiat.
Non. Un audit seul produit une photographie à un instant T, mais le SEO est un travail dans la durée. Sans suivi mensuel, les recommandations risquent de rester lettre morte ou d’être mal implémentées. Le suivi permet aussi d’ajuster les priorités en fonction de l’évolution des positions, des mises à jour algorithmiques de Google et des actions des concurrents.
L’audit de netlinking analyse l’ensemble des liens entrants (backlinks) pointant vers le site : qualité des domaines référents, distribution des ancres et détection des liens toxiques. Après une refonte, il est crucial car des liens précieux pointent souvent vers d’anciennes URLs qui répondent désormais en 404. Sans redirections, ces liens ne transmettent plus leur valeur SEO. L’audit permet d’identifier ces pertes et de les corriger, mais aussi de cartographier les opportunités de nouveaux liens qualifiés.