Kevin Richard est co-fondateur de SEObserver, l’un des outils SEO francophones les plus utilisés par les consultants et agences depuis plus de 12 ans. Dans cet épisode du Wizard Podcast, il livre sans filtre ses convictions sur les facteurs de ranking en 2025, la stratégie de backlinks, le personal branding, l’IA et la philosophie business derrière un SaaS qui dure. Voici une synthèse exhaustive de tous les conseils qu’il distille tout au long de la conversation.
La genèse de SEObserver : un outil né d’un besoin réel
En 2013, Kevin travaille comme consultant SEO et cherche un outil capable de combiner suivi de rankings et analyse de backlinks dans une seule interface. Aucun outil du marché ne le fait encore — Ahrefs et Semrush n’ont pas encore pivoté sur l’offre tout-en-un. Il code alors SEObserver pour son propre usage, surveille 50 000 mots-clés « cœur de web », et réalise la valeur de la donnée quand il repère le site d’un collègue remonter sur « assurance bateau » sans que ce dernier ne le sache.
La leçon business de cette genèse est claire selon Kevin : construire un outil pour résoudre son propre problème, puis le commercialiser. Il n’avait pas de stratégie de lancement élaborée, pas de programme d’affiliation, juste une notoriété construite sur la scène SEO française via des conférences techniques.
Je l’avais d’ailleurs rencontré à un mini event SEO à Chambery vers 2014 si je me souviens bien, ça commence à dater ! J’avais bien aimé notre échange et continué de suivre Kévin sur ses publications et fût rapidement un client de SEObserver par la suite.
Les facteurs de ranking en 2025 selon Kevin Richard
C’est le cœur de l’épisode. Kevin distingue deux phases dans le ranking : entrer dans le top 10, puis s’y maintenir. Ses convictions sont tranchées.
Le trafic et le comportement utilisateur : le signal le plus puissant
Kevin cite l’exemple d’un ami vendant du matériel pour digital nomades : le site remonte sur de beaux mots-clés sans aucun travail SEO ni backlink, uniquement grâce au trafic généré par ses campagnes publicitaires. Pour lui, c’est la preuve que Google observe intensément les comportements utilisateurs — et que le trafic, quelle que soit sa source, envoie un signal fort. Quand on veut artificiellement faire monter un site, on cible d’ailleurs systématiquement les navigateurs Chrome, pas Firefox.
Il va plus loin en affirmant que le retour récurrent des utilisateurs sur un site est probablement le signal le plus puissant qu’on puisse envoyer à Google. Ce n’est pas vérifiable de façon industrielle, mais il « a envie d’y croire » sur la base de ce qu’il observe dans les données de SEObserver. Ce signal est toutefois niche-dépendant : il ne s’applique pas aux achats uniques (cheminée, voiture, maison).
Le contenu : pertinence avant optimisation sémantique
Kevin ne croit pas aux ratios de densité de mots-clés. Sa conviction fondamentale : la vraie question n’est pas « est-ce que mon contenu est IA ou humain », c’est « est-ce que mon contenu est bon ». Un de ses sites passifs les plus performants est basé sur un simple tableau (horaires, prix) sans aucun texte — pourtant il ranke très bien parce qu’il apporte une information unique et régulièrement mise à jour.
Sa stratégie de contenu repose sur une question centrale : comment puis-je avoir le contenu que les autres n’auront pas ? Quelques exemples qu’il cite : des vraies photos exclusives dans la niche voyage, des données scrappées uniques (exemple black hat pre-RGPD à ne pas reproduire), un tableau mis à jour automatiquement chaque jour. L’idée est toujours de créer une « distance » maximale avec les concurrents sur la SERP.
Sur l’optimisation sémantique, il rejoint les frères Péronnez (Yoast Guru) : la suroptimisation est contre-productive. Le mot-clé principal doit être présent dans le title et le H1 — c’est 80 % du travail. Le reste doit être rédigé naturellement, avec le champ lexical de la thématique, sans forcer les répétitions.
L’interaction utilisateur : un levier sous-exploité
Kevin insiste sur l’interactivité comme moyen de se différencier sur une SERP. Plutôt qu’un article long et soporifique, il préfère intégrer des éléments interactifs (quiz, configurateur, tableau dynamique) qui engagent l’utilisateur et génèrent des signaux comportementaux positifs. L’IA facilite aujourd’hui la création de ces micro-outils interactifs directement dans une page.
Les backlinks : toujours indispensables, mais à analyser avec précision
Les backlinks restent un classique incontournable. L’ami digital nomade a consolidé ses positions top 3 avec une simple campagne de liens. Mais Kevin apporte des nuances importantes sur la qualité des liens :
L’indicateur n°1 qu’il regarde (bien que difficile à obtenir industriellement) : est-ce que ce site a déjà envoyé de la « force » à un autre site dans la même thématique, avec un résultat visible sur les rankings ? C’est le signal le plus précieux.
Entre trois types de sites pour acheter un lien (50 RD / zéro trafic / bonne indexation ; peu de RD / beau TF/CF ; peu de RD / TF bas mais trafic), il penche pour le premier par logique de diversification du risque. Un site dont la force repose sur 3 liens peut s’effondrer si l’un d’eux disparaît. Le zéro trafic n’est pas rédhibitoire en soi.
Sa mise en garde principale : méfiez-vous des sites dont la totalité des 50 domaines référents appartient au même propriétaire. Vous achetez un lien « en otage » — si le vendeur coupe son PBN, votre site tombe. Il faut vérifier la vraie diversité des RD, leur indexation, l’appartenance à différents propriétaires, et que les liens sont intégrés dans du contenu.
Sur le timing d’efficacité d’un lien : Kevin observe généralement un petit boost immédiat, suivi d’un yo-yo, avant une stabilisation au bout de 2 à 3 mois. Si rien ne bouge après 2 mois, c’est de l’argent jeté par les fenêtres. Inutile de s’inquiéter si rien ne se passe la première semaine.
Le TF/CF Majestic : un indicateur à contextualiser, pas à enterrer
Kevin défend le TF/CF contre ceux qui l’ont abandonné, à condition de bien l’utiliser. Un TF/CF n’est fiable que sur un échantillon de domaines référents suffisamment grand (600 000 RD le rend très pertinent, 10 RD le rend instable). Il sert à éliminer des profils clairement faibles, pas à valider automatiquement les profils élevés qui peuvent être manipulés.
Sa métaphore : c’est comme l’IMC. Seul, il peut vous tromper. Combiné au pourcentage de masse grasse et à la masse musculaire, il devient utile. Chaque indicateur SEO doit être croisé avec d’autres pour avoir du sens. SEObserver intègre l’historique du topical TrustFlow, ce qui permet de détecter les manipulations de TF sur les niches sensibles (domaines expirés, vente de liens).
Les liens nocifs : une psychose plus qu’une réalité
Kevin est catégorique : il ne constate pas de liens nocifs dans sa pratique récente. Il observe surtout des liens qui ne servent à rien (un lien sans valeur ne pousse pas). Quant aux spam automatiques que tout nouveau nom de domaine reçoit dès l’enregistrement, ils n’ont manifestement pas d’impact — sinon tous les nouveaux sites seraient pénalisés dès le départ. La conclusion : ne pas psychoter sur les liens indésirables, se concentrer sur ce qu’on construit.
Stratégie SEO 80/20 avec budget
Pour un site d’affiliation ou un comparateur avec budget, Kevin recommande en priorité de donner de la substance à la marque. Google pénalise les middlemen qui n’apportent pas de vraie valeur. Sa stratégie :
Investir dans du contenu vidéo authentique avec de vraies personnes visibles (pas du faceless), idéalement sur YouTube. Ce n’est pas la qualité de production qui compte, c’est l’authenticité. Un mec qui se filme avec son téléphone en faisant de vraies reviews crée une barrière à l’entrée que le contenu IA seul ne peut pas reproduire. Il cite l’exemple d’un entrepreneur mauricien qui fait des reviews B2B sur YouTube et arrive directement en top de SERP avec son code promo.
Pour un site avec du contenu déjà solide mais zéro backlink (exemple cabinet d’avocat), la priorité est claire : quelques backlinks bien choisis suffisent à déclencher une montée visible. Pas besoin de tout réécrire. Et pour la présence sociale, adapter le canal au positionnement de marque : Instagram « blouse blanche » pour un cabinet premium qui refuse YouTube.
Stratégie SEO 80/20 sans budget (temps disponible)
Avec du temps mais peu d’argent, Kevin préconise deux approches parallèles.
Sur le plan de la visibilité business : créer des partenariats avec des acteurs complémentaires déjà visibles (proposition de contenu gratuit contre visibilité croisée), publier des données concrètes et originales sur LinkedIn pour construire une expertise perçue, et proposer ses services en sous-traitance pour construire sa notoriété dans le milieu.
Sur le plan purement SEO : faire du ninja linking — identifier tous les endroits où un lien est possible et légitime (forums, associations locales, CCI, événements, partenaires thématiques) et les obtenir un par un. L’objectif est d’avoir des liens que les concurrents n’ont pas. Il faut éviter de spammer, mais être acharné et créatif.
A lire : La loi de Pareto en SEO : idées de stratégies rapides et efficaces
Personal branding : la rampe de lancement, pas la fin en soi
Kevin a une vision nuancée du personal branding. Il l’a utilisé au lancement de SEObserver (conférences, présence dans les events SEO, contenu unique basé sur les données de l’outil), puis s’en est progressivement détaché pour que l’outil existe indépendamment de lui. Aujourd’hui il a des clients qui ne l’ont jamais entendu nommer. C’est voulu : un projet vendable doit pouvoir fonctionner sans son fondateur.
Sa conviction sur le personal branding : c’est l’élément de réassurance et de confiance le plus simple à acquérir. Quelqu’un qui met son visage et sa réputation en jeu publiquement inspire confiance parce qu’il risque quelque chose de précieux. Mais il faut l’entretenir comme un arbre — ceux qui ont cartonné en 2010 et disparu ensuite ont perdu cette valeur. Et il ne faut pas confondre visibilité et pertinence : les commentaires IA automatiques sur LinkedIn donnent de la visibilité, pas de la crédibilité.
La meilleure stratégie de personal branding selon lui : les case studies avec un angle spécifique. Pas besoin de citer le client, pas besoin de révéler le site — dire « on a fait ×2 sur le trafic en 3 mois en mettant tel dispositif en place » suffit à démontrer l’expertise de façon indiscutable.
L’IA dans le SEO et le SaaS : un stagiaire brillant mais à surveiller
Kevin utilise l’IA au quotidien pour coder (Claude Code, Gemini Code, GitHub Copilot) — notamment pour les tâches rébarbatives comme les tests unitaires ou la sécurisation. Il l’utilise aussi pour précatégoriser massivement de la donnée à bas coût (un modèle « nano » pour traiter le top 1 million de sites coûte quelques centaines à quelques milliers d’euros).
Mais il reste prudent sur l’intégration de l’IA dans les livrables clients. Sa formule : « c’est un stagiaire très intelligent, mais qui reste un stagiaire ». L’IA réussit 90 % du travail brillamment et raconte des bêtises sur les 10 % restants — ce qui est inacceptable dans un métier d’expert où une analyse presque bonne peut vous faire passer pour incompétent.
Son analyse stratégique sur l’IA et les SaaS : l’IA abaisse le ticket d’entrée technique. N’importe qui peut aujourd’hui construire un outil basique avec du prompting. Le seul vrai moat dans ce contexte, c’est la donnée — avoir des données de ranking et de backlinks propres est ce qui rend SEObserver et NichObserver difficiles à copier rapidement.
NichObserver : le nouveau projet de Kevin
Kevin présente NichObserver (nichobserver.com), un outil en cours de lancement qui croise données de ranking, données de linking et stack technologique des sites. L’objectif est de permettre des recherches multi-critères : trouver tous les sites WordPress qui rankent sur une niche donnée, monétisent avec Amazon Affiliation mais n’ont pas encore de plugin de cloaking, ou encore identifier des sites à racheter qui ont du trafic mais une monétisation sous-optimale. Une sorte de BuiltWith croisé avec SimilarWeb, ancré dans les SERPs françaises puis internationales.
A lire : Recherche de mots-clés comme un pro dans la Google Search Console
Pour Kevin Richard, les facteurs déterminants sont le comportement des utilisateurs (notamment le retour récurrent sur un site), les backlinks de qualité, et surtout la pertinence réelle du contenu. Il accorde peu d’importance à la densité de mots-clés et insiste sur l’interactivité de la page comme signal différenciant.
Oui, selon Kevin Richard, à condition de l’utiliser comme filtre d’exclusion et non comme validation automatique. Il est fiable sur des profils avec de nombreux domaines référents, mais facilement manipulable. Il doit être croisé avec d’autres indicateurs : diversité des RD, indexation, appartenance des liens, présence dans le contenu.
Kevin Richard n’a pas constaté de pénalités liées aux liens nocifs dans sa pratique récente. Il considère que le vrai risque est plutôt d’acheter des liens qui ne transmettent aucune valeur. Les spams automatiques reçus dès l’enregistrement d’un domaine n’impactent pas les sites — sinon tous les nouveaux projets seraient pénalisés dès le départ.
Sans budget mais avec du temps, Kevin Richard recommande le « ninja linking » : identifier et obtenir des liens là où personne d’autre n’ira (associations locales, CCI, partenaires thématiques, événements). Il conseille aussi de construire sa visibilité via des contenus authentiques sur LinkedIn ou des partenariats avec des acteurs complémentaires déjà établis.
Kevin Richard conseille de voir l’IA comme un stagiaire brillant mais à surveiller. Elle est très efficace pour catégoriser de la donnée en masse, générer du code ou automatiser des tâches répétitives. En revanche, il déconseille de lui déléguer entièrement des analyses client sans relecture : l’IA réussit 90 % du travail mais peut produire des erreurs sur les 10 % restants qui peuvent nuire à votre crédibilité.
TO-DO LIST — points à vérifier sur votre site d’après les conseils de Kevin Richard
Voici une checklist d’actions concrètes à faire sur votre site ou avec les outils qu’il mentionne :
Analyse de contenu
- Comparer votre page principale avec les 10 premiers résultats sur votre mot-clé cible : apportez-vous quelque chose qu’aucun concurrent ne propose (données uniques, outil interactif, mise à jour automatique, photos exclusives) ?
- Vérifier que le mot-clé principal est bien présent dans le title et le H1 — c’est la priorité absolue selon Kevin
- Passer vos pages dans un outil d’optimisation sémantique (type Yoast Guru / Surfer) non pour « maxer » les scores mais pour vérifier l’absence de sur-optimisation flagrante
- Identifier une page où vous pourriez ajouter un élément interactif (quiz, calculateur, tableau dynamique) pour augmenter l’engagement
Analyse backlinks (SEObserver / Majestic)
- Auditer le profil de backlinks avec SEObserver : vérifier la diversité des domaines référents, détecter les liens qui pourraient appartenir au même réseau
- Pour chaque domaine référent important : vérifier son historique de TF/CF avec l’outil (un TF qui a subitement grimpé peut signaler une manipulation)
- Vérifier que vos liens entrants sont intégrés dans du contenu et non en pied de page ou sidebar
- Mesurer l’impact de vos dernières acquisitions de liens : si aucun mouvement au bout de 2 mois, investiguer la qualité de la source
Stratégie de personal branding / autorité
- Identifier 2-3 case studies de votre activité que vous pourriez partager publiquement (même sans citer le client ni révéler le site) en montrant les actions mises en place et les résultats obtenus
- Vérifier si votre marque est mentionnée dans des sources tierces (articles, podcasts, événements) — sinon, lister 3 opportunités de prise de parole dans votre niche
Analyse de la niche avec NichObserver (à venir)
- Lister les mots-clés stratégiques de votre niche pour préparer une recherche de concurrents sous-monétisés ou de sites à surveiller
- Identifier si des sites concurrents utilisent les mêmes technologies que vous (thème WordPress personnalisé, identifiants Analytics) — cela peut révéler des réseaux
Comportement utilisateurs
- Vérifier dans Google Search Console et Analytics les métriques d’engagement : taux de rebond, durée de session, pages par visite — des signaux faibles que Google observe aussi
- Si votre niche s’y prête : mettre en place un mécanisme de retour récurrent (newsletter, mise à jour régulière du contenu, outil à reconsulter) pour générer ce signal de fidélité que Kevin juge comme le plus puissant