Optimisation IA vs SEO classique : ce qui change vraiment pour apparaître dans ChatGPT et les AI overviews

Est-ce qu’optimiser pour les résultats IA, c’est juste « faire du bon SEO » ? C’est la question que se posent beaucoup de professionnels du marketing en ligne. Rand Fishkin a invité Mike King, fondateur de l’agence iPullRank et élu Search Marketer of the Year par Search Engine Land pour la deuxième fois, pour répondre à cette question avec des données concrètes.

Voici les points clés de ce webinaire qui m’a convaincu qu’il existe de vraies différences stratégiques — et pas juste de nuances.

Le mythe du « c’est juste du bon SEO »

La réponse courte de Mike King : non, ce n’est pas juste du bon SEO. Et le problème n’est pas tant dans les pratiques que dans la confusion entre stratégie et tactique. Comme il le souligne, le démarchage commercial, les relations presse et le link building utilisent exactement les mêmes tactiques (construire une liste, cibler, envoyer, relancer), mais personne ne dit que ce sont la même chose. Chaque canal a une valeur d’échange différente, et le SEO IA ne fait pas exception.

Ce qui rend ce débat encore plus frustrant : les résultats IA attirent l’attention des décideurs en entreprise comme le SEO ne l’a pas fait depuis 20 ans. C’est donc aussi une opportunité de repositionner votre travail pour obtenir plus d’adhésion en interne.

Le chevauchement entre résultats Google et résultats IA est très faible

Première donnée déstabilisante : le taux de chevauchement entre les pages qui rankent dans Google et celles citées dans les interfaces IA est très bas. Selon une étude de Ziptie, être dans le top 10 Google ne donne que 25 % de chances d’apparaître dans une recherche IA. Ce chiffre monte à 39 % quand on intègre les données de query fan-out (on y revient juste après), mais reste bien loin d’une corrélation forte.

Autre chiffre marquant venu de Semrush : 28,3 % des requêtes utilisées dans les résultats IA ont un volume de recherche nul. Elles ne sont tout simplement pas trackées par les outils classiques. Ce qui crée un angle mort majeur dans nos analyses de mots-clés actuelles.

A lire : Recherche de mots-clés comme un pro dans la Google Search Console

Le query fan-out : comprendre comment les IA cherchent vraiment

C’est sans doute le concept le plus important à retenir de cette présentation. Quand un utilisateur tape une requête dans ChatGPT ou dans Google AI mode, le moteur ne cherche pas uniquement cette requête. Il la décompose en une série de requêtes synthétiques pour aller chercher des réponses complémentaires. Par exemple, « programme d’entraînement pour le marathon de New York » va générer des variantes comme « comment s’entraîner sur 42 km », « checklist pour préparer un marathon », « plan d’entraînement débutant marathon », etc.

Le nombre de requêtes générées varie selon les plateformes : entre 5 et 10 pour les AI overviews de Google, entre 3 et 7 pour ChatGPT, et jusqu’à 20 à 100 requêtes pour le mode IA avancé. Vous n’avez aucune visibilité directe sur ces requêtes synthétiques, sauf à utiliser des outils dédiés comme Profound (qui scrape les interfaces) ou Qoria, l’outil développé en interne par iPullRank via l’API Gemini.

La conséquence directe : optimiser uniquement pour votre requête cible principale ne suffit plus. Il faut penser à toute une constellation de requêtes connexes qui pourraient être générées autour de votre thématique. Chaque page pour laquelle vous rankez dans ces requêtes synthétiques est un ticket de loterie supplémentaire pour apparaître dans les résultats IA.

Les facteurs de ranking différents dans les plateformes IA

Contrairement à Google qui dispose d’un index, la plupart des plateformes IA (hors Google et Bing) fetchent les pages en temps réel. Cela crée des contraintes techniques très différentes de celles du SEO classique.

Les erreurs 499 : l’angle mort technique du SEO IA

Le code HTTP 499 (introduit par NGINX) signifie que le client a abandonné la connexion avant que le serveur ne réponde. En d’autres termes : si votre page est trop lente à charger, ChatGPT passe à autre chose. Mike King a partagé l’exemple d’un client qui a constaté une chute brutale de visibilité dans ChatGPT uniquement à cause de pics de 499 dans ses logs. Une analyse des fichiers de logs serveur, que l’on utilise en SEO classique est donc aussi essentiel en SEO IA.

La meta description comme publicité auprès des LLM

Dans Google, la meta description n’est pas un facteur de ranking — elle est même réécrite dans 80 % des cas. Dans les environnements IA, c’est tout le contraire : elle est utilisée par le LLM pour décider s’il va aller lire votre page. Quand un moteur IA reçoit un résultat de recherche (URL, titre, description), il prend une décision : est-ce que je fetche cette page pour m’en servir dans ma réponse ? Votre meta description est donc littéralement une accroche commerciale auprès d’une machine.

Les URLs sémantiques : un signal qui compte enfin

Google a depuis longtemps déprioriorisé les URLs comme facteur de ranking. Dans les LLM, c’est différent : les données de Profound montrent qu’une URL avec un slug fortement lié à la requête obtient 11,4 % de citations supplémentaires, et une URL très spécifique à la requête posée génère 5 % de plus. La recommandation de Mike King : ne pas aller modifier vos URLs existantes (trop risqué pour le SEO classique), mais privilégier des slugs plus longs et descriptifs pour les nouvelles pages — plutôt que de ne garder que le mot-clé cible, inclure le titre complet de l’article.

La fraîcheur du contenu : mettez à jour les dates

Sur le SEO classique, Google mesure la vraie fraîcheur en comparant ses copies de pages dans le temps. Sur les plateformes IA, en l’absence d’index, elles se fient à la date affichée sur la page. Mettre à jour la date ET le contenu de ses articles améliore directement la visibilité dans ces environnements.

Le chunking du contenu : une approche mesurable

Le « chunking » — structurer son contenu en unités d’information autonomes et thématiquement cohérentes — est au cœur de l’optimisation pour les moteurs IA. Les systèmes de retrieval (RAG) découpent vos pages en passages pour les indexer et les utiliser dans leurs réponses. Plus un passage est centré sur un seul sujet, plus sa similarité cosinus avec les requêtes associées est élevée.

Mike King a illustré cela avec un exemple chiffré : en coupant simplement un paragraphe qui traitait de deux sujets (machine learning et data privacy) en deux paragraphes distincts, la similarité cosinus a amélioré de +15,4 % pour le premier sujet et +9,78 % pour le second. Cette approche n’est pas réservée aux machines : une meilleure structure profite aussi aux lecteurs humains. Les deux ne sont pas en opposition.

La différence avec la simple « bonne structure éditoriale », c’est qu’il est désormais possible de mesurer l’impact de chaque ajustement avec des outils d’analyse sémantique — là où les outils SEO classiques se limitent encore à des métriques TF-IDF dépassées.

A lire : La loi de Pareto en SEO : idées de stratégies rapides et efficaces

IA search = canal de branding, pas de performance

Question fondamentale pour prioriser vos efforts : où mettre l’optimisation IA dans votre liste d’initiatives ? La réponse de Mike King est tranchée : ces plateformes génèrent beaucoup moins de trafic de référence que le SEO classique. Le trafic est plus qualifié (l’utilisateur s’est éduqué avant de cliquer), mais le volume reste faible. Si votre objectif est la performance, ne mettez pas l’IA search en tête de liste. Si votre objectif est la notoriété de marque, c’est une autre histoire.

Ce qui est aussi crucial dans cette logique de branding : contrôler le consensus. Si des sources tierces (Clutch, forums, anciens articles) décrivent votre marque de façon inexacte ou obsolète, les LLM vont s’appuyer sur ce consensus plutôt que sur ce que vous dites vous-même. C’est bien plus proche du travail de reputation management que du SEO classique.

Les sources les plus citées : Reddit, YouTube, et les données structurées

Quelques éléments pratiques pour booster sa visibilité dans les environnements IA : Reddit reste la première source citée toutes plateformes confondues, suivi de YouTube en deuxième position. Les données structurées (schema.org) sont intégralement consommées par les LLM — pas seulement les types que Google valorise avec des rich results — et méritent d’être étendues à de nouveaux vocabulaires. Les PR et le contenu généré par les utilisateurs contribuent à construire un consensus favorable autour de votre marque à travers l’ensemble des requêtes qui vous concernent.

A lire : Création du dashboard SEO personnalisé ultime

Ce qu’il faut retenir pour agir maintenant

En pratique et sans attendre des outils dédiés, voici par où commencer selon Mike King : analyser ses fichiers de logs pour repérer les erreurs 499, retravailler ses meta descriptions comme des accroches pour les LLM, allonger les slugs de ses nouvelles pages, mettre à jour les dates et contenus de ses articles existants, identifier les paragraphes qui couvrent trop de sujets à la fois et les fractionner, et intégrer des données chiffrées et des énoncés extractables dans son contenu.

Pour aller plus loin, Mike King a publié un « AI Search Manual » de 20 chapitres sur le site d’iPullRank, et prévoit d’ouvrir en open source une partie de ses outils d’analyse de query fan-out et de scoring sémantique.

Laisser un commentaire