EN BREF
|
Face à la montée en puissance de Google Zéro, cette tendance où Google cherche à retenir les internautes directement sur ses plateformes sans les rediriger vers des sites externes, le Wall Street Journal a dû repenser ses stratégies SEO. En combinant rigueur traditionnelle et adaptation aux nouvelles spécificités de l’intelligence artificielle, leur équipe explore des solutions pour rester visible et pertinent dans cet écosystème en pleine évolution.
Les stratégies du Wall Street Journal face au défi de « Google Zéro »
Le Wall Street Journal se trouve aujourd’hui confronté à un défi majeur : la montée en puissance de « Google Zéro ». Ce phénomène correspond à une nouvelle réalité où Google tend à conserver les utilisateurs directement sur ses plateformes grâce à ses résumés générés par IA, limitant ainsi les clics vers les sites des éditeurs. Face à cette menace, l’équipe SEO du WSJ, dirigée par Ed Hyatt, a développé des stratégies adaptées, mêlant les bonnes pratiques traditionnelles du SEO à une réflexion approfondie sur la nature du contenu et la manière d’attirer un trafic qualifié. Découvrons ensemble quelles sont ces tactiques essentielles à connaître pour affronter ce nouvel environnement numérique.
Le maintien des fondamentaux SEO à l’ère de l’IA
Malgré l’arrivée massive de l’intelligence artificielle dans le référencement, le WSJ reste convaincu que les bonnes pratiques SEO traditionnelles demeurent cruciales. Il s’agit notamment d’optimiser la vitesse de chargement des pages, d’améliorer la structuration des contenus via des schémas adaptés, ainsi que de garantir une expérience utilisateur optimale avec les Core Web Vitals. Toutes ces actions permettent non seulement de bien se classer dans les résultats de recherche classiques, mais aussi d’être mieux exploré par les algorithmes d’extraction de contenu IA qui scrutent des pages multiples pour répondre aux requêtes des internautes.
Cette approche est particulièrement pertinente puisque, comme le souligne Hyatt, les plateformes IA telles que ChatGPT utilisent le query fan-out, une technique qui décompose une requête en plusieurs sous-requêtes afin d’aller chercher l’information sur une multitude de sites différents. Cela nécessite percer dans une multitude d’acteurs, exigeant rapidité et pertinence pour figurer parmi les sources privilégiées.
Analyser et interpréter les données pour mieux s’adapter
Un autre pilier de la stratégie consiste à exploiter les données de crawl via l’analyse des fichiers logs pour comprendre comment les robots explorent le site. Cette étape est fondamentale pour identifier les zones du site qui intéressent le plus les moteurs et pour ajuster ensuite les contenus et structures en conséquence.
L’analyse croisée avec des outils SEO avancés comme SEMrush ou Ahrefs permet ainsi de se faire une idée précise de l’impact des changements et des nouvelles tendances d’audience. Cela aide à choisir judicieusement les mots-clés et thématiques à développer afin de maximiser la visibilité, notamment sur des segments où l’IA va puiser ses informations.
Éviter les contenus de type « commodity » pour privilégier l’exclusivité
Le WSJ s’éloigne délibérément des contenus qu’on retrouve partout sur internet, souvent appelés contenus « commodity ». Ces contenus « banals » comme les cours boursiers du jour, par exemple, présentent un faible engagement et une intention de recherche limitée. En raison de leur faible valeur ajoutée, ils peinent à apparaître en top position, d’autant plus que les réponses automatiques des plateformes IA tendent à les remplacer directement sur Google.
John Hyatt insiste sur l’importance de fournir des contenus exclusifs, spécialisés et à forte valeur ajoutée, qui peuvent inciter l’internaute à quitter Google pour se plonger dans l’univers éditorial du WSJ. C’est par ce biais que le journal développe sa capacité à apporter une valeur unique et inégalable pour fidéliser et convertir son audience.
Prioriser le trafic de qualité pour pérenniser l’engagement
Face à cette transformation, le WSJ cible avant tout le trafic le plus précieux : celui provenant des recherches Google classiques, où l’intention recherche est claire et forte. Contrairement au trafic généré par Google Discover, qui ressemble davantage à du contenu social personnalisé et passif, la recherche organique exige une démarche active et engagée de la part des utilisateurs.
Bien que Google affirme que ses résumés IA favorisent une augmentation du nombre de requêtes et des clics de qualité, l’équipe SEO du WSJ garde un œil critique sur ces déclarations, en gardant sa stratégie focalisée sur la conversion et la rétention des lecteurs venus par des recherches ciblées. Cette démarche est d’autant plus importante pour des modèles économiques qui dépendent des abonnements et des inscriptions à des newsletters.
Conclusion : Transformer la menace en opportunité
loin d’adopter un discours fataliste face à la montée de « Google Zéro », Le Wall Street Journal voit cette évolution comme une opportunité. Elle l’oblige à repenser en profondeur son approche numérique, à privilégier la qualité sur la quantité et à mieux comprendre les nouvelles pratiques des moteurs et des IA. Ces enseignements ne sont pas seulement applicables au WSJ, mais représentent une feuille de route précieuse pour tous les médias qui veulent demeurer visibles et attractifs dans un paysage numérique en mutation rapide.
Pour développer encore votre propre stratégie SEO face au changement, n’hésitez pas à consulter des ressources complémentaires comme évaluer l’essentiel post SEO, ou encore vous informer sur l’impact de l’ère IA sur les clics dans les SERP. Vous y trouverez un éclairage utile pour anticiper les prochaines étapes du référencement.
Comparaison des Stratégies SEO du Wall Street Journal face à Google Zéro
Axes Stratégiques | Actions Mises en Place | Objectifs Clés |
---|---|---|
Optimisation SEO Traditionnelle | Utilisation des Core Web Vitals, schema et amélioration de la vitesse de chargement. | Assurer une bonne expérience utilisateur et un bon classement dans les moteurs de recherche. |
Adaptation à l’Intelligence Artificielle | Analyse des requêtes en éventail pour couvrir plusieurs thématiques. | Maximiser la visibilité auprès des moteurs IA comme ChatGPT. |
Collecte de Données | Examen des fichiers logs et outils SEO (SEMrush, Ahrefs, Profound). | Comprendre où les crawlers se concentrent pour mieux orienter le contenu. |
Évitement du Contenu Commodité | Réduction des contenus basiques et facilement trouvables ailleurs. | Favoriser les contenus originaux et à forte valeur ajoutée pour l’audience. |
Focalisation sur le Trafic Qualifié | Privilégier les clics issus des recherches Google plutôt que de Google Discover. | Concentrer les efforts sur le trafic à forte intention et à fort engagement. |
Expérience Utilisateur | Mise en page claire et structuration du contenu. | Optimiser la compréhension et l’interaction des visiteurs sur le site. |
Test et Adaptation par Verticale | Monitoring spécifique des sections (ex : tech) pour adapter la stratégie. | Développer des approches spécifiques selon les intérêts et enjeux sectoriels. |
Engagement Long Terme | Création de parcours lecteur visant à l’abonnement et fidélisation. | Transformer le trafic en audience active et durable. |
Anticipation & Opportunisme | Abandon du pessimisme pour aller vers des solutions innovantes. | Se positionner en leader sur les nouveaux modes de recherche et contenu. |
Les stratégies du Wall Street Journal face au défi de « Google Zéro »
Face à la menace de Google Zéro, cette nouvelle ère où Google retiendrait l’essentiel de son audience sur ses propres plateformes, le Wall Street Journal (WSJ) a su ajuster ses stratégies SEO pour protéger son trafic et optimiser sa visibilité. Ed Hyatt, directeur SEO du WSJ, partage lors d’un événement Digiday les initiatives principales de son équipe pour naviguer dans cet environnement en pleine mutation, en insistant sur l’importance d’adapter ses tactiques traditionnelles aux nouvelles contraintes imposées par l’intelligence artificielle et les moteurs de recherche évolutifs.
Maintenir les fondamentaux du SEO dans l’ère de l’IA
Le WSJ mise avant tout sur la solidité des bases du SEO. En effet, Ed Hyatt rappelle que ce qui fonctionne pour le SEO “traditionnel” reste pertinent face aux plateformes d’intelligence artificielle, comme ChatGPT. L’optimisation de la vitesse de chargement, la structuration du contenu via les schémas (schema.org) et l’amélioration de l’expérience utilisateur par le respect des Core Web Vitals continuent d’être prioritaires.
Les moteurs d’IA fonctionnent avec un principe de “query fan-out” qui éclate les requêtes en sous-questions, imposant aux sites d’être crawlables et rapides. Ainsi, le WSJ travaille sa visibilité sur un spectre large de mots-clés et thématiques, une stratégie également recommandée aux éditeurs qui veulent percer dans ces nouvelles formes de référencement.
Ancrer ses décisions dans des données précises
Pour répondre efficacement à ce défi, la clé réside dans l’analyse approfondie des données d’audience. Ed Hyatt conseille aux équipes SEO d’étudier leurs fichiers logs afin de comprendre comment les crawlers interagissent avec leur site. Couplée à des outils spécialisés comme SEMrush ou Ahrefs, cette démarche permet d’identifier quelles parties du site attirent davantage les robots d’IA et de définir ainsi des stratégies adaptées. Cela offre également un aperçu précieux sur la place de la marque dans l’écosystème numérique.
Par exemple, une section traitant de la technologie peut recevoir plus d’attention de la part des crawlers spécifiques d’IA, incitant le WSJ à concevoir une stratégie dédiée pour cette verticalité, qu’elle souhaite cibler ou éviter.
Éviter le contenu “commodité” pour mieux se distinguer
Dans un monde où l’IA génère des réponses instantanées pour des recherches simples et génériques, le WSJ choisit de s’éloigner du contenu “commodité”, comme les informations financières basiques ou les contenus evergreen faciles à trouver ailleurs. Ces types de contenus attirent peu de clics à intention forte et sont souvent directement “absorés” par les fonctionnalités d’IA embarquées dans Google.
Ed Hyatt insiste sur le fait que Google cherche à diriger les utilisateurs vers des sources originales et fiables, ce qui nécessite d’investir dans des contenus originaux, qualitatifs et à forte valeur ajoutée, afin d’attirer des audiences engagées et durables.
Se concentrer sur le trafic à haute valeur ajoutée
Malgré la montée en puissance de nouvelles sources de trafic comme Google Discover, le WSJ privilégie toujours les clics provenant des résultats de recherche organique classique. Ces visiteurs ont une démarche intentionnelle, en quête d’informations précises, ce qui en fait des prospects précieux pour des abonnements ou des inscriptions aux newsletters.
Ed Hyatt souligne que si les flux de Google Discover sont intéressants, ils demeurent plus similaires aux réseaux sociaux en termes de comportement utilisateur et ne génèrent pas forcément un trafic aussi qualifié. La stratégie du WSJ consiste donc à optimiser les expériences et le parcours lecteur pour capturer et fidéliser ces visiteurs qualifiés, tout en explorant de nouvelles manières de capter l’attention dans cet univers concurrentiel.
Pour approfondir comment les temps de résultats impactent le SEO, vous pouvez consulter cet article sur les délais des résultats SEO Google ou comprendre qui compte en SEO aujourd’hui.
Dans un contexte stratégique, l’enjeu est énorme, comme le souligne cet article de ZeenMag qui évoque Google Zero comme un défi existentiel pour les médias. Les grandes mutations du marché sont aussi illustrées par l’actualité des acquisitions Google, un signe des ambitions massives à surveiller, dont vous pouvez trouver des analyses sur Clubic et Courrier International.
Ces mouvements illustrent parfaitement l’environnement mouvant dans lequel les éditeurs doivent s’adapter pour survivre et prospérer. Le constat et les stratégies du Wall Street Journal offrent donc un cas d’école à suivre pour tous les acteurs du numérique.
- Optimisation technique : Priorisation des Core Web Vitals et vitesse de chargement pour une meilleure expérience utilisateur.
- Contenu structuré : Mise en place de schémas et organisation claire pour faciliter le crawl par les moteurs AI.
- Analyse des données : Exploitation des log files et outils SEO pour comprendre les comportements des crawlers AI.
- Éviter les contenus génériques : Renoncer aux contenus commodités à faible engagement et favoriser des informations exclusives.
- Focus sur trafic à haute valeur : Priorisation des clics intentionnels via Google Search plutôt que Google Discover.
- Répartition thématique : Ajustement des stratégies selon les sections les plus crawlées par les IA, comme la tech.
- Extension des mots-clés : Intégration de termes larges pour répondre aux modes de recherche en expansion des IA.
- Adaptation continue : Recherche constante de nouvelles méthodes pour attirer et retenir l’audience dans leur écosystème.
Les stratégies du Wall Street Journal face au défi de « Google Zéro »
Face à la montée en puissance de « Google zéro », ce futur où Google souhaite garder ses audiences à l’intérieur de ses services grâce à l’intelligence artificielle, le Wall Street Journal (WSJ) a su adapter ses stratégies SEO pour maintenir et optimiser sa visibilité en ligne. Ed Hyatt, directeur SEO de la newsroom du WSJ, a partagé lors d’un événement virtuel les méthodes employées pour faire face à ce challenge, notamment en s’appuyant sur les fondamentaux du SEO traditionnel tout en explorant les spécificités de l’IA, en évitant le contenu générique et en se concentrant sur le trafic à plus forte valeur.
Rester fidèle aux fondamentaux du SEO
Le WSJ souligne que malgré l’évolution vers un monde dominé par l’IA, les bonnes pratiques traditionnelles du SEO restent essentielles. Google valorise toujours des éléments comme les Core Web Vitals, la structure des pages via des schémas de balisage (schema) et la rapidité de chargement. Ces critères assurent non seulement une expérience utilisateur optimale, mais facilitent aussi le crawl par les moteurs de recherche et les plateformes d’intelligence artificielle.
Le WSJ optimise donc constamment ses mises en page, la structuration de ses contenus et la vitesse de ses pages pour garantir un bon référencement et une meilleure indexation dans les résultats avancés des moteurs de recherche et des assistants AI, comme ChatGPT. Cela permet de répondre aux nombreuses requêtes déclinées par ces plateformes, dans une logique de ‘query fan-out’ où une recherche se transforme en plusieurs requêtes ciblées sur différents contenus.
Exploiter les données pour mieux comprendre l’impact de l’IA
Une étape cruciale dans leur démarche est la collecte et l’analyse des données de crawl à travers les fichiers logs. En étudiant comment les crawlers interagissent avec leur site, le WSJ est en mesure de comprendre quelles pages sont le plus sollicitées par les IA, permettant de définir des priorités en matière d’optimisation.
Ces données, croisées avec les outils SEO comme SEMrush ou Ahrefs, offrent une vision plus claire des tendances et des opportunités à saisir pour ajuster le contenu et les mots-clés, dans le but de mieux répondre aux attentes des plateformes AI qui sélectionnent et synthétisent les informations.
Éviter le contenu générique pour préserver la valeur
Le WSJ prend une position claire : le contenu « commodity » ou basique, que l’on peut trouver partout, est à éviter. Cela concerne par exemple les données simples comme les cours en bourse ou les définitions basiques, qui tendent aujourd’hui à être directement intégrées dans les réponses des IA sans générer de clics vers les sites sources.
Leur stratégie est donc d’offrir un contenu unique, riche et pertinent, donnant une valeur ajoutée difficilement remplaçable par un simple résumé automatisé. Google cherche à orienter les internautes vers des sources fiables et en première main. C’est pourquoi inclure des informations exclusives, des analyses approfondies et des contenus très spécialisés permet de conserver une place de choix dans l’écosystème numérique.
Se concentrer sur le trafic à forte valeur
Enfin, le WSJ met l’accent sur la qualité plus que la quantité du trafic. Les clics provenant des recherches Google organiques sont jugés plus précieux que ceux venant de Google Discover, qui est plus une source d’exploration similaire à un réseau social.
Le trafic issu des recherches Google témoigne d’une intention forte de la part des utilisateurs, ce qui en fait un levier de conversion essentiel notamment pour les abonnements et les newsletters. L’objectif est donc de maximiser ce type de trafic, en travaillant les mots-clés, les contenus et les expériences utilisateur pour garder les visiteurs engagés et les inciter à approfondir leur interaction avec le WSJ.
FAQ : Les stratégies du Wall Street Journal face au défi de « Google Zéro »
Q : Qu’est-ce que le phénomène « Google Zéro » évoqué dans l’article ?
R : « Google Zéro » désigne une situation où Google maintient les utilisateurs directement sur ses plateformes grâce à des résumés AI générés, réduisant ainsi le nombre de clics de redirection vers les sites des éditeurs.
Q : Comment The Wall Street Journal adapte-t-il son SEO face à cette menace ?
R : The Wall Street Journal continue d’appliquer les bonnes pratiques traditionnelles du SEO comme l’optimisation de la vitesse de chargement, la structuration des contenus et l’utilisation de schémas adaptés pour améliorer son expérience utilisateur et rester visible sur les moteurs de recherche et plateformes AI.
Q : Quelle est l’importance des données sur les crawlers selon Ed Hyatt ?
R : Recueillir et analyser les données des fichiers logs pour comprendre comment les crawlers AI interagissent avec le site est une étape cruciale. Ces informations, combinées à des outils SEO, permettent d’ajuster les contenus et stratégies pour mieux répondre aux attentes des moteurs AI.
Q : Pourquoi The Wall Street Journal évite-t-il le « commodity content » ?
R : Les contenus basiques, facilement trouvables partout, génèrent peu d’engagement et ont un faible intérêt. De plus, les résultats AI offrent souvent les réponses à ces requêtes simples, empêchant ces contenus de bien se classer sur Google.
Q : Quel type de trafic est privilégié par The Wall Street Journal ?
R : The Wall Street Journal se concentre sur le trafic le plus précieux, particulièrement provenant des clics intentionnels sur les résultats de recherche Google, car ce sont eux qui déclenchent des visites qualifiées et génèrent les abonnements et inscriptions aux newsletters.
Q : Comment The Wall Street Journal perçoit-il Google Discover dans sa stratégie ?
R : Bien que Google Discover génère du trafic, il est considéré comme moins précieux que le trafic organique de recherche car il ressemble plus aux réseaux sociaux, avec des consultations plus passives et moins intentionnelles.
Q : Quelle est la recommandation principale d’Ed Hyatt pour les éditeurs face à ces changements ?
R : Il recommande d’éviter le pessimisme excessif et d’aborder ce défi comme une opportunité. Les éditeurs doivent continuer à travailler à améliorer leur écosystème, optimiser l’expérience utilisateur et s’adapter aux nouveaux modes de recherche et AI pour prospérer.