Aller au contenu
indexurl.fr

// guide pilier

Search Console : maîtriser le rapport d'indexation.

Inspection d'URL, rapport de couverture, demande de réindexation, sitemaps, suppression d'URL. Utiliser Search Console comme un cockpit d'indexation, pas juste un dashboard à consulter une fois par mois.

Par Léa Vasseur Lecture 15 min

// sommaire (8 sections)

L'outil Inspection d'URL.

L'Inspection d'URL est la fonction centrale de Search Console côté indexation. Coller une URL dans la barre du haut, GSC interroge l'index Google en temps réel et restitue le statut exact, le bot utilisé, le rendu vu par Google, et permet une demande manuelle de réindexation.

// à retenir

C'est l'outil n°1 de diagnostic. Statut exact d'une URL, bot utilisé pour le dernier crawl, rendu HTML capturé, raison d'exclusion si non indexée, et bouton "Demander une indexation". Aucun autre outil GSC n'agrège autant d'informations actionnables sur une seule URL.

Les 4 informations à lire en priorité

  • Statut d'indexation : "L'URL est sur Google" (indexée), "L'URL n'est pas sur Google" (exclue, avec raison détaillée), ou "L'URL est sur Google avec problèmes" (indexée mais avec un avertissement à corriger).
  • Exploration : date du dernier crawl, agent utilisateur (Googlebot Smartphone en 2026), résultat HTTP. Si la date est ancienne (plus de 90 jours), la page est jugée peu prioritaire ou orpheline.
  • Indexation : URL canonique déclarée par la page, URL canonique sélectionnée par Google. Si les deux divergent, la page est consolidée sur une autre URL et n'apparaît pas indépendamment dans les SERP.
  • Tester l'URL en direct : bouton qui force un nouveau crawl et restitue le HTML rendu, les ressources chargées, les erreurs JavaScript éventuelles. Indispensable pour comparer "ce que Google a vu" vs "ce que Google verrait maintenant".

Rapport "Indexation des pages".

Renommé en 2023 (anciennement "Couverture"), ce rapport montre la photo macro de l'indexation du site. Deux courbes principales : URLs indexées vs URLs non indexées. L'objectif n'est pas d'avoir 100 % d'URLs indexées, c\'est d\'avoir 100 % des URLs qui devraient être indexées qui le sont effectivement.

Les 7 statuts d'exclusion à connaître

Cliquer sur "Pages non indexées" déroule la liste des raisons. Chaque raison est cliquable et liste les URLs concernées (limite à 1 000 exemples). Les statuts les plus fréquents en 2026.

01 Détectée, actuellement non indexée

Google connaît l'URL mais a choisi de ne pas la crawler. Crawl budget insuffisant ou qualité globale jugée trop faible. Renforcer le maillage interne et la qualité éditoriale.

02 Explorée, actuellement non indexée

Google a crawlé la page mais a décidé de ne pas l'indexer. Signal qualité négatif : contenu jugé fin, dupliqué ou sans valeur ajoutée. Cas le plus problématique en 2026.

03 Page en double sans URL canonique sélectionnée par l'utilisateur

Plusieurs URLs au contenu très similaire, aucune ne déclare de canonical. Google choisit lui-même, souvent mal. Ajouter une balise rel=canonical explicite.

04 Autre page avec balise canonique correcte

Comportement attendu si vous avez intentionnellement désigné une autre URL comme canonique. Devient problématique si la canonical est mal configurée et exclut des pages qui devraient ranker.

05 Exclue par la balise "noindex"

La page renvoie une directive noindex. Vérifier que c'est intentionnel. Cas piégeux : noindex hérité d'un template par défaut, plugin SEO mal configuré, environnement de staging poussé en production.

06 Bloquée par le fichier robots.txt

robots.txt empêche le crawl. Souvent une erreur sur des URLs qui devraient être accessibles. Voir le guide robots.txt pour démêler crawl vs index.

07 Soft 404

Page qui répond 200 OK mais dont le contenu signale une erreur ("page non trouvée", "produit indisponible"). Google la traite comme une 404 et l'exclut. Renvoyer un vrai code 404 ou 410, ou enrichir le contenu.

Pour le détail de chaque statut et la procédure de fix associée, consulter le guide complet sur les pages non indexées.

Demande de réindexation.

Bouton "Demander une indexation" disponible dans Inspection d'URL. Place l'URL dans une file de crawl prioritaire. Quota officieux d'environ 10 demandes par jour par propriété, plus si volume historique important.

  1. 01

    Délai de prise en compte

    Google annonce "quelques heures à quelques jours" et c'est cohérent : généralement 24 à 72 heures pour le crawl, plus 1 à 7 jours pour la décision d'indexation. Pour un nouveau domaine sans historique, le délai peut atteindre 2 semaines.

  2. 02

    Cas où la demande accélère vraiment

    Nouvelle page publiée, mise à jour majeure de contenu existant, correction d'un problème technique (noindex retiré, canonical fixée, erreur serveur résolue). Dans ces cas, la demande déclenche le re-crawl rapidement.

  3. 03

    Cas où la demande ne sert à rien

    Page jugée non qualitative par Google, contenu dupliqué, statut "Détectée non indexée" récurrent. Dans ces cas, la demande est traitée mais la décision d'exclusion est reconduite. Solution : améliorer la page d'abord, demander ensuite.

  4. 04

    Limite : pas de demande en lot

    Une URL à la fois, manuellement, dans l'interface. Pour soumettre des centaines d'URLs, deux options : (1) sitemap propre soumis dans l'onglet Sitemaps, (2) services tiers qui exploitent l'Indexing API ou des techniques de ping légitimes. Voir notre comparatif d'indexeurs.

Onglet Sitemaps.

Menu Indexation > Sitemaps. Ajouter, surveiller et diagnostiquer les fichiers sitemap déclarés à Google. Le statut affiché est souvent mal interprété : voici ce qu'il signifie réellement.

Réussite

Google a téléchargé le fichier et l'a parsé sans erreur de syntaxe. Ne signifie pas que les URLs listées sont indexées. Pour le savoir, croiser avec le rapport Indexation des pages, filtre "Sources : Sitemaps".

sitemap lu, pas indexé pour autant

Échec ou Erreurs

Fichier inaccessible (404, 500), syntaxe XML invalide, dépassement de limite (50 000 URLs ou 50 Mo). Cliquer pour voir le détail de l'erreur. Corriger immédiatement, sinon le sitemap est ignoré.

à corriger sous 24 h

N'a pas pu récupérer

Google n'a pas pu accéder au fichier au moment de la lecture. Souvent transitoire (serveur lent, blocage IP). Vérifier que l'URL répond bien en 200 et n'est pas bloquée par robots.txt.

retest sous 24-48 h

URL découvertes

Compteur affiché à droite : nombre d'URLs trouvées par Google dans le sitemap. À comparer au nombre attendu côté générateur. Un écart de plus de 10 % indique un problème de génération ou de filtrage.

écart toléré < 10 %

Bonnes pratiques de soumission

  • Soumettre l'URL absolue : https://exemple.fr/sitemap.xml, pas /sitemap.xml.
  • Pour les gros sites, soumettre un sitemap index qui référence des sous-sitemaps thématiques (pages, produits, articles). Plus facile à diagnostiquer.
  • Déclarer aussi le sitemap dans robots.txt via la directive Sitemap:. Bing et autres moteurs le découvrent automatiquement.
  • Ne lister que des URLs canoniques, indexables, en réponse 200. Une URL en 404 ou avec noindex dans un sitemap = signal contradictoire négatif.

Outil Suppressions d'URL.

Menu Indexation > Suppressions. Retire une URL des résultats Google rapidement (24 à 48 h), mais avec des nuances importantes : c'est par défaut temporaire et limité à 6 mois.

Suppression temporaire

Retire l'URL des SERP pendant ~6 mois. La page reste indexée techniquement, juste masquée. Si rien n'est fait au niveau du site, elle réapparaît. Utile pour gagner du temps pendant la mise en place de la solution durable.

24-48 h, dure 6 mois

Effacer l'URL en cache

Vide le cache Google et l'extrait dans les SERP, mais l'URL reste indexée et visible. Utile pour retirer rapidement une donnée obsolète (ancien prix, info erronée) sans désindexer la page.

rafraîchir l'extrait

Pour une désindexation définitive

L'outil Suppressions seul ne suffit pas. Combiner deux actions pour un résultat durable.

  1. 01. Soumettre la suppression GSC pour retirer immédiatement l'URL des SERP (effet sous 24-48 h).
  2. 02. Configurer la solution durable côté serveur : balise <meta name="robots" content="noindex"> sur la page (si elle reste accessible), ou code HTTP 410 Gone (si elle doit disparaître complètement). Le 410 est plus rapide que le 404 pour la désindexation.

// piège classique

Bloquer une URL en robots.txt ne la désindexe pas. Sans crawl, Google ne peut pas voir le noindex et la page reste dans l'index avec un extrait dégradé ("Aucune information disponible pour cette page"). Toujours laisser le crawl ouvert quand on veut désindexer.

Rapport Signaux web essentiels.

Menu Expérience > Signaux web essentiels. Affiche les Core Web Vitals mesurés sur le terrain (données CrUX, utilisateurs réels Chrome) sur les 28 derniers jours, séparés Mobile et Desktop. Indispensable pour piloter la performance perçue par Google.

LCP

< 2,5 s

Largest Contentful Paint. Délai d'affichage de l'élément principal de la page.

INP

< 200 ms

Interaction to Next Paint. Réactivité aux interactions utilisateur.

CLS

< 0,1

Cumulative Layout Shift. Stabilité visuelle pendant le chargement.

Lecture du rapport

  • URLs classées en "Bon" (vert), "À améliorer" (orange), "Médiocre" (rouge). Objectif : 100 % en vert sur les pages clés.
  • Cliquer sur une catégorie ouvre la liste des URLs concernées. Cliquer sur une URL pointe vers PageSpeed Insights pour le détail technique.
  • Données réelles utilisateurs Chrome : si le site a peu de trafic Chrome, le rapport peut afficher "Pas assez de données". Compléter avec Lighthouse en local.
  • Bouton "Valider la correction" après un déploiement : Google re-mesure sur 28 jours et confirme si les seuils sont à nouveau respectés.

Workflow d'audit GSC en 30 minutes.

Cinq vérifications hebdomadaires à exécuter dans l'ordre. Trente minutes une fois par semaine suffisent à détecter 90 % des incidents d'indexation avant qu'ils impactent le trafic.

[ ]01. Rapport Indexation des pages : variation du nombre d'URLs indexées vs semaine dernière (alerte si chute > 5 %)

[ ]02. Statuts d'exclusion : nouveaux statuts apparus, augmentation des "Explorée non indexée" ou "Détectée non indexée"

[ ]03. Onglet Sitemaps : tous les sitemaps en statut "Réussite", écart d'URLs découvertes < 10 %

[ ]04. Signaux web essentiels : aucune dégradation Mobile (LCP, INP, CLS), validation des correctifs en cours

[ ]05. Rapport Performances : top 10 requêtes, top 10 pages, comparaison période précédente, identification des chutes de clics > 20 %

// rythme

Hebdomadaire suffit pour la plupart des sites. Quotidien après un gros changement (refonte, migration, ajout massif de pages) pendant 4 à 6 semaines. Mensuel pour un site stable de moins de 100 pages.

Questions fréquentes.

Search Console est-il obligatoire pour être indexé ?

Non. Google indexe une page dès qu'il la découvre via un lien interne, un backlink ou un sitemap. Search Console n'est pas un prérequis à l'indexation, c'est un outil de diagnostic et de pilotage. Mais sans GSC, impossible de savoir précisément combien de pages sont indexées, lesquelles sont exclues et pourquoi, ni de demander manuellement une réindexation. En pratique, tout site sérieux configure GSC dès le lancement. Documentation officielle.

Pourquoi le nombre d'URLs indexées dans GSC ne correspond pas à site:exemple.com ?

C'est normal et constant. La requête site: donne une estimation grossière, souvent surévaluée, alimentée par un index secondaire. Le rapport "Indexation des pages" de GSC donne le nombre réel d'URLs dans l'index principal, mis à jour avec un délai de 1 à 3 jours. Toujours se fier au chiffre GSC, jamais à site: qui peut indiquer 50 000 quand l'index réel n'en contient que 12 000.

"Demander une indexation" garantit-il l'indexation ?

Non. La demande place votre URL dans une file de crawl prioritaire. Google la visite ensuite, généralement sous 24 à 72 heures. Si la page passe les contrôles qualité (contenu unique, pas de noindex, pas de canonical externe, valeur ajoutée perçue), elle est indexée. Si elle ne passe pas, elle reçoit un statut d'exclusion ("Détectée non indexée", "Explorée non indexée", etc.). La demande accélère le crawl, pas la décision d'indexation.

Combien de temps pour qu'une nouvelle page apparaisse dans GSC ?

Trois délais à distinguer. (1) Apparition dans Inspection d'URL : presque immédiate dès que Google a crawlé la page (heures à jours). (2) Apparition dans le rapport "Indexation des pages" : 1 à 7 jours après le premier crawl. (3) Données complètes dans le rapport Performances : 2 à 3 jours de latence. Pour un nouveau site sans historique, compter 2 à 6 semaines avant que GSC affiche des données stables et exploitables.

Mon sitemap est marqué "Réussite" mais 30 % des URLs ne sont pas indexées

Cas extrêmement courant. "Réussite" signifie uniquement que Google a lu le sitemap sans erreur de syntaxe, pas qu'il a indexé les URLs listées. Le sitemap est une suggestion, pas une garantie. Pour comprendre le gap, ouvrir le rapport Indexation des pages, filtrer par "Sources : Sitemaps", puis examiner les statuts d'exclusion. Causes typiques : contenu dupliqué, qualité jugée insuffisante, canonical pointant ailleurs, "Détectée non indexée" (Google connaît mais ne crawle pas).

Comment supprimer rapidement une URL de Google ?

Outil "Suppressions" dans GSC : suppression temporaire (6 mois) en 24 heures environ. Coller l'URL exacte ou un préfixe. Important : c'est une suppression de l'affichage SERP, pas une désindexation définitive. Si l'URL reste accessible et indexable, elle réapparaîtra après 6 mois. Pour une suppression définitive, combiner : suppression GSC (rapide) + balise noindex ou status 410 Gone côté serveur (durable). Détails dans la section dédiée plus haut.

"Détectée, actuellement non indexée" : que faire ?

Statut très fréquent en 2026, signifie que Google connaît l'URL via un sitemap ou un lien, mais a choisi de ne pas la crawler pour le moment. Causes : crawl budget insuffisant (gros site), qualité globale du domaine perçue comme faible, URL jugée peu prioritaire. Actions efficaces : (1) renforcer le maillage interne vers la page, (2) améliorer la qualité éditoriale, (3) ajouter la page à un sitemap propre, (4) demander manuellement l'indexation via Inspection d'URL. Voir le guide complet sur les statuts d'exclusion.

Search Console vs Bing Webmaster Tools, faut-il les deux ?

Oui. Bing Webmaster Tools est gratuit, configurable en 10 minutes (import direct depuis GSC possible) et débloque l'accès au protocole IndexNow (notification instantanée Bing/Yandex/DuckDuckGo). Bing pèse 5 à 10 % du trafic search en France, mais beaucoup plus sur certains profils B2B et sur ChatGPT Search qui s'appuie sur Bing. Workflow type : GSC pour le pilotage Google, BWT pour valider la cohérence sur Bing et activer IndexNow.

// passer à l'action

Diagnostiquer une URL avant d'aller dans GSC.

Vérifier en 10 secondes qu'une page n'a aucun blocage technique d'indexabilité (noindex, robots.txt, canonical, status code) avant de passer du temps à fouiller Search Console.