outil gratuit · 17 contrôles · live
Vérifier l'indexation d'une page sur Google.
Coller une URL. En 10 secondes, l'outil teste 17 points techniques qui décident si Google peut (et veut) indexer la page, et indique exactement quoi corriger.
$ analyze https://exemple.com/page
→ fetching... 200 OK
→ parsing HTML... 2.1 KB
─── checks ───────────────────────
✓ HTTP 200
✓ robots.txt allow
✓ meta robots: index,follow
! title: 18 chars (court)
! meta description: missing
✗ JSON-LD: not detected
✓ sitemap.xml: present, URL listed
─── score ───────────────────────
SCORE 78/100 ██████████
VERDICT: indexable, à optimiser
# aperçu. Lancer une analyse pour des données réelles.
$
// checklist
Les 17 points vérifiés à chaque analyse.
Définis à partir de la documentation Google Search Central et des facteurs techniques constatés sur audits réels.
- #01
Statut HTTP
Vérifie que la page renvoie 200 OK et n'enchaîne pas de redirections.
- #02
robots.txt
Lit le fichier robots.txt et confirme que l'URL est autorisée pour les crawlers.
- #03
Meta robots
Détecte la présence d'une balise <meta name="robots" content="noindex">.
- #04
X-Robots-Tag
Vérifie le header HTTP X-Robots-Tag, équivalent serveur de la meta robots.
- #05
Canonical
Présence et validité de <link rel="canonical">, self-referencing ou cross-domain.
- #06
Title
Présence et longueur (30 à 60 caractères pour éviter la troncature SERP).
- #07
Meta description
Présence et longueur (120 à 160 caractères pour le snippet SERP).
- #08
H1
Présence d'un H1 unique reprenant le mot-clé cible.
- #09
Volume de contenu
Compte les mots du body : Google n'indexe pas les pages quasi vides.
- #10
Données structurées
Détecte JSON-LD ou microdata (rich snippets, knowledge panel).
- #11
Sitemap.xml
Cherche le sitemap du domaine et vérifie que l'URL y est listée.
- #12
Temps de réponse
Mesure le TTFB : un serveur lent freine le crawl Googlebot.
- #13
Taille HTML
Alerte au-delà de 500 Ko : Googlebot peut tronquer les pages très lourdes.
- #14
Rendu sans JS
Vérifie qu'un volume de texte significatif est présent sans exécution JS.
- #15
hreflang
Si multi-langue : présence des balises et de x-default.
- #16
Open Graph
Présence des balises OG (signal qualité et meilleur partage social).
- #17
Variantes canoniques
Teste les 4 variantes du domaine (http/https, www/non-www) et vérifie qu'elles convergent par 301 vers une seule URL canonique.
// au-delà du diagnostic
Page techniquement indexable mais toujours absente de Google ?
Si le diagnostic ne révèle aucun blocage critique mais que la page reste introuvable dans Google après plusieurs semaines, le levier suivant est de forcer la découverte. Les services d'indexation Google envoient des signaux à Googlebot pour accélérer le passage : utile sur sites neufs, backlinks tier 2 ou pages profondes. Notre comparatif détaille les options testées : SpeedyIndex (top performer 2026, Googlebot en 30 min), Rapid URL Indexer (meilleur rapport prix/fonctionnalités) ou OmegaIndexer (spécialiste PBN).
- SCORE ≥ 80
- page invisible > 4 sem. → tester un indexeur
- SCORE 60-80
- → corriger d'abord les avertissements signalés
- SCORE < 60
- → blocage technique probable, indexeur inutile
// questions fréquentes
FAQ diagnostic d'indexabilité.
// question phare
Comment savoir si une page est indexée par Google ?
Trois méthodes complémentaires, de la plus rapide à la plus complète.
- 01
Commande Google
site:Taper
site:exemple.com/pagedans Google. Si la page apparaît dans les résultats, elle est indexée. Méthode la plus rapide, mais Google peut occasionnellement omettre une page indexée pour cette commande sur les sites peu autoritaires. - 02
Google Search Console, "Inspection de l'URL"
Coller l'URL dans le champ d'inspection en haut de Search Console. Donne le statut officiel Google : "URL présente dans l'index Google" ou "URL inconnue de Google". Méthode la plus fiable, nécessite d'être propriétaire du site.
- 03
Diagnostic d'indexabilité (cet outil) + commande
site:Vérifier d'abord avec cet outil que la page est indexable techniquement (aucun blocage), puis cumuler avec la commande
site:pour confirmer qu'elle est présente dans l'index. Méthode la plus complète pour un audit avant ou après publication.
Cet outil est-il vraiment gratuit ?
Oui. Aucune inscription requise. La limite est de 5 analyses par heure et par adresse IP, suffisant pour la plupart des audits ponctuels. Aucun email demandé.
L'outil dit que ma page est indexable, mais elle n'apparaît pas dans Google. Pourquoi ?
Indexable techniquement ne veut pas dire indexée. Google peut connaître l'URL mais retarder l'indexation pour des raisons éditoriales (qualité perçue, autorité du domaine, fraîcheur, contenu dupliqué). Si la page coche tous les critères techniques, le levier suivant est l'autorité du domaine (backlinks, fraîcheur de publication) ou le passage par un service d'indexation Google pour forcer la découverte.
Comment l'outil détecte-t-il que ma page est bloquée par robots.txt ?
L'outil télécharge le fichier robots.txt à la racine du domaine, parse les directives User-agent, Allow et Disallow, puis applique la règle longest-match au pathname de l'URL testée. Si l'URL correspond à une règle Disallow plus spécifique qu'une règle Allow, elle est signalée comme bloquée. Le user-agent IndexURL-Bot est documenté de manière transparente.
L'outil exécute-t-il le JavaScript de la page ?
Non. L'analyse se fait sur le HTML brut renvoyé par le serveur, comme le ferait Googlebot lors de la première passe de crawl. Pour un site en SPA dépendant du JS pour afficher son contenu, l'outil le détecte et émet un avertissement. Pour vérifier le rendu post-JS, utiliser Search Console (URL Inspection) qui simule le rendu Chrome.
Mes données sont-elles enregistrées ?
Le résultat de chaque analyse est mis en cache 1 heure côté serveur pour éviter de re-crawler la même URL si plusieurs personnes la testent dans la fenêtre. Aucune donnée personnelle n'est conservée. L'adresse IP est hashée (SHA-256) uniquement pour le rate-limiting et expire après 1 heure. Voir la page IndexURL-Bot pour le détail.
Pourquoi 17 critères et pas plus ?
Les 17 critères couvrent tous les blocages techniques classiques d'indexation, ainsi que les signaux de qualité que Googlebot évalue dès la première visite. Au-delà, on entre dans l'optimisation de contenu et la stratégie SEO globale, qui ne se diagnostiquent pas en 10 secondes.
Que faire si toutes les analyses sont vertes mais Google n'indexe toujours pas ?
Trois leviers à activer dans l'ordre. Premier : soumettre manuellement l'URL via Search Console (URL Inspection puis "Demander l'indexation"). Deuxième : vérifier que le sitemap.xml est soumis dans Search Console et à jour. Troisième : si le domaine est récent ou peu autorité, passer par un service d'indexation comme SpeedyIndex (top performer 2026) ou Rapid URL Indexer pour forcer la découverte.