Aller au contenu principal
N
Technique

Noindex

Directive indiquant aux moteurs de recherche de ne pas indexer une page, la rendant invisible dans les résultats.

Définition et implémentation du noindex

La directive noindex indique aux moteurs de recherche de ne pas inclure une page dans leur index. Contrairement au blocage par robots.txt, une page en noindex peut être crawlée et analysée par Googlebot, mais elle n'apparaîtra jamais dans les résultats de recherche. C'est l'outil le plus précis pour controler la visibilité de vos pages dans Google.

html
<!-- Méthode 1 : Balise meta robots dans le <head> -->
<meta name="robots" content="noindex, follow">

<!-- Méthode 2 : En-tête HTTP (configure au niveau serveur) -->
<!-- Utile pour les PDF, images et fichiers non-HTML -->
X-Robots-Tag: noindex

Pages à mettre en noindex

  • Pages de recherche interne : génèrent une quasi-infinité de combinaisons de contenu dupliqué
  • Pages de filtrés e-commerce : taille, couleur, tri par prix créent des milliers de variations sans contenu unique
  • Pages de connexion et panier : aucune valeur SEO, encombrent l'index inutilement
  • Pages de tags et archives : si elles dupliquent le contenu de vos catégories principales
  • Pagination profonde : au-delà de la page 2 ou 3, le noindex préserve le crawl budget
  • Mentions légales : faible valeur SEO, mieux vaut concentrer le crawl budget ailleurs

Piège robots.txt vs noindex

Piège courant : ne bloquez jamais dans le robots.txt une page que vous souhaitez noindex. Si le robots.txt empêche le crawl, Googlebot ne pourra jamais lire votre balise noindex et pourrait quand même indexer la page (avec un snippet limite) si d'autres sites font des liens vers elle. Pour que le noindex fonctionne, Google doit pouvoir accéder a la page et lire la directive.

Besoin d'un expert SEO ?

Passez de la théorie à la pratique. Discutons de votre stratégie de référencement naturel.

Réserver un appel stratégique