Aller au contenu principal
F
Technique

Fréquence de crawl

Rythme auquel les robots des moteurs de recherche explorent et réindexent les pages d'un site web.

Qu'est-ce que la fréquence de crawl ?

La fréquence de crawl (crawl rate) désigne le rythme auquel Googlebot visite et analyse les pages d'un site web. Cette fréquence n'est pas uniforme : elle dépend de l'autorité du site, de la fraîcheur du contenu et de la qualité technique.

Un site d'actualités publiant 50 articles/jour sera crawlé beaucoup plus fréquemment qu'un site vitrine de 10 pages mis à jour annuellement. Google détermine automatiquement la fréquence optimale pour chaque site.

Facteurs influençant la fréquence de crawl

Facteurs déterminants de la fréquence de crawl

FacteurImpact positifImpact négatif
Autorité du siteDR élevé, beaucoup de backlinksSite nouveau, peu de liens
Fraîcheur du contenuPublication régulièreSite statique, mises à jour rares
Performance serveurRéponses rapides (< 200ms)Erreurs 5xx, temps de réponse lent
Taille du sitePlus de pages = plus de crawl totalPages de faible qualité gaspillent le budget
Sitemap XMLSitemap à jour signalant les nouveautésSitemap absent ou obsolète
Maillage internePages bien liées, architecture platePages orphelines, profondeur excessive

Comment influencer la fréquence de crawl

  • Google Search Console : soumettez les nouvelles pages via l'outil d'inspection d'URL pour un crawl prioritaire
  • Sitemap XML à jour : aidez Googlebot à découvrir rapidement les nouvelles pages et modifications
  • Publication régulière : un flux constant de contenu frais incite les robots à revenir plus souvent
  • Maillage interne efficace : facilitez la découverte des pages profondes en les reliant aux pages de haute autorité
  • Performance serveur : un serveur rapide permet à Googlebot de crawler plus de pages par session

Fréquence de crawl vs crawl budget

Il ne faut pas confondre ces deux notions : la fréquence concerné le rythme des visites (combien de fois Googlebot revient), tandis que le crawl budget concerné le nombre total de pages que Googlebot est prêt à explorer lors d'une session.

Pour les petits sites (moins de 1 000 pages), la fréquence de crawl est rarement un problème. En revanche, pour les grands sites e-commerce ou les sites de contenu massif, optimiser cette fréquence devient un levier SEO important pour s'assurer que les nouvelles pages sont prises en compte rapidement par Google.

Besoin d'un expert SEO ?

Passez de la théorie à la pratique. Discutons de votre stratégie de référencement naturel.

Réserver un appel stratégique