06 95 33 77 92
TRANSLATE with
x
English![]()
TRANSLATE with ![]()
Enable collaborative features and customize widget: Bing Webmaster Portal
TRANSLATE with
x
English![]()
TRANSLATE with ![]()
Enable collaborative features and customize widget: Bing Webmaster Portal
Découvrez l'art de maîtriser le marketing digital grâce à notre sélection de livres Votre passeport vers le succès
Internet est un univers virtuel en constante évolution avec plus de 1,1 milliard sites Internet.
Pensez-vous que Google peut explorer tous les sites Web du monde ?
Même avec toutes les ressources, l’argent et les centres de données dont dispose Google, il ne peut même pas explorer l’intégralité du Web, et il ne le souhaite pas non plus.
Qu’est-ce que le Crawl Budget, et est-ce important ?
Budget d’exploration fait référence au temps et aux ressources que Googlebot consacre à l’exploration des pages Web d’un domaine.
Il est important d’optimiser votre site afin que Google trouve votre contenu plus rapidement et indexe votre contenu, ce qui pourrait aider votre site à obtenir une meilleure visibilité et un meilleur trafic.
Si vous avez un gros site qui compte des millions de pages web, il est particulièrement important de bien gérer votre budget de crawl pour aider Google à crawler vos pages les plus importantes et mieux comprendre votre contenu.
Google indique que :
La demande d’exploration correspond à la quantité d’exploration que Google souhaite effectuer sur votre site Web. Les pages les plus populaires, c’est-à-dire une histoire populaire de CNN et les pages qui subissent des changements importants, seront davantage explorées.
Voici les 12 meilleurs conseils pour gérer le budget de crawl pour les grands et moyens sites avec 10 000 à des millions d’URL.
1. Déterminez quelles pages sont importantes et lesquelles ne doivent pas être explorées
Déterminez quelles pages sont importantes et quelles pages ne sont pas si importantes à explorer (et donc, Google visite moins fréquemment).
Une fois que vous avez déterminé cela grâce à l’analyse, vous pouvez voir quelles pages de votre site valent la peine d’être explorées et quelles pages de votre site ne valent pas la peine d’être explorées et les exclure de l’exploration.
Par exemple, Macys.com compte plus de 2 millions de pages indexées.
Googlebot peut décider qu’il ne vaut pas la peine d’examiner le reste de votre site ou d’augmenter votre budget de crawl. Sois sûr que À facettes la navigation et identifiants de session: sont bloqués via robots.txt
2. Gérer le contenu dupliqué
Alors que Google n’émet pas de pénalité pour avoir contenu dupliqué, vous souhaitez fournir à Googlebot des informations originales et uniques qui répondent aux besoins d’information de l’utilisateur final et qui sont pertinentes et utiles. Assurez-vous que vous utilisez le fichier robots.txt.
Google a déclaré de ne pas utiliser d’index, car il demandera toujours mais abandonnera ensuite.
3. Bloquez l’exploration d’URL sans importance à l’aide de Robots.txt et indiquez à Google quelles pages il peut explorer
Pour un site d’entreprise avec des millions de pages, Google recommande de bloquer l’exploration des URL sans importance à l’aide de robots.txt.
En outre, vous voulez vous assurer que vos pages importantes, les répertoires contenant votre contenu privilégié et les pages d’argent sont autorisés à être explorés par Googlebot et d’autres moteurs de recherche.
4. Longues chaînes de redirection
Gardez votre nombre de redirections à un petit nombre si vous le pouvez. Avoir trop de redirections ou de boucles de redirection peut perturber Google et réduire votre limite d’exploration.
Google déclare que de longues chaînes de redirection peuvent avoir un effet négatif sur l’exploration.
5. Utilisez HTML
L’utilisation de HTML augmente les chances qu’un robot d’exploration de n’importe quel moteur de recherche visite votre site Web.
Alors que Googlebots s’est amélioré en matière d’exploration et d’indexation de JavaScript, d’autres robots d’exploration de moteurs de recherche ne sont pas aussi sophistiqués que Google et peuvent avoir des problèmes avec d’autres langages autres que HTML.
6. Assurez-vous que vos pages Web se chargent rapidement et offrent une bonne expérience utilisateur
Faites en sorte que votre site soit optimisé pour Vitals Web de base.
Plus votre contenu se charge rapidement, c’est-à-dire en moins de trois secondes, plus Google peut fournir rapidement des informations aux utilisateurs finaux. S’ils l’aiment, Google continuera d’indexer votre contenu car votre site démontrera la santé de l’exploration de Google, ce qui peut augmenter votre limite d’exploration.
7. Ayez du contenu utile
Selon Google, le contenu est évalué en fonction de sa qualité, quel que soit son âge. Créez et mettez à jour votre contenu si nécessaire, mais il n’y a aucune valeur supplémentaire à faire apparaître artificiellement des pages fraîches en apportant des modifications insignifiantes et en mettant à jour la date de la page.
Si votre contenu répond aux besoins des utilisateurs finaux et, c’est-à-dire utile et pertinent, qu’il soit ancien ou nouveau n’a pas d’importance.
Si les utilisateurs ne trouvent pas votre contenu utile et pertinent, je vous recommande de mettre à jour et d’actualiser votre contenu pour qu’il soit frais, pertinent et utile et de le promouvoir via les réseaux sociaux.
Reliez également vos pages directement à la page d’accueil, qui peut être considérée comme plus importante et explorée plus souvent.
8. Méfiez-vous des erreurs de crawl
Si vous avez supprimé certaines pages de votre site, assurez-vous que l’URL renvoie un statut 404 ou 410 pour les pages supprimées définitivement. Un code d’état 404 est un signal fort pour ne pas explorer à nouveau cette URL.
Cependant, les URL bloquées resteront dans votre file d’attente d’exploration beaucoup plus longtemps et seront réexplorées lorsque le blocage sera supprimé.
Si votre site contient de nombreux Codes d’état de réponse HTTP 5xx (erreurs de serveur) ou les délais de connexion signalent le contraire, le crawl ralentit. Google recommande de prêter attention au rapport Crawl Stats dans la Search Console et de réduire au minimum le nombre d’erreurs de serveur.
Soit dit en passant, Google ne respecte pas ou n’adhère pas à la règle robots.txt non standard “crawl-delay”.
Même si vous utilisez l’attribut nofollow, la page peut toujours être explorée et gaspiller le budget d’exploration si une autre page de votre site, ou n’importe quelle page sur le Web, ne marque pas le lien comme nofollow.
9. Gardez les plans de site à jour
Les sitemaps XML sont importants pour aider Google à trouver votre contenu et peuvent accélérer les choses.
Il est extrêmement important de maintenir à jour les URL de votre sitemap, d’utiliser la balise pour le contenu mis à jour et de suivre les meilleures pratiques de référencement, y compris, mais sans s’y limiter, les suivantes.
10. Construire une bonne structure de site
Avoir un bonne structure du site est important pour vos performances SEO pour l’indexation et l’expérience utilisateur.
La structure du site peut affecter les résultats des pages de résultats des moteurs de recherche (SERP) de plusieurs manières, notamment l’exploration, le taux de clics et l’expérience utilisateur.
Avoir une structure claire et linéaire de votre site peut utiliser efficacement votre budget de crawl, ce qui aidera Googlebot à trouver tout contenu nouveau ou mis à jour.
Rappelez-vous toujours la règle des trois clics, c’est-à-dire que tout utilisateur doit pouvoir passer de n’importe quelle page de votre site à une autre en trois clics maximum.
11. Liens internes
Plus vous facilitez l’exploration et la navigation sur votre site pour les moteurs de recherche, plus les robots d’exploration peuvent identifier facilement votre structure, votre contexte et votre contenu important.
Le fait d’avoir des liens internes pointant vers une page Web peut informer Google que cette page est importante, aider à établir une hiérarchie des informations pour le site Web donné et peut aider à répartir l’équité des liens sur l’ensemble de votre site.
12. Surveillez toujours les statistiques de crawl
Examinez et surveillez toujours GSC pour voir si votre site rencontre des problèmes lors de l’exploration et recherchez des moyens de rendre votre exploration plus efficace.
Vous pouvez utiliser le Rapport sur les statistiques d’exploration pour voir si Googlebot rencontre des problèmes lors de l’exploration de votre site.
Si des erreurs ou des avertissements de disponibilité sont signalés dans GSC pour votre site, recherchez des instances dans le disponibilité de l’hôte graphiques où les requêtes Googlebot ont dépassé la ligne limite rouge, cliquez dans le graphique pour voir quelles URL ont échoué et essayez de corréler celles avec des problèmes sur votre site.
Aussi, vous pouvez utiliser le Outil d’inspection d’URL pour tester quelques URL sur votre site.
Si l’outil d’inspection d’URL renvoie des avertissements de charge de l’hôte, cela signifie que Googlebot ne peut pas explorer autant d’URL de votre site qu’il en a découvertes.
Emballer
L’optimisation du budget de crawl est cruciale pour les grands sites en raison de leur taille et de leur complexité.
Avec de nombreuses pages et un contenu dynamique, les robots des moteurs de recherche sont confrontés à des défis pour explorer et indexer efficacement et efficacement le contenu du site.
En optimisant votre budget d’exploration, les propriétaires de sites peuvent donner la priorité à l’exploration et à l’indexation des pages importantes et mises à jour, garantissant ainsi que les moteurs de recherche dépensent leurs ressources de manière judicieuse et efficace.
Ce processus d’optimisation implique des techniques telles que l’amélioration de l’architecture du site, la gestion des paramètres d’URL, la définition des priorités d’exploration et l’élimination du contenu en double, conduisant à une meilleure visibilité des moteurs de recherche, une expérience utilisateur améliorée et une augmentation du trafic organique pour les grands sites Web.
Davantage de ressources:
Image en vedette : BestForBest/Shutterstock
Source link
Nos services aux entreprises
Maintenance WordPress
147,00€ / moisRéférencement Google Maps
450,00€Tunnel de Vente
548,00€Contrat Influenceurs
70,00€Requêtes Google
127,00€500 Visites / Jour
197,00€Emails Influenceur
68,00€Ciblage Facebook & Instagram
180,00€ – 340,00€Liste Produits Gagnants
119,00€Migration Site Web
129,00€Rédaction Article SEO
75,00€ – 150,00€Template E-mail
37,00€Campagne Emailing
90,00€ – 239,00€Influenceurs Instagram
97,00€Mails Ciblés (Rgpd)
189,00€Campagne Google Ads
497,00€ – 749,00€Vidéo Whiteboard
139,00€ – 379,00€Logo Animation
79,00€Vidéo Animation
239,00€ – 649,00€Création VIdéo Produit
380,00€Retouche Vidéo
60,00€ – 300,00€Enregistrement Voix Off
149,00€Rédaction Fiche Produit
47,00€Backlinks
229,00€Problèmes & Bugs
89,00€Optimisation Web
497,00€Site E-commerce
1750,00€Site Vitrine
1499,00€Campagne Facebook Ads
995,00€Boutique Shopify
899,00€ – 1499,00€Flyer
89,00€Menu Bar / Restaurant
169,00€Brochure
139,00€Infographie
135,00€Bannière Animée
127,00€Logo Professionnel
289,00€Retouche Photo
67,00€Détourage Photo
24,00€Montage Photo
80,00€ – 140,00€Bannière Publicitaire
95,00€Référencement Naturel
799,00€ – 1290,00€Vector Conversion
35,00€