Un blog sur les paramètres du plugin WordPress et l'optimisation des moteurs de recherche pour les webmasters débutants. Un moyen rapide de vérifier l'indexation des pages dans Yandex et Google Submit pour l'indexation

Très souvent, un nouveau site est introuvable dans Yandex. Même si vous tapez son nom dans la barre de recherche. Les raisons peuvent être différentes. Parfois, les moteurs de recherche ne savent tout simplement pas encore qu’une nouvelle ressource est apparue. Pour comprendre ce qui se passe et résoudre le problème, vous devez enregistrer votre site auprès de Yandex.Webmaster.

Qu'est-ce que l'indexation de sites dans Yandex

Tout d'abord, voyons comment les moteurs de recherche découvrent généralement les nouveaux sites ou leurs modifications. Yandex dispose d'un programme spécial appelé robot de recherche. Ce robot surfe sur Internet et recherche de nouvelles pages. Parfois, il consulte les anciens et vérifie si quelque chose de nouveau y est apparu.

Lorsque le robot trouve une page utile, il l'ajoute à sa base de données. Cette base de données est appelée index de recherche. Lorsque nous recherchons quelque chose dans la recherche, nous voyons des sites de cette base de données. L'indexation, c'est lorsque le robot y ajoute de nouveaux documents.

Un robot ne peut pas explorer l’intégralité d’Internet chaque jour. Il n'a pas assez de puissance pour ça. Par conséquent, il a besoin d'aide - pour signaler les nouvelles pages ou les modifications apportées aux anciennes.

Qu'est-ce que Yandex.Webmaster et pourquoi est-il nécessaire ?

Yandex.Webmaster est un service officiel de Yandex. Vous devez y ajouter un site Web pour que le robot connaisse son existence. Avec son aide, les propriétaires de ressources (webmasters) peuvent prouver qu'il s'agit de leur site.

Vous pouvez également voir dans Webmaster :

  • quand et où le robot est entré ;
  • quelles pages il a indexées et lesquelles il ne l'a pas fait ;
  • Quels mots-clés les gens recherchent-ils ?
  • y a-t-il des erreurs techniques ?

Grâce à ce service, vous pouvez créer un site Web : définissez la région, les prix des marchandises, protégez vos textes du vol. Vous pouvez demander au robot de revisiter les pages sur lesquelles vous avez apporté des modifications. Yandex.Webmaster facilite le déplacement vers https ou un autre domaine.

Comment ajouter un nouveau site Web à Yandex.Webmaster

Accédez au panneau Webmaster. Cliquez sur "Connexion". Vous pouvez saisir le nom d'utilisateur et le mot de passe que vous utilisez pour vous connecter à la messagerie Yandex. Si vous ne l'avez pas encore compte, vous devrez vous inscrire.

Une fois connecté, vous serez redirigé vers une page avec une liste de ressources ajoutées. Si vous n'avez jamais utilisé le service auparavant, la liste sera vide. Pour ajouter une nouvelle ressource, cliquez sur le bouton « + ».

Sur la page suivante, saisissez l'adresse de votre site et confirmez son ajout.

À la dernière étape, vous devez confirmer vos droits- prouvez à Yandex que vous êtes le propriétaire. Il y a plusieurs moyens de le faire.

Comment confirmer les droits sur un site Web dans Yandex.Webmaster

Le moyen le plus simple de confirmer les droits dans Yandex.Webmaster est ajouter un fichier au site. Pour ce faire, cliquez sur l'onglet « Fichier HTML ».

Un petit fichier sera téléchargé. Vous aurez besoin de ce fichier maintenant, alors enregistrez-le dans un endroit où vous pourrez le voir. Par exemple, sur le bureau. Ne renommez pas le fichier ! Il n’est pas nécessaire d’y changer quoi que ce soit.

Téléchargez maintenant ce fichier sur votre site Web. Généralement utilisé pour cela gestionnaires de fichiers, Mais les utilisateurs n'ont rien à faire de tout cela. Rendez-vous simplement dans le back-office, cliquez sur « Fichiers ». Puis en haut de la page – « Ajouter un fichier ». Sélectionnez le fichier que vous avez téléchargé précédemment.

Revenez ensuite au panneau Yandex.Webmaster et cliquez sur le bouton « Vérifier ». Après avoir confirmé avec succès les droits d'accès, votre site apparaîtra dans la liste des sites ajoutés. Ainsi, vous avez informé Yandex.Webmaster du nouveau site.

Balise méta Yandex.Webmaster

Parfois, la méthode décrite ci-dessus ne fonctionne pas et les propriétaires ne peuvent pas confirmer les droits sur le site auprès du Webmaster. Dans ce cas, vous pouvez essayer une autre méthode : ajouter une ligne de code au modèle.

Dans Webmaster allez dans l'onglet "Meta Tag". Vous verrez une ligne qui doit être ajoutée au code HTML.

Les utilisateurs peuvent contacter le support technique et demander à insérer ce code. Cela se fera dans le cadre d’une révision gratuite.

Quand ils font ça dans Webmaster, cliquez sur le bouton « Vérifier ». Félicitations, vous avez enregistré votre site dans un moteur de recherche !

Configuration préliminaire de Yandex.Webmaster

Le site a été ajouté à la recherche, maintenant le robot viendra certainement vers vous et l'indexera. Cela prend généralement jusqu'à 7 jours.

Ajoutez un lien vers votre plan de site

Pour que le robot indexe la ressource plus rapidement, ajoutez le fichier sitemap.xml au webmaster. Ce fichier contient les adresses de toutes les pages de la ressource.

Les magasins en ligne ont déjà configuré ce fichier et doivent être ajoutés automatiquement au webmaster. Si cela ne se produit pas, ajoutez un lien vers sitemap.xml dans la section « Indexation » - « Fichiers du plan du site ».

Vérifiez le fichier robots.txt

Dans le fichier robots.txt indiquer les pages que le robot n'a pas besoin de visiter. Il s’agit du panier, du paiement, du back office et d’autres documents techniques.

Par défaut, il crée robots.txt, qui n'a pas besoin d'être modifié. Juste au cas où, nous vous recommandons de vérifier les erreurs dans les robots. Pour cela, allez dans « Outils » - « Analyse du fichier robots.txt ».

Définir la région du site

Sur la page « Informations sur le site » - « Région », vous pouvez définir la région du site. Pour les boutiques en ligne, il s'agit des villes, régions et pays où les produits achetés sont livrés. Si vous n’avez pas de magasin, mais un annuaire ou un blog, alors la région sera le monde entier.

Définissez la région de vente comme indiqué dans la capture d'écran :

À quoi d'autre le Webmaster est-il utile ?

Sur la page " Requêtes de recherche» vous pouvez voir les expressions qui vous viennent de la recherche.

La section « Indexation » affiche des informations sur le moment où le robot était sur le site et le nombre de pages qu'il a trouvées. La sous-section « Déplacement de site » vous aidera si vous décidez d'installer et de passer à https. La sous-section « Page Retraversal » est également extrêmement utile. Vous pouvez y indiquer au robot les pages sur lesquelles les informations ont changé. Ensuite, lors de votre prochaine visite, le robot les indexera en premier.

Sur la page « Produits et prix » de la section « Informations sur le site », vous pouvez fournir des informations sur votre boutique en ligne. Pour ce faire, la ressource doit être configurée pour télécharger des données sur les produits et les prix au format YML. À réglage correct Les prix et les informations de livraison seront affichés dans les résultats de recherche des pages produits.

Si vous souhaitez améliorer la visibilité de votre entreprise dans les services Yandex, vous devez utiliser la section « Services utiles ». Dans Yandex.Directory, vous pouvez spécifier le numéro de téléphone, l'adresse de votre magasin et les heures d'ouverture. Ces informations seront affichées directement dans les résultats Yandex. Cela vous ajoutera également à Yandex.Maps.

Yandex.Metrica - un autre outil important pour le propriétaire d'une ressource Internet, affichant les données de trafic. Les statistiques et la dynamique du trafic du site sont affichées dans des tableaux, tableaux et graphiques faciles à analyser.

Après vous être connecté aux services Yandex.Webmaster et Yandex.Metrica, vous recevrez une quantité suffisante d'informations pour gérer les positions et le trafic du site. Ce sont des outils indispensables pour les propriétaires de sites Web qui souhaitent promouvoir leurs ressources dans le moteur de recherche le plus populaire de Russie.

La prochaine étape dans la promotion d'un site Web est via un service similaire Search Console. C'est tout, bonne chance pour votre promotion !

Qu’est-ce que l’indexation de sites ? Comment ça se passe ? Vous pouvez trouver des réponses à ces questions et à d’autres dans l’article. dans les moteurs de recherche) est le processus d'ajout d'informations sur un site à une base de données par un robot de moteur de recherche, qui est ensuite utilisé pour rechercher des informations sur des projets Web ayant subi une telle procédure.

Les données sur les ressources Web consistent le plus souvent en mots clés, articles, liens, documents. L'audio, les images, etc. peuvent également être indexés. On sait que l'algorithme d'identification des mots-clés dépend du dispositif de recherche.

Il existe certaines restrictions sur les types d'informations indexées (fichiers flash, javascript).

Gestion de l'inclusion

L'indexation d'un site Web est un processus complexe. Pour le gérer (par exemple, interdire l'inclusion d'une page particulière), vous devez utiliser le fichier robots.txt et des réglementations telles que Autoriser, Interdire, Crawl-delay, User-agent et autres.

Les balises sont également utilisées pour l'indexation et accessoires , cachant le contenu de la ressource à Les robots Google et Yandex (Yahoo utilise la balise ).

Dans le moteur de recherche Goglle, les nouveaux sites sont indexés de quelques jours à une semaine, et dans Yandex, d'une semaine à quatre.

Voulez-vous que votre site apparaisse dans les résultats des moteurs de recherche ? Ensuite, il doit être traité par Rambler, Yandex, Google, Yahoo, etc. Vous devez informer les moteurs de recherche (spiders, systèmes) de l’existence de votre site Web, puis ils l’exploreront en tout ou en partie.

De nombreux sites ne sont pas indexés depuis des années. Les informations qu'ils contiennent ne sont vues par personne, à l'exception de leurs propriétaires.

Méthodes de traitement

L'indexation du site peut se faire de plusieurs manières :

  1. La première option consiste à l'ajouter manuellement. Vous devez saisir les données de votre site via des formulaires spéciaux proposés par les moteurs de recherche.
  2. Dans le second cas, le robot du moteur de recherche trouve lui-même votre site Web à l'aide de liens et l'indexe. Il peut trouver votre site à l'aide de liens provenant d'autres ressources qui mènent à votre projet. Cette méthode est la plus efficace. Si un moteur de recherche trouve un site de cette façon, il le considère comme important.

Délais

L'indexation du site n'est pas très rapide. Les conditions varient, de 1 à 2 semaines. Les liens provenant de ressources faisant autorité (avec d'excellents relations publiques et seins) accélèrent considérablement le placement du site dans la base de données des moteurs de recherche. Aujourd'hui, Google est considéré comme le plus lent, même si jusqu'en 2012, il pouvait faire ce travail en une semaine. Malheureusement, tout change très vite. On sait que Mail.ru travaille avec des sites Web dans ce domaine depuis environ six mois.

Tous les spécialistes ne peuvent pas indexer un site Internet dans les moteurs de recherche. Le moment de l'ajout de nouvelles pages à la base de données d'un site déjà traité par les moteurs de recherche est affecté par la fréquence de mise à jour de son contenu. Si de nouvelles informations apparaissent constamment sur une ressource, le système la considère fréquemment mise à jour et utile pour les utilisateurs. Dans ce cas, son travail est accéléré.

Vous pouvez suivre la progression de l'indexation du site Web dans des sections spéciales destinées aux webmasters ou sur les moteurs de recherche.

Changements

Nous avons donc déjà compris comment le site est indexé. Il convient de noter que les bases de données des moteurs de recherche sont fréquemment mises à jour. Par conséquent, le nombre de pages de votre projet qui y sont ajoutées peut changer (soit diminuer, soit augmenter) pour les raisons suivantes :

  • sanctions des moteurs de recherche contre le site Web ;
  • présence d'erreurs sur le site ;
  • changements dans les algorithmes des moteurs de recherche ;
  • hébergement dégueulasse (inaccessibilité du serveur sur lequel se trouve le projet) et j'en passe.

Yandex répond aux questions courantes

Yandex est un moteur de recherche utilisé par de nombreux utilisateurs. Il se classe au cinquième rang des systèmes de recherche au monde en termes de nombre de demandes de recherche traitées. Si vous y avez ajouté un site, l'ajout à la base de données peut prendre trop de temps.

L'ajout d'une URL ne garantit pas qu'elle sera indexée. Ce n'est qu'une des méthodes par lesquelles le système informe le robot qu'une nouvelle ressource est apparue. Si votre site contient peu ou pas de liens provenant d’autres sites, l’ajouter vous aidera à le découvrir plus rapidement.

Si l'indexation ne se produit pas, vous devez vérifier s'il y a eu des pannes sur le serveur au moment où la demande a été créée par le robot Yandex. Si le serveur signale une erreur, le robot mettra fin à son travail et tentera de le terminer lors d'une analyse complète. Les employés de Yandex ne peuvent pas augmenter la vitesse d'ajout de pages à la base de données du moteur de recherche.

Indexer un site dans Yandex est une tâche assez difficile. Vous ne savez pas comment ajouter une ressource à un moteur de recherche ? S'il existe des liens vers celui-ci provenant d'autres sites Web, vous n'avez pas besoin d'ajouter le site spécifiquement - le robot le trouvera et l'indexera automatiquement. Si vous ne disposez pas de tels liens, vous pouvez utiliser le formulaire Ajouter une URL pour indiquer aux moteurs de recherche que votre site existe.

Il est important de rappeler que l'ajout d'une URL ne garantit pas que votre création sera indexée (ni à quelle vitesse elle sera indexée).

De nombreuses personnes s'intéressent au temps nécessaire pour indexer un site Web dans Yandex. Les employés de cette entreprise ne donnent aucune garantie et ne prévoient pas de délais. En règle générale, depuis que le robot a découvert le site, ses pages apparaissent dans les recherches dans un délai de deux jours, parfois après quelques semaines.

Processus de traitement

Yandex est un moteur de recherche qui nécessite précision et attention. L'indexation du site se compose de trois parties :

  1. Le robot de recherche explore les pages de ressources.
  2. Le contenu du site est enregistré dans la base de données (index) du système de recherche.
  3. Après 2 à 4 semaines, après la mise à jour de la base de données, vous pouvez voir les résultats. Votre site apparaîtra (ou non) dans les résultats de recherche.

Contrôle d'indexation

Comment vérifier l'indexation d'un site ? Il existe trois façons de procéder :

  1. Entrez le nom de votre entreprise dans la barre de recherche (par exemple, « Yandex ») et vérifiez chaque lien sur la première et la deuxième page. Si vous y trouvez l'URL de votre idée, cela signifie que le robot a terminé sa tâche.
  2. Vous pouvez saisir l'URL de votre site dans la barre de recherche. Vous pourrez voir combien de fiches Internet sont affichées, c'est-à-dire indexées.
  3. Inscrivez-vous sur les pages des webmasters dans Mail.ru, Google, Yandex. Après avoir réussi la vérification du site, vous pourrez voir les résultats de l'indexation et d'autres services de moteur de recherche créés pour améliorer les performances de votre ressource.

Pourquoi Yandex refuse-t-il ?

L'indexation d'un site dans Google s'effectue de la manière suivante : le robot saisit dans la base de données toutes les pages du site, basse qualité et haute qualité, sans sélection. Mais seuls les documents utiles figurent dans le classement. Et Yandex exclut immédiatement tous les déchets Web. Il peut indexer n’importe quelle page, mais le moteur de recherche finit par éliminer toutes les ordures.

Les deux systèmes ont un index supplémentaire. Dans les deux cas, les pages de mauvaise qualité affectent le classement du site Web dans son ensemble. Il y a une philosophie simple à l’œuvre ici. Les ressources préférées d'un utilisateur particulier seront mieux classées dans les résultats de recherche. Mais ce même individu aura du mal à trouver un site qui ne lui a pas plu la dernière fois.

C'est pourquoi il est d'abord nécessaire de protéger les copies de documents Web contre l'indexation, de vérifier les pages vides et d'empêcher le renvoi de contenus de mauvaise qualité.

Accélérer Yandex

Comment puis-je accélérer l'indexation d'un site dans Yandex ? Les étapes suivantes doivent être suivies :

Actions intermédiaires

Que faut-il faire jusqu'à ce que la page Web soit indexée par Yandex ? Un moteur de recherche national devrait considérer le site comme la source principale. C'est pourquoi, avant même de publier un article, il est impératif d'ajouter son contenu dans le formulaire « Textes spécifiques ». Sinon, les plagiaires copieront l’entrée dans leur ressource et se retrouveront en premier dans la base de données. Au final, ils seront reconnus comme auteurs.

Base de données Google

Interdiction

Qu’est-ce qu’une interdiction d’indexation de site ? Vous pouvez l'appliquer soit à la page entière, soit à une partie distincte de celle-ci (un lien ou un morceau de texte). En fait, il existe à la fois une interdiction d’indexation mondiale et une interdiction locale. Comment cela est-il mis en œuvre ?

Envisageons d'interdire l'ajout d'un site Web à la base de données du moteur de recherche dans Robots.txt. À l'aide du fichier robots.txt, vous pouvez exclure l'indexation d'une page ou d'une catégorie de ressources entière comme ceci :

  1. Agent utilisateur: *
  2. Interdire : /kolobok.html
  3. Interdire : /foto/

Le premier point indique que les instructions sont définies pour tous les sous-systèmes, le second indique que l'indexation du fichier kolobok.html est interdite et le troisième ne permet pas d'ajouter l'intégralité du contenu du dossier foto à la base de données. Si vous devez exclure plusieurs pages ou dossiers, spécifiez-les tous dans Robots.

Afin d'empêcher l'indexation d'une feuille Internet individuelle, vous pouvez utiliser la balise méta robots. Il diffère de robots.txt en ce sens qu'il donne des instructions à tous les sous-systèmes à la fois. Cette balise méta obéit principes généraux format html. Il doit être placé dans l'en-tête de la page entre l'entrée Ban, par exemple, il pourrait être écrit comme ceci : .

Ajax

Comment Yandex indexe-t-il les sites Ajax ? Aujourd'hui, la technologie Ajax est utilisée par de nombreux développeurs de sites Web. Bien sûr, elle a de belles opportunités. En l'utilisant, vous pouvez créer des pages Web interactives rapides et productives.

Cependant, le système « voit » la feuille Web différemment de l’utilisateur et du navigateur. Par exemple, une personne regarde une interface confortable avec des feuilles Internet chargées de manière mobile. Pour un robot de recherche, le contenu d'une même page peut être vide ou présenté comme un autre contenu HTML statique, pour la génération duquel aucun script n'est utilisé.

Pour créer des sites Ajax, vous pouvez utiliser une URL avec #, mais le robot du moteur de recherche ne l'utilise pas. Habituellement, la partie de l'URL après le # est séparée. Cela doit être pris en compte. Par conséquent, au lieu d'une URL comme http://site.ru/#example, il fait une demande vers la page principale de la ressource située sur http://site.ru. Cela signifie que le contenu de la fiche Internet peut ne pas être inclus dans la base de données. Par conséquent, il n’apparaîtra pas dans les résultats de recherche.

Pour améliorer l'indexation des sites Ajax, Yandex a pris en charge les modifications du robot de recherche et des règles de traitement des URL de ces sites Web. Aujourd'hui, les webmasters peuvent indiquer au moteur de recherche Yandex la nécessité d'une indexation en créant un schéma approprié dans la structure des ressources. Pour ce faire, vous avez besoin de :

  1. Remplacez le symbole # dans l'URL de la page par #!. Le robot comprendra désormais qu'il peut demander une version HTML du contenu de cette fiche Internet.
  2. La version HTML du contenu d'une telle page doit être placée sur une URL où #! remplacé par?_escaped_fragment_=.

Qu’est-ce que l’indexation ? Il s'agit du processus par lequel un robot reçoit le contenu des pages de votre site et inclut ce contenu dans les résultats de recherche. Si l’on regarde les chiffres, la base de données du robot d’indexation contient des milliards d’adresses de pages de sites Web. Chaque jour, le robot demande des milliards de ces adresses.

Mais tout ce vaste processus d'indexation d'Internet peut être divisé en petites étapes :


Tout d’abord, le robot indexeur doit savoir qu’une page de votre site est apparue. Par exemple, en indexant d'autres pages sur Internet, en recherchant des liens ou en téléchargeant l'ensemble nemp. Nous avons pris connaissance de la page, après quoi nous prévoyons d'explorer cette page, d'envoyer des données à votre serveur pour demander cette page du site, de recevoir le contenu et de l'inclure dans les résultats de recherche.

L’ensemble de ce processus est le processus d’échange du robot d’indexation avec votre site Web. Si les requêtes envoyées par le robot d'indexation ne changent pratiquement pas et que seule l'adresse de la page change, alors la réponse de votre serveur à la requête de page du robot dépend de nombreux facteurs :

  • depuis les paramètres de votre CMS ;
  • à partir des paramètres de l'hébergeur ;
  • du travail du prestataire intermédiaire.

Cette réponse est en train de changer. Tout d'abord, lors de la demande d'une page, le robot de votre site reçoit la réponse de service suivante :


Ce sont des en-têtes HTTP. Ils contiennent diverses informations de service qui permettent au robot de comprendre quel contenu sera désormais transmis.

Je voudrais me concentrer sur le premier en-tête - il s'agit du code de réponse HTTP qui indique au robot d'indexation l'état de la page demandée par le robot.

Il existe plusieurs dizaines de ces statuts de code HTTP :


Je vais vous parler des plus populaires. Le code de réponse le plus courant est HTTP-200. La page est disponible, elle peut être indexée, incluse dans les résultats de recherche, tout va bien.

L'opposé de ce statut est HTTP-404. La page n'est pas sur le site, il n'y a rien à indexer et il n'y a rien à inclure dans la recherche. Lors de la modification de la structure des sites et du changement d'adresse pages internes Nous vous recommandons de configurer un serveur 301 pour les redirections. Il fera simplement remarquer au robot que ancienne page déménagé à une nouvelle adresse et doit être inclus dans Résultats de recherche exactement la nouvelle adresse.

Si le contenu de la page n'a pas changé depuis la dernière fois qu'un robot a visité la page, il est préférable de renvoyer un code HTTP-304. Le robot comprendra qu’il n’est pas nécessaire de mettre à jour les pages dans les résultats de recherche et que le contenu ne sera pas non plus transféré.

Si votre site n'est disponible que pendant une courte période, par exemple lors d'un travail sur le serveur, il est préférable de configurer HTTP-503. Il indiquera au robot que le site et le serveur sont actuellement indisponibles, il faudra y revenir un peu plus tard. En cas d'indisponibilité de courte durée, cela évitera que des pages soient exclues des résultats de recherche.

En plus de ces codes HTTP et statuts de page, vous devez également obtenir directement le contenu de la page elle-même. Si pour un visiteur régulier la page ressemble à ceci :


ce sont des images, du texte, de la navigation, tout est très beau, alors pour le robot indexeur n'importe quelle page n'est qu'un ensemble de code source, du code HTML :


Diverses balises méta, contenu textuel, liens, scripts, de nombreuses informations de toutes sortes. Le robot le collecte et l'inclut dans les résultats de recherche. Il semble que tout soit simple : ils ont demandé une page, reçu le statut, reçu le contenu et l'ont inclus dans la recherche.

Mais ce n’est pas pour rien que le service de recherche Yandex reçoit plus de 500 lettres de webmasters et de propriétaires de sites indiquant que certains problèmes sont survenus avec la réponse du serveur.

Tous ces problèmes peuvent être divisés en deux parties :

Il s'agit de problèmes avec le code de réponse HTTP et de problèmes avec le code HTML, avec le contenu direct des pages. Ces problèmes peuvent avoir de très nombreuses raisons. Le plus courant est que le robot d’indexation soit bloqué par l’hébergeur.


Par exemple, vous avez lancé un site Web, ajouté nouvelle rubrique. Le robot commence à visiter votre site plus souvent, augmentant ainsi la charge sur le serveur. L'hébergeur le voit sur sa surveillance, bloque le robot d'indexation et le robot ne peut donc pas accéder à votre site. Vous accédez à votre ressource - tout va bien, tout fonctionne, les pages sont belles, tout s'ouvre, tout va bien, mais le robot ne peut pas indexer le site. Si le site est temporairement indisponible, par exemple si vous avez oublié de payer Nom de domaine, le site est indisponible depuis plusieurs jours. Le robot arrive sur le site, il est inaccessible, dans de telles conditions il peut disparaître littéralement des résultats de recherche au bout d'un certain temps.

Des paramètres CMS incorrects, par exemple lors de la mise à jour ou du passage à un autre CMS, lors de la mise à jour du design, peuvent également entraîner la disparition de pages de votre site des résultats de recherche si les paramètres sont incorrects. Par exemple, la présence d'une balise méta d'interdiction dans code source pages du site, paramétrage incorrect de l'attribut canonique. Assurez-vous qu'après toutes les modifications que vous apportez au site, les pages sont accessibles au robot.

L'outil Yandex vous y aidera. Au webmaster pour vérifier la réponse du serveur :


Vous pouvez voir quels en-têtes HTTP votre serveur renvoie au robot et le contenu des pages elles-mêmes.


La section « indexation » contient des statistiques où vous pouvez voir quelles pages sont exclues, la dynamique d'évolution de ces indicateurs, et effectuer divers tris et filtrages.


D’ailleurs, j’ai déjà parlé de cette section aujourd’hui, la section « diagnostics du site ». Si votre site devient indisponible pour un robot, vous recevrez une notification et des recommandations correspondantes. Comment cela peut-il être résolu ? Si aucun problème de ce type ne survient, que le site est accessible, répond aux codes 200 et contient un contenu correct, alors le robot commence mode automatique visiter toutes les pages qu'il reconnaît. Cela n’entraîne pas toujours les conséquences souhaitées, c’est pourquoi les activités du robot peuvent être limitées d’une certaine manière. Il existe un fichier robots.txt pour cela. Nous en parlerons dans la section suivante.

Robots.txt

Le fichier robots.txt lui-même est petit Document texte, il se trouve dans le dossier racine du site et contient des règles strictes pour le robot d'indexation qui doivent être respectées lors de l'exploration du site. Les avantages du fichier robots.txt sont que vous n’avez besoin d’aucune connaissance particulière ou spécialisée pour l’utiliser.

Tout ce que vous avez à faire est d'ouvrir le Bloc-notes, de saisir certaines règles de format, puis de simplement enregistrer le fichier sur le serveur. En une journée, le robot commence à utiliser ces règles.

Si nous prenons un exemple de simple fichier robots.txt, le voici, juste sur la diapositive suivante :


La directive « User-Agent : » montre à quels robots la règle est destinée, en autorisant/refusant les directives et les directives auxiliaires Sitemap et Host. Un peu de théorie, j'aimerais passer à la pratique.

Il y a quelques mois, je voulais acheter un podomètre, alors je me suis tourné vers Yandex. Marché d'aide au choix. Déplacé de la page principale de Yandex vers Yandex. Marché et arrivé à page d'accueil service.


Ci-dessous vous pouvez voir l'adresse de la page à laquelle je suis allé. L'adresse du service lui-même a également ajouté mon identifiant en tant qu'utilisateur sur le site.

Puis je suis allé dans la rubrique « catalogue »


J'ai sélectionné la sous-section souhaitée et configuré les paramètres de tri, le prix, le filtre, la manière de trier et le fabricant.

J'ai reçu une liste de produits et l'adresse de la page a déjà augmenté.

Je suis allé sur le produit souhaité, j'ai cliqué sur le bouton « Ajouter au panier » et j'ai continué le paiement.

Au cours de mon court voyage, les adresses des pages ont changé d'une certaine manière.


Des paramètres de service y ont été ajoutés, qui m'identifiaient en tant qu'utilisateur, établissaient un tri et indiquaient au propriétaire du site d'où je venais sur telle ou telle page du site.

Je pense que de telles pages, pages de service, ne seront pas très intéressantes pour les utilisateurs des moteurs de recherche. Mais s’ils sont disponibles pour le robot indexeur, ils peuvent être inclus dans la recherche, puisque le robot se comporte essentiellement comme un utilisateur.

Il accède à une page, voit un lien sur lequel il peut cliquer, y accède, charge les données dans la base de données de son robot et continue cette exploration de l'ensemble du site. Cette catégorie de telles adresses comprend également les données personnelles des utilisateurs, telles que les informations de livraison ou les coordonnées des utilisateurs.

Naturellement, il vaut mieux les interdire. C’est exactement pour cela que le fichier robots.txt vous aidera. Vous pouvez aller sur votre site ce soir à la fin du Webmaster, cliquer, et voir quelles pages sont réellement disponibles.

Afin de vérifier le fichier robots.txt, il existe un outil spécial dans Webmaster :


Vous pouvez télécharger, saisir les adresses des pages, voir si elles sont accessibles au robot ou non.


Apportez quelques modifications, voyez comment le robot réagit à ces changements.

Erreurs lors de l'utilisation de robots.txt

En plus d'un tel effet positif - la fermeture des pages de service, robots.txt peut jouer une blague cruelle s'il est mal géré.

Premièrement, le problème le plus courant lors de l'utilisation de robots.txt est la fermeture des pages du site vraiment nécessaires, celles qui doivent être dans la recherche et affichées pour les requêtes. Avant d'apporter des modifications au fichier robots.txt, assurez-vous de vérifier si la page que vous souhaitez fermer apparaît pour les requêtes de recherche. Peut-être qu'une page avec certains paramètres se trouve dans les résultats de recherche et que les visiteurs y accèdent via la recherche. Par conséquent, assurez-vous de vérifier avant d’utiliser et d’apporter des modifications au fichier robots.txt.

Deuxièmement, si votre site utilise des adresses cyrilliques, vous ne pourrez pas les indiquer dans robots.txt forme directe, ils doivent être codés. Étant donné que robots.txt est une norme internationale que suivent tous les robots d'indexation, ils devront certainement être codés. Il n'est pas possible de spécifier explicitement l'alphabet cyrillique.

Le troisième problème le plus courant concerne les règles différentes pour les différents robots des différents moteurs de recherche. Pour un robot d'indexation, toutes les pages d'indexation étaient fermées, pour le second, rien n'était fermé du tout. En conséquence, tout va bien dans un moteur de recherche, la page souhaitée est dans la recherche, mais dans un autre moteur de recherche, il peut y avoir des déchets, diverses pages inutiles et autre chose. Assurez-vous que si vous définissez une interdiction, cela doit être fait pour tous les robots d'indexation.

Le quatrième problème le plus courant est l’utilisation de la directive Crawl-delay lorsqu’elle n’est pas nécessaire. Cette directive permet d'influencer la pureté des requêtes du robot d'indexation. Ceci est un exemple pratique, un petit site web, placé sur un petit hébergement, tout va bien. Nous avons ajouté un grand catalogue, le robot est venu, a vu un tas de nouvelles pages, a commencé à accéder au site plus souvent, a augmenté la charge, l'a téléchargé et le site est devenu inaccessible. On définit la directive Crawl-delay, le robot le voit, réduit la charge, tout va bien, le site fonctionne, tout est parfaitement indexé, c'est dans les résultats de recherche. Après un certain temps, le site s'agrandit encore, est transféré vers un nouvel hébergement prêt à faire face à ces demandes, avec un grand nombre de demandes, et ils oublient de supprimer la directive Crawl-delay. De ce fait, le robot comprend que de nombreuses pages sont apparues sur votre site, mais ne peut pas les indexer simplement à cause de la directive établie. Si vous avez déjà utilisé la directive Crawl-delay, assurez-vous qu'elle n'est pas là maintenant et que votre service est prêt à gérer la charge du robot d'indexation.


En plus de la fonctionnalité décrite, le fichier robots.txt vous permet de résoudre deux tâches très importantes : éliminer les doublons sur le site et indiquer l'adresse du miroir principal. C’est exactement ce dont nous parlerons dans la section suivante.

Double


Par doublons, nous entendons plusieurs pages d’un même site qui contiennent un contenu absolument identique. L'exemple le plus courant est celui des pages avec et sans barre oblique à la fin de l'adresse. En outre, un doublon peut être compris comme le même produit dans différentes catégories.

Par exemple, les patins à roulettes peuvent être destinés aux filles, pour les garçons, le même modèle peut être en deux sections à la fois. Et troisièmement, ce sont des pages avec un paramètre insignifiant. Comme dans l'exemple avec Yandex. Le marché définit cette page comme un « identifiant de session » ; ce paramètre ne modifie en principe pas le contenu de la page.

Pour détecter les doublons et voir à quelles pages le robot accède, vous pouvez utiliser Yandex. Webmestre.


En plus des statistiques, il existe également des adresses de pages téléchargées par le robot. Vous voyez le code et le dernier appel.

Problèmes causés par les duplications

Qu'y a-t-il de si mauvais dans les doubles ?

Premièrement, le robot commence à accéder à des pages absolument identiques du site, ce qui crée une charge supplémentaire non seulement sur votre serveur, mais affecte également l'exploration du site dans son ensemble. Le robot commence à prêter attention aux pages en double, et non aux pages qui doivent être indexées et incluses dans les résultats de recherche.


Le deuxième problème est que les pages en double, si elles sont accessibles au robot, peuvent se retrouver dans les résultats de recherche et entrer en concurrence avec les pages principales pour les requêtes, ce qui, naturellement, peut affecter négativement le site trouvé pour certaines requêtes.

Comment gérer les doublons ?

Tout d’abord, je recommande d’utiliser la balise « canonique » afin de diriger le robot vers la page principale canonique, qui doit être indexée et trouvée dans les requêtes de recherche.

Dans le second cas, vous pouvez utiliser une redirection de serveur 301, par exemple, pour les situations avec une barre oblique à la fin de l'adresse et sans barre oblique. Nous mettons en place une redirection - il n'y a pas de doublons.


Et troisièmement, comme je l'ai déjà dit, il s'agit du fichier robots.txt. Vous pouvez utiliser à la fois les directives de refus et la directive Clean-param pour supprimer les paramètres insignifiants.

Miroirs de sites

La deuxième tâche que robots.txt vous permet de résoudre est de pointer le robot vers l'adresse du miroir principal.


Les miroirs sont un groupe de sites absolument identiques, comme les doublons, seuls les deux sites sont différents. Les webmasters rencontrent généralement des miroirs dans deux cas : lorsqu'ils souhaitent passer à un nouveau domaine ou lorsqu'un utilisateur doit mettre à disposition plusieurs adresses de sites Web.

Par exemple, vous savez que lorsque les utilisateurs saisissent votre adresse ou l'adresse de votre site Web dans la barre d'adresse, ils font souvent la même erreur : ils orthographent mal, mettent le mauvais caractère ou autre chose. Vous pouvez acheter un domaine supplémentaire afin de montrer aux utilisateurs non pas un talon du fournisseur d'hébergement, mais le site auquel ils voulaient vraiment accéder.

Concentrons-nous sur le premier point, car c'est avec cela que les problèmes surviennent le plus souvent lorsque l'on travaille avec des miroirs.

Je vous conseille d'effectuer l'ensemble du processus de déménagement selon les instructions suivantes. Une petite instruction qui vous permettra d'éviter divers problèmes lors du passage à un nouveau nom de domaine :

Tout d'abord, vous devez rendre les sites accessibles au robot d'indexation et y placer un contenu absolument identique. Assurez-vous également que le robot connaît l'existence des sites. Le moyen le plus simple est de les ajouter à Yandex. Webmaster et confirmer les droits sur eux.

Deuxièmement, à l'aide de la directive Host, pointez le robot vers l'adresse du miroir principal - celui qui doit être indexé et figurer dans les résultats de recherche.

Nous attendons le collage et le transfert de tous les indicateurs de l'ancien site vers le nouveau.


Après quoi, vous pouvez configurer la redirection de l’ancienne adresse vers la nouvelle. Une instruction simple, si vous déménagez, veillez à l'utiliser. J'espère qu'il n'y aura pas de problèmes avec
en mouvement.

Mais naturellement, des erreurs surviennent lorsque l’on travaille avec des miroirs.

Tout d'abord, le problème le plus important est le manque d'instructions explicites pour le robot d'indexation sur l'adresse du miroir principal, l'adresse qui devrait figurer dans la recherche. Vérifiez sur vos sites qu'ils ont une directive hôte dans leur robots.txt, et qu'elle pointe exactement vers l'adresse que vous souhaitez voir dans la recherche.

Le deuxième problème le plus courant consiste à utiliser la redirection pour modifier le miroir principal dans un groupe de miroirs existant. Ce qui se passe? L'ancienne adresse, puisqu'elle redirige, n'est pas indexée par le robot et est exclue des résultats de recherche. Dans ce cas, le nouveau site n’apparaît pas dans la recherche, puisqu’il ne s’agit pas du miroir principal. Vous perdez du trafic, vous perdez des visiteurs, je pense que personne n’en a besoin.


Et le troisième problème est l'inaccessibilité de l'un des rétroviseurs lors du déplacement. L’exemple le plus courant dans cette situation est celui où ils ont copié le contenu du site vers une nouvelle adresse, mais que l’ancienne adresse a simplement été désactivée, ils n’ont pas payé pour le nom de domaine et celui-ci est devenu indisponible. Bien entendu, ces sites ne seront pas fusionnés, ils doivent être accessibles au robot d'indexation.

Liens utiles dans le travail :

  • Plus informations utiles vous trouverez dans le service Yandex.Help.
  • Tous les outils dont j'ai parlé et bien plus encore - il existe une version bêta de Yandex.Webmaster.

Réponses aux questions

"Merci pour le rapport. Est-il nécessaire de désactiver l'indexation des fichiers CSS du robot dans robots.txt ou non ?

Nous ne recommandons pas de les fermer pour le moment. Oui, il est préférable de laisser CSS et JavaScript, car nous travaillons maintenant pour garantir que le robot d'indexation commence à reconnaître à la fois les scripts et les styles de votre site, et à voir comment le visiteur se comporte à partir d'un navigateur classique.

« Dites-moi, si les URL des sites sont les mêmes pour l'ancien et le nouveau, est-ce normal ? »

C'est bon. Fondamentalement, vous mettez simplement à jour le design, ajoutez du contenu.

« Le site a une catégorie et il est composé de plusieurs pages : slash, page1, page2, jusqu'à 10 par exemple. Toutes les pages ont le même texte de catégorie, et il s'avère qu'il s'agit d'un double. Ce texte sera-t-il un doublon ou doit-il être fermé d'une manière ou d'une autre, avec un nouvel index sur la deuxième page et les suivantes ?

Tout d’abord, la pagination de la première page et le contenu de la deuxième page étant généralement différents, il ne s’agira pas de doublons. Mais vous devez vous attendre à ce que les deuxième, troisième et suivantes pages de pagination puissent entrer dans la recherche et apparaître pour une requête pertinente. Mieux dans les pages de pagination, je recommanderais d'utiliser l'attribut canonique, dans le meilleur des cas - sur la page sur laquelle tous les produits sont collectés afin que le robot n'inclue pas les pages de pagination dans la recherche. Les gens utilisent très souvent canonique sur la première page de la pagination. Le robot arrive à la deuxième page, voit le produit, voit le texte, n'inclut pas la page dans la recherche et comprend grâce à l'attribut que c'est la première page de pagination qui doit être incluse dans les résultats de recherche. Utilisez canonique et fermez le texte lui-même, je pense que ce n'est pas nécessaire.

Source (vidéo) : Comment configurer l'indexation du site- Alexandre Smirnov

Magomed Tcherbizhev

Dans l'ensemble, si votre ressource est bonne et bien conçue, son indexation ne devrait poser aucun problème. Si le site, bien que pas à 100 %, répond aux exigences des moteurs de recherche - « pour les gens », alors ils se feront un plaisir de vous examiner et d'indexer toutes les nouveautés qui seront ajoutées.

Quoi qu'il en soit, la première étape pour promouvoir un site est de l'ajouter à l'index PS. Tant que la ressource n'est pas indexée, il n'y a généralement rien à promouvoir, car les moteurs de recherche n'en seront pas du tout informés. Par conséquent, dans cet article, j'examinerai ce qu'est l'indexation de sites dans Yandex et comment soumettre une ressource pour l'indexation. Je vais également vous expliquer comment vérifier si un site ou une page distincte est inclus dans l'index Yandex et que faire pour accélérer l'indexation par Yandex.

L'indexation d'un site dans Yandex consiste pour les robots à explorer le moteur de recherche Yandex de votre site et à saisir tous pages ouvertesà la base de données. Le moteur de recherche russe ajoute des données sur le site à la base de données : ses pages, images, vidéos, documents consultables. En outre, le robot de recherche est engagé dans l'indexation des liens et d'autres éléments qui ne sont pas masqués par des balises et des fichiers spéciaux.

Les principales manières d'indexer une ressource :

    Forcé - vous devez soumettre le site pour indexation à Yandex via un formulaire spécial.

    Naturel : l'araignée de recherche parvient à trouver votre site de manière indépendante en s'appuyant sur des ressources externes qui renvoient au site Web.

Le temps nécessaire pour indexer un site dans Yandex est différent pour chacun et peut aller de quelques heures à plusieurs semaines.

Cela dépend de nombreux facteurs : quelles sont les valeurs dans Sitemap.xml, à quelle fréquence la ressource est remplie, à quelle fréquence les mentions du site apparaissent sur d'autres ressources. Le processus d'indexation est cyclique, le robot viendra donc vers vous à des intervalles de temps (presque) égaux. Mais la fréquence dépend des facteurs mentionnés ci-dessus et du robot spécifique.

L'araignée peut indexer l'intégralité du site Web (s'il est petit) ou une section distincte (cela s'applique aux magasins ou aux médias en ligne). Sur des ressources fréquemment mises à jour, telles que des portails de médias et d'informations, il existe des robots dits rapides pour une indexation rapide des sites dans Yandex.

Parfois, des problèmes techniques (ou des problèmes avec le serveur) peuvent survenir sur le projet ; dans ce cas, l'indexation Yandex du site n'aura pas lieu, c'est pourquoi le moteur de recherche peut recourir au scénario suivant :

  • jetez immédiatement les pages non indexées de la base de données ;
  • réindexer la ressource après un certain temps ;
  • définir les pages qui n'ont pas été indexées pour qu'elles soient exclues de la base de données, et s'il ne les trouve pas lors de la réindexation, elles seront exclues de l'index.

Comment accélérer l'indexation du site dans Yandex

Comment accélérer l'indexation dans Yandex est une question courante sur divers forums de webmasters. En fait, la vie de l'ensemble du site dépend de l'indexation : la position de la ressource dans le PS, le nombre de clients de celle-ci, la popularité du projet, le profit, au final.

J'ai préparé 10 méthodes qui, je l'espère, vous seront utiles. Les cinq premiers sont standard pour l'indexation constante d'une ressource, et les cinq suivants vous aideront à accélérer l'indexation de votre site dans Yandex :

    services de favoris;

    Flux RSS – assurera la diffusion des nouveaux contenus de votre ressource vers les e-mails et les répertoires RSS des abonnés ;

    échanges de liens - assureront une augmentation stable des liens dofollow provenant de donateurs de qualité, s'ils sont sélectionnés correctement (comment sélectionner correctement) ;

    – si vous n’avez pas encore inscrit votre site dans des annuaires, alors je vous conseille de le faire. Beaucoup de gens disent que les annuaires sont morts depuis longtemps ou que s'y inscrire tuerait un site - ce n'est pas vrai. Plus précisément, ce n’est pas toute la vérité, si vous vous inscrivez dans tous les répertoires d’affilée, alors en effet votre ressource n’en souffrira que. Mais avec la bonne sélection de confiance et de bons catalogues, l'effet sera sans aucun doute le même.

Vérification de l'indexation du site dans Yandex

  • Les opérateurs du site et des URL. Si vous souhaitez vérifier l'indexation d'un site dans Yandex, vous pouvez utiliser les opérateurs de moteur de recherche standard ..biz. (Naturellement, au lieu de mon domaine, le vôtre)

  • Barre RDS. Je considère que c'est le moyen le meilleur et le plus rapide de vérifier l'indexation d'une page dans Yandex. Ce plugin peut être installé sur tous les navigateurs populaires et fournira immédiatement des informations détaillées sur le nombre de pages du site dans l'index et la présence de matériel spécifique dans celui-ci. Avec cette extension, vous ne perdrez pas de temps à saisir manuellement les URL dans les services ou les recherches. De manière générale, je la recommande, la barre RDS est extrêmement pratique :
  • Serphant de service. Une ressource multifonctionnelle avec laquelle vous pouvez analyser un site : évaluer l'efficacité et le suivi des sites, analyser les pages des concurrents, vérifier les positions et l'indexation du site. Vous pouvez vérifier gratuitement l'indexation des pages en utilisant ce lien : https://serphunt.ru/indexing/. Grâce au contrôle par lots (jusqu'à 50 adresses) et à la grande fiabilité des résultats, ce service est à mon avis l'un des trois meilleurs.

  • Service XSEO. Un ensemble d'outils pour les webmasters, dans XSEO.in, vous pouvez consulter l'indexation du site dans Yandex. Obtenez également de nombreuses informations utiles supplémentaires sur votre ressource :

  • Prestations PR-CY et CY-PR. Quelques services supplémentaires qui vous fourniront des informations sur le nombre total de pages indexées :

  • Service de rapport de site. Un excellent service qui signalera toutes vos erreurs en travaillant sur le site. Il dispose également d'une section « Indexation », où seront présentées des informations pour chaque page du site, indiquant si elle est indexée ou non dans les moteurs de recherche. Systèmes Yandex et Google. Par conséquent, je recommande d'utiliser cette ressource pour détecter les problèmes sur le site et vérifier l'indexation de masse Yandex :

Avec Google, tout est très simple. Vous devez ajouter votre site aux outils pour les webmasters à l'adresse https://www.google.com/webmasters/tools/, puis sélectionnez le site ajouté, accédant ainsi à la Search Console de votre site. Ensuite, dans le menu de gauche, sélectionnez la section « Numérisation » et dans celle-ci l'élément « Afficher en tant que Googlebot ».

Sur la page qui s'ouvre, dans le champ vide, saisissez l'adresse de la nouvelle page que l'on souhaite indexer rapidement (en tenant compte du nom de domaine déjà renseigné du site) et cliquez sur le bouton « Explorer » à droite. On attend que la page soit numérisée et apparaisse en haut du tableau des adresses préalablement numérisées de la même manière. Ensuite, cliquez sur le bouton « Ajouter à l'index ».

Hourra, votre nouvelle page est instantanément indexée par Google ! En quelques minutes seulement, vous pourrez le trouver dans les résultats de recherche Google.

Indexation rapide des pages dans Yandex

DANS nouvelle version les outils pour les webmasters sont devenus disponibles outil similaire pour ajouter de nouvelles pages à l'index. En conséquence, votre site doit également d'abord être ajouté à Yandex Webmaster. Vous pouvez également y accéder en sélectionnant le site souhaité dans le webmaster, puis en vous rendant dans la rubrique « Indexation », sélectionner la rubrique « Page Re-Crawling ». Dans la fenêtre qui s'ouvre, saisissez les adresses des nouvelles pages que l'on souhaite indexer rapidement (via un lien sur une seule ligne).

Contrairement à Google, l'indexation dans Yandex ne se produit pas encore instantanément, mais elle essaie d'y parvenir. En utilisant les actions ci-dessus, vous informerez le robot Yandex de nouvelle page. Et il sera indexé dans une demi-heure à une heure - c'est ce que montre mon expérience personnelle. Peut-être que la vitesse d'indexation des pages dans Yandex dépend d'un certain nombre de paramètres (la réputation de votre domaine, de votre compte et/ou autres). Dans la plupart des cas, vous pouvez vous arrêter là.

Si vous constatez que les pages de votre site sont mal indexées par Yandex, c'est-à-dire qu'il existe plusieurs recommandations générales sur la façon de gérer ce problème :

  • La meilleure recommandation, mais aussi difficile, est d'installer le quickbot Yandex sur votre site Web. Pour ce faire, il est conseillé d'ajouter chaque jour du matériel frais sur le site. De préférence 2-3 matériaux ou plus. De plus, ne les ajoutez pas tous en même temps, mais après un certain temps, par exemple le matin, l'après-midi et le soir. Il serait encore mieux de maintenir à peu près le même calendrier de publication (maintenir à peu près le même temps pour l'ajout de nouveaux documents). De plus, beaucoup recommandent de créer flux RSS site afin que les robots de recherche puissent lire les mises à jour directement à partir de celui-ci.
  • Naturellement, tout le monde ne pourra pas ajouter de nouveaux matériaux au site dans de tels volumes - c'est bien si vous pouvez ajouter 2 à 3 matériaux par semaine. Dans ce cas, vous ne pouvez pas vraiment rêver de la vitesse de Yandex, mais essayez d'introduire de nouvelles pages dans l'index par d'autres moyens. Le plus efficace est de publier des liens vers de nouvelles pages vers des comptes Twitter mis à jour. En utilisant programmes spéciaux comme Twidium Accounter, vous pouvez « augmenter » le nombre de comptes Twitter dont vous avez besoin et, avec leur aide, insérer rapidement de nouvelles pages du site dans l'index du moteur de recherche. Si vous n'avez pas la possibilité de publier vous-même des liens vers des comptes Twitter mis à jour, vous pouvez acheter de tels messages via des échanges spéciaux. Une publication avec votre lien coûtera en moyenne 3 à 4 roubles et plus (en fonction de la solidité du compte sélectionné). Mais cette option coûtera assez cher.
  • La troisième option pour une indexation rapide consiste à utiliser le service http://getbot.guru/, qui, pour seulement 3 roubles, vous aidera à obtenir l'effet souhaité avec une garantie de résultats. Bien adapté aux sites avec un calendrier rare d'ajout de nouvelles publications. Il existe également des tarifs moins chers. Il est préférable de regarder leurs détails et leurs différences sur le site Internet du service lui-même. Personnellement, j'ai des services de ce service J'en suis très satisfait en tant qu'accélérateur d'indexation.

Bien sûr, vous pouvez également ajouter de nouvelles publications aux signets sociaux, ce qui, en théorie, devrait également aider le site à être indexé rapidement. Mais l’efficacité d’un tel ajout dépendra aussi du niveau de vos comptes. Si vous avez peu d'activité sur eux et que vous utilisez des comptes uniquement pour ce type de spam, il n'y aura pratiquement aucune sortie utile.

P.S. avec une vaste expérience est toujours pertinent - contactez-nous !

Publications sur le sujet