शुरुआती वेबमास्टरों के लिए वर्डप्रेस प्लगइन सेटिंग्स और खोज इंजन अनुकूलन के बारे में एक ब्लॉग। Yandex और Google में पृष्ठों की अनुक्रमणिका की जाँच करने का एक त्वरित तरीका अनुक्रमणिका के लिए सबमिट करें

अक्सर, Yandex में कोई नई साइट नहीं मिल पाती है। भले ही आप सर्च बार में इसका नाम टाइप करें। इसके कारण अलग-अलग हो सकते हैं. कभी-कभी खोज इंजनों को अभी तक पता ही नहीं चलता कि कोई नया संसाधन सामने आया है। यह पता लगाने के लिए कि क्या हो रहा है और समस्या का समाधान करने के लिए, आपको अपनी साइट को Yandex.Webmaster के साथ पंजीकृत करना होगा।

यांडेक्स में साइट इंडेक्सिंग क्या है?

सबसे पहले, आइए जानें कि खोज इंजन आम तौर पर नई साइटों या उनमें हुए परिवर्तनों के बारे में कैसे पता लगाते हैं। Yandex का एक विशेष प्रोग्राम है जिसे सर्च रोबोट कहा जाता है।यह रोबोट इंटरनेट पर सर्फ करता है और नए पेज ढूंढता है। कभी-कभी वह पुराने लोगों के पास जाकर देखता है कि उनमें कुछ नया तो नहीं आया है।

जब रोबोट को कोई उपयोगी पृष्ठ मिलता है, तो वह उसे अपने डेटाबेस में जोड़ देता है।इस डेटाबेस को सर्च इंडेक्स कहा जाता है। जब हम खोज में कुछ खोजते हैं, तो हमें इस डेटाबेस से साइटें दिखाई देती हैं। इंडेक्सिंग तब होती है जब रोबोट वहां नए दस्तावेज़ जोड़ता है।

एक रोबोट हर दिन पूरे इंटरनेट को क्रॉल नहीं कर सकता। उसके पास इसके लिए पर्याप्त शक्ति नहीं है. इसलिए, उसे मदद की ज़रूरत है - नए पेजों या पुराने पेजों में बदलावों के बारे में रिपोर्ट करने के लिए।

Yandex.Webmaster क्या है और इसकी आवश्यकता क्यों है?

Yandex.Webmaster Yandex की एक आधिकारिक सेवा है। आपको इसमें एक वेबसाइट जोड़नी होगी ताकि रोबोट को इसके अस्तित्व के बारे में पता चले। इसकी सहायता से संसाधन स्वामी (वेबमास्टर) यह साबित कर सकते हैं कि यह उनकी साइट है।

आप वेबमास्टर में भी देख सकते हैं:

  • रोबोट कब और कहाँ दाखिल हुआ;
  • उसने किन पृष्ठों को अनुक्रमित किया और किन को नहीं;
  • लोग कौन से कीवर्ड खोजते हैं?
  • क्या कोई तकनीकी त्रुटियाँ हैं?

इस सेवा के माध्यम से आप एक वेबसाइट स्थापित कर सकते हैं:क्षेत्र, माल की कीमतें निर्धारित करें, अपने संदेशों को चोरी से बचाएं। आप रोबोट से उन पेजों पर दोबारा जाने के लिए कह सकते हैं जहां आपने बदलाव किए हैं। Yandex.Webmaster https या किसी अन्य डोमेन पर जाना आसान बनाता है।

Yandex.Webmaster में नई वेबसाइट कैसे जोड़ें

वेबमास्टर पैनल पर जाएँ. "लॉगिन" पर क्लिक करें। आप वह लॉगिन और पासवर्ड दर्ज कर सकते हैं जिसका उपयोग आप यांडेक्स मेल में लॉग इन करने के लिए करते हैं।यदि आपके पास यह अभी तक नहीं है खाता, आपको रजिस्ट्रेशन करना होगा.

लॉग इन करने के बाद, आपको अतिरिक्त संसाधनों की सूची वाले एक पृष्ठ पर ले जाया जाएगा। यदि आपने पहले सेवा का उपयोग नहीं किया है, तो सूची खाली होगी। नया संसाधन जोड़ने के लिए, "+" बटन पर क्लिक करें।

अगले पृष्ठ पर, अपनी साइट का पता दर्ज करें और इसके अतिरिक्त होने की पुष्टि करें।

अंतिम चरण में आपको अपने अधिकारों की पुष्टि करने की आवश्यकता है- यांडेक्स को साबित करें कि आप मालिक हैं। इसे करने बहुत सारे तरीके हैं।

Yandex.Webmaster में किसी वेबसाइट के अधिकारों की पुष्टि कैसे करें

Yandex.Webmaster में अधिकारों की पुष्टि करने का सबसे आसान तरीका है साइट पर एक फ़ाइल जोड़ें. ऐसा करने के लिए, "HTML फ़ाइल" टैब पर क्लिक करें।

एक छोटी फ़ाइल डाउनलोड होगी.अब आपको इस फ़ाइल की आवश्यकता होगी, इसलिए इसे ऐसी जगह सहेजें जहां आप इसे देख सकें। उदाहरण के लिए, डेस्कटॉप पर. फ़ाइल का नाम न बदलें! इसमें कुछ भी बदलाव करने की जरूरत नहीं है.

अब इस फाइल को अपनी वेबसाइट पर अपलोड करें। आमतौर पर इसके लिए उपयोग किया जाता है फ़ाइल प्रबंधक, लेकिन उपयोगकर्ताओं को इसमें से कुछ भी करने की आवश्यकता नहीं है. बस बैक ऑफिस पर जाएं, "फ़ाइलें" पर क्लिक करें। फिर पृष्ठ के शीर्ष पर - "फ़ाइल जोड़ें"। वह फ़ाइल चुनें जिसे आपने पहले डाउनलोड किया था।

फिर Yandex.Webmaster पैनल पर वापस लौटें और "चेक" बटन पर क्लिक करें।पहुंच अधिकारों की सफलतापूर्वक पुष्टि करने के बाद, आपकी साइट जोड़े गए अधिकारों की सूची में दिखाई देगी। इस प्रकार, आपने Yandex.Webmaster को नई साइट के बारे में सूचित कर दिया है।

मेटा टैग Yandex.Webmaster

कभी-कभी ऊपर वर्णित विधि काम नहीं करती है, और मालिक वेबमास्टर में साइट के अधिकारों की पुष्टि नहीं कर सकते हैं। इस मामले में, आप दूसरी विधि आज़मा सकते हैं: टेम्पलेट में कोड की एक पंक्ति जोड़ें.

वेबमास्टर में "मेटा टैग" टैब पर जाएं. आपको एक पंक्ति दिखाई देगी जिसे HTML कोड में जोड़ना होगा।

उपयोगकर्ता तकनीकी सहायता से संपर्क कर सकते हैं और इस कोड को डालने के लिए कह सकते हैं। यह निःशुल्क पुनरीक्षण के भाग के रूप में किया जाएगा।

जब वे ऐसा करते हैं वेबमास्टर में, "चेक" बटन पर क्लिक करें. बधाई हो, आपने अपनी साइट को एक खोज इंजन में पंजीकृत कर लिया है!

Yandex.Webmaster का प्रारंभिक सेटअप

साइट को खोज में जोड़ दिया गया है, अब रोबोट निश्चित रूप से आपके पास आएगा और इसे अनुक्रमित करेगा। इसमें आमतौर पर 7 दिन तक का समय लगता है.

अपने साइटमैप में एक लिंक जोड़ें

रोबोट द्वारा संसाधन को तेजी से अनुक्रमित करने के लिए, वेबमास्टर में sitemap.xml फ़ाइल जोड़ें. इस फ़ाइल में संसाधन के सभी पृष्ठों के पते शामिल हैं।

ऑनलाइन स्टोर में यह फ़ाइल पहले से ही कॉन्फ़िगर है और इसे स्वचालित रूप से वेबमास्टर में जोड़ा जाना चाहिए। यदि ऐसा नहीं होता है, तो "अनुक्रमणिका" - "साइटमैप फ़ाइलें" अनुभाग में sitemap.xml का एक लिंक जोड़ें।

robots.txt जांचें

robots.txt फ़ाइल में उन पृष्ठों को इंगित करें जिन पर रोबोट को जाने की आवश्यकता नहीं है. ये कार्ट, चेकआउट, बैक ऑफिस और अन्य तकनीकी दस्तावेज़ हैं।

डिफ़ॉल्ट रूप से, यह robots.txt बनाता है, जिसे संशोधित करने की आवश्यकता नहीं है। बस किसी मामले में, हम रोबोट में त्रुटियों की जाँच करने की सलाह देते हैं। ऐसा करने के लिए, "टूल्स" - "रोबोट.txt का विश्लेषण" पर जाएँ।

साइट क्षेत्र सेट करें

"साइट सूचना" - "क्षेत्र" पृष्ठ पर, आप साइट का क्षेत्र निर्धारित कर सकते हैं। ऑनलाइन स्टोर के लिए, ये वे शहर, क्षेत्र और देश हैं जहां खरीदा गया सामान वितरित किया जाता है। यदि आपके पास कोई स्टोर नहीं है, बल्कि एक निर्देशिका या ब्लॉग है, तो यह क्षेत्र पूरी दुनिया होगी।

स्क्रीनशॉट में दिखाए अनुसार बिक्री क्षेत्र सेट करें:

वेबमास्टर और किस लिए उपयोगी है?

पेज पर " खोज क्वेरी» आप उन वाक्यांशों को देख सकते हैं जो खोज से आपके पास आते हैं।

"अनुक्रमणिका" अनुभाग इस बारे में जानकारी प्रदर्शित करता है कि रोबोट साइट पर कब था और उसे कितने पृष्ठ मिले। यदि आप इंस्टॉल करने और https पर स्विच करने का निर्णय लेते हैं तो "साइट मूविंग" उपधारा आपकी मदद करेगी। "पेज रीट्रैवर्सल" उपधारा भी अत्यंत उपयोगी है।इसमें आप रोबोट को उन पेजों के बारे में बता सकते हैं जिन पर जानकारी बदल गई है। फिर, आपकी अगली यात्रा पर, रोबोट पहले उन्हें अनुक्रमित करेगा।

"साइट सूचना" अनुभाग के "उत्पाद और मूल्य" पृष्ठ पर, आप अपने ऑनलाइन स्टोर के बारे में जानकारी प्रदान कर सकते हैं। ऐसा करने के लिए, संसाधन को YML प्रारूप में उत्पादों और कीमतों पर डेटा अपलोड करने के लिए कॉन्फ़िगर किया जाना चाहिए। पर सही सेटिंगकीमतें और डिलीवरी जानकारी उत्पाद पृष्ठों के खोज परिणामों में प्रदर्शित की जाएंगी।

यदि आप यांडेक्स सेवाओं में अपनी कंपनी की दृश्यता में सुधार करना चाहते हैं, तो आपको "उपयोगी सेवाएं" अनुभाग का उपयोग करना चाहिए। Yandex.Directory में, आप फ़ोन नंबर, अपने स्टोर का पता और खुलने का समय निर्दिष्ट कर सकते हैं।यह जानकारी सीधे यांडेक्स परिणामों में प्रदर्शित की जाएगी। यह आपको Yandex.Maps से भी जोड़ देगा।

Yandex.Metrica - इंटरनेट संसाधन के मालिक के लिए ट्रैफ़िक डेटा दिखाने वाला एक और महत्वपूर्ण उपकरण।साइट ट्रैफ़िक के आँकड़े और गतिशीलता विश्लेषण में आसान तालिकाओं, चार्ट और ग्राफ़ में प्रदर्शित किए जाते हैं।

Yandex.Webmaster और Yandex.Metrica सेवाओं से जुड़ने के बाद, आपको साइट की स्थिति और ट्रैफ़िक को प्रबंधित करने के लिए पर्याप्त मात्रा में जानकारी प्राप्त होगी। ये उन वेबसाइट मालिकों के लिए अपरिहार्य उपकरण हैं जो रूस में सबसे लोकप्रिय खोज इंजन में अपने संसाधनों को बढ़ावा देना चाहते हैं।

वेबसाइट प्रमोशन का अगला चरण हैएक समान सेवा सर्च कंसोल के माध्यम से। बस इतना ही, आपकी पदोन्नति के लिए शुभकामनाएँ!

साइट इंडेक्सिंग क्या है? यह कैसे होता है? आप इन और अन्य प्रश्नों के उत्तर लेख में पा सकते हैं। खोज इंजन में) एक खोज इंजन रोबोट द्वारा किसी साइट के बारे में जानकारी को डेटाबेस में जोड़ने की प्रक्रिया है, जिसका उपयोग बाद में ऐसी प्रक्रिया से गुजरने वाले वेब प्रोजेक्ट्स पर जानकारी खोजने के लिए किया जाता है।

वेब संसाधनों के बारे में डेटा अक्सर शामिल होता है कीवर्ड, लेख, लिंक, दस्तावेज़। ऑडियो, चित्र इत्यादि को भी अनुक्रमित किया जा सकता है। यह ज्ञात है कि कीवर्ड की पहचान करने का एल्गोरिदम सर्च डिवाइस पर निर्भर करता है।

अनुक्रमित जानकारी के प्रकार (फ़्लैश फ़ाइलें, जावास्क्रिप्ट) पर कुछ प्रतिबंध हैं।

समावेश प्रबंधन

किसी वेबसाइट को अनुक्रमित करना एक जटिल प्रक्रिया है। इसे प्रबंधित करने के लिए (उदाहरण के लिए, किसी विशेष पृष्ठ को शामिल करने पर रोक लगाना), आपको robots.txt फ़ाइल और अनुमति, अस्वीकृत, क्रॉल-विलंब, उपयोगकर्ता-एजेंट और अन्य जैसे विनियमों का उपयोग करने की आवश्यकता है।

टैग का उपयोग अनुक्रमण के लिए भी किया जाता है और सहारा , संसाधन की सामग्री को छिपाना गूगल रोबोटऔर यांडेक्स (याहू टैग का उपयोग करता है ).

गॉगल सर्च इंजन में, नई साइटों को कुछ दिनों से लेकर एक सप्ताह तक और यांडेक्स में - एक सप्ताह से चार सप्ताह तक अनुक्रमित किया जाता है।

क्या आप चाहते हैं कि आपकी साइट खोज इंजन परिणामों में दिखाई दे? फिर इसे रैम्बलर, यांडेक्स, गूगल, याहू इत्यादि द्वारा संसाधित किया जाना चाहिए। आपको खोज इंजनों (स्पाइडर्स, सिस्टम) को अपनी वेबसाइट के अस्तित्व के बारे में सूचित करना होगा, और फिर वे इसे पूरी तरह या आंशिक रूप से क्रॉल करेंगे।

कई साइटों को वर्षों से अनुक्रमित नहीं किया गया है। उन पर मौजूद जानकारी उनके मालिकों के अलावा किसी और द्वारा नहीं देखी जाती है।

प्रसंस्करण के तरीके

साइट अनुक्रमण कई तरीकों से किया जा सकता है:

  1. पहला विकल्प इसे मैन्युअल रूप से जोड़ना है। आपको खोज इंजनों द्वारा प्रस्तुत विशेष प्रपत्रों के माध्यम से अपना साइट डेटा दर्ज करना होगा।
  2. दूसरे मामले में, सर्च इंजन रोबोट स्वयं लिंक का उपयोग करके आपकी वेबसाइट ढूंढता है और उसे अनुक्रमित करता है। वह अन्य संसाधनों के लिंक का उपयोग करके आपकी साइट ढूंढ सकता है जो आपके प्रोजेक्ट तक ले जाता है। यह तरीका सबसे कारगर है. यदि कोई खोज इंजन इस तरह से कोई साइट पाता है, तो वह इसे महत्वपूर्ण मानता है।

समय सीमा

साइट अनुक्रमण बहुत तेज़ नहीं है. शर्तें अलग-अलग होती हैं, 1-2 सप्ताह तक। आधिकारिक संसाधनों से लिंक (उत्कृष्ट पीआर और स्तन के साथ) खोज इंजन डेटाबेस में साइट के प्लेसमेंट में काफी तेजी लाते हैं। आज गूगल को सबसे धीमा माना जाता है, हालाँकि 2012 तक वह यह काम एक हफ्ते में कर लेता था। दुर्भाग्य से, सब कुछ बहुत तेज़ी से बदल रहा है। ज्ञात हो कि Mail.ru इस क्षेत्र में वेबसाइटों के साथ लगभग छह महीने से काम कर रहा है।

प्रत्येक विशेषज्ञ किसी वेबसाइट को खोज इंजन में अनुक्रमित नहीं कर सकता। किसी साइट के डेटाबेस में नए पेज जोड़ने का समय जो पहले से ही खोज इंजन द्वारा संसाधित किया जा चुका है, उसकी सामग्री को अपडेट करने की आवृत्ति से प्रभावित होता है। यदि किसी संसाधन पर ताज़ा जानकारी लगातार दिखाई देती है, तो सिस्टम इसे बार-बार अद्यतन और लोगों के लिए उपयोगी मानता है। ऐसे में इसके काम में तेजी आ गई है.

आप वेबमास्टरों या खोज इंजनों के लिए विशेष अनुभागों में वेबसाइट अनुक्रमण की प्रगति की निगरानी कर सकते हैं।

परिवर्तन

इसलिए, हमने पहले ही पता लगा लिया है कि साइट को कैसे अनुक्रमित किया जाता है। यह ध्यान दिया जाना चाहिए कि खोज इंजन डेटाबेस अक्सर अद्यतन होते रहते हैं। इसलिए, आपके प्रोजेक्ट में जोड़े गए पृष्ठों की संख्या निम्नलिखित कारणों से बदल सकती है (या तो घट सकती है या बढ़ सकती है):

  • वेबसाइट के विरुद्ध खोज इंजन प्रतिबंध;
  • साइट पर त्रुटियों की उपस्थिति;
  • खोज इंजन एल्गोरिदम में परिवर्तन;
  • घृणित होस्टिंग (सर्वर की दुर्गमता जिस पर प्रोजेक्ट स्थित है) इत्यादि।

यांडेक्स सामान्य प्रश्नों के उत्तर देता है

यांडेक्स एक खोज इंजन है जिसका उपयोग कई उपयोगकर्ता करते हैं। संसाधित अनुसंधान अनुरोधों की संख्या के मामले में यह दुनिया में खोज प्रणालियों में पांचवें स्थान पर है। यदि आपने इसमें कोई साइट जोड़ी है, तो इसे डेटाबेस में जोड़ने में बहुत समय लग सकता है।

यूआरएल जोड़ने से यह गारंटी नहीं मिलती कि इसे अनुक्रमित किया जाएगा। यह उन तरीकों में से एक है जिसके द्वारा सिस्टम रोबोट को सूचित करता है कि एक नया संसाधन सामने आया है। यदि आपकी साइट पर अन्य साइटों से बहुत कम या कोई लिंक नहीं है, तो इसे जोड़ने से आपको इसे तेज़ी से खोजने में मदद मिलेगी।

यदि अनुक्रमण नहीं होता है, तो आपको यह जांचना होगा कि यांडेक्स रोबोट द्वारा अनुरोध बनाए जाने के समय सर्वर पर कोई विफलता थी या नहीं। यदि सर्वर किसी त्रुटि की रिपोर्ट करता है, तो रोबोट अपना काम समाप्त कर देगा और इसे व्यापक क्रॉल में पूरा करने का प्रयास करेगा। यांडेक्स कर्मचारी खोज इंजन डेटाबेस में पेज जोड़ने की गति नहीं बढ़ा सकते हैं।

Yandex में किसी साइट को अनुक्रमित करना एक कठिन कार्य है। आप नहीं जानते कि किसी खोज इंजन में संसाधन कैसे जोड़ें? यदि अन्य वेबसाइटों से इसके लिंक हैं, तो आपको साइट को विशेष रूप से जोड़ने की आवश्यकता नहीं है - रोबोट स्वचालित रूप से इसे ढूंढेगा और अनुक्रमित करेगा। यदि आपके पास ऐसे लिंक नहीं हैं, तो आप खोज इंजनों को यह बताने के लिए यूआरएल जोड़ें फॉर्म का उपयोग कर सकते हैं कि आपकी साइट मौजूद है।

यह याद रखना महत्वपूर्ण है कि URL जोड़ने से यह गारंटी नहीं मिलती कि आपकी रचना अनुक्रमित हो जाएगी (या कितनी जल्दी अनुक्रमित हो जाएगी)।

बहुत से लोग इस बात में रुचि रखते हैं कि यांडेक्स में किसी वेबसाइट को अनुक्रमित करने में कितना समय लगता है। इस कंपनी के कर्मचारी गारंटी नहीं देते या समय सीमा की भविष्यवाणी नहीं करते। एक नियम के रूप में, जब से रोबोट को साइट के बारे में पता चला है, उसके पृष्ठ दो दिनों के भीतर खोज में दिखाई देते हैं, कभी-कभी कुछ हफ़्ते के बाद।

प्रसंस्करण प्रक्रिया

यांडेक्स एक खोज इंजन है जिसके लिए सटीकता और ध्यान की आवश्यकता होती है। साइट अनुक्रमण में तीन भाग होते हैं:

  1. खोज रोबोट संसाधन पृष्ठों को क्रॉल करता है।
  2. साइट की सामग्री खोज प्रणाली के डेटाबेस (सूचकांक) में दर्ज की जाती है।
  3. 2-4 सप्ताह के बाद, डेटाबेस को अपडेट करने के बाद, आप परिणाम देख सकते हैं। आपकी साइट खोज परिणामों में दिखाई देगी (या दिखाई नहीं देगी)।

अनुक्रमण जांच

साइट इंडेक्सिंग कैसे जांचें? ऐसा करने के तीन तरीके हैं:

  1. खोज बार में अपने व्यवसाय का नाम दर्ज करें (उदाहरण के लिए, "यांडेक्स") और पहले और दूसरे पृष्ठ पर प्रत्येक लिंक की जांच करें। अगर आपको वहां अपने दिमाग की उपज का यूआरएल मिलता है, तो इसका मतलब है कि रोबोट ने अपना काम पूरा कर लिया है।
  2. आप सर्च बार में अपनी साइट का यूआरएल दर्ज कर सकते हैं। आप देख पाएंगे कि कितनी इंटरनेट शीट दिखाई गई हैं, यानी अनुक्रमित हैं।
  3. Mail.ru, Google, Yandex में वेबमास्टर्स पेज पर रजिस्टर करें। साइट सत्यापन पास करने के बाद, आप अपने संसाधन के प्रदर्शन को बेहतर बनाने के लिए बनाई गई अनुक्रमणिका और अन्य खोज इंजन सेवाओं के परिणाम देख पाएंगे।

यांडेक्स मना क्यों करता है?

Google में किसी साइट को अनुक्रमित करना निम्नानुसार किया जाता है: रोबोट साइट के सभी पृष्ठों को बिना चयन किए, निम्न-गुणवत्ता और उच्च-गुणवत्ता वाले डेटाबेस में दर्ज करता है। लेकिन रैंकिंग में केवल उपयोगी दस्तावेज़ ही शामिल किये जाते हैं। और यांडेक्स तुरंत सभी वेब जंक को बाहर कर देता है। यह किसी भी पेज को अनुक्रमित कर सकता है, लेकिन खोज इंजन अंततः सारा कचरा हटा देता है।

दोनों प्रणालियों में एक अतिरिक्त सूचकांक है। दोनों के लिए, निम्न-गुणवत्ता वाले पृष्ठ समग्र रूप से वेबसाइट की रैंकिंग को प्रभावित करते हैं। यहां एक सरल दर्शन काम कर रहा है। किसी विशेष उपयोगकर्ता के पसंदीदा संसाधन खोज परिणामों में उच्च रैंक पर होंगे। लेकिन इसी व्यक्ति को ऐसी साइट ढूंढने में कठिनाई होगी जो उसे पिछली बार पसंद नहीं आई थी।

इसीलिए सबसे पहले वेब दस्तावेज़ों की प्रतियों को अनुक्रमण से बचाना, खाली पृष्ठों की जाँच करना और निम्न-गुणवत्ता वाली सामग्री को वापस आने से रोकना आवश्यक है।

यांडेक्स को तेज़ करना

मैं यांडेक्स में साइट अनुक्रमण को कैसे तेज कर सकता हूं? निम्नलिखित चरणों का पालन किया जाना चाहिए:

मध्यवर्ती क्रियाएँ

जब तक वेब पेज Yandex द्वारा अनुक्रमित न हो जाए तब तक क्या करने की आवश्यकता है? एक घरेलू खोज इंजन को साइट को प्राथमिक स्रोत मानना ​​चाहिए। इसीलिए, किसी लेख को प्रकाशित करने से पहले उसकी सामग्री को "विशिष्ट पाठ" फॉर्म में जोड़ना अनिवार्य है। अन्यथा, साहित्यिक चोरी करने वाले प्रविष्टि को अपने संसाधन में कॉपी कर लेंगे और डेटाबेस में सबसे पहले पहुंच जाएंगे। अंततः वे ही लेखक के रूप में पहचाने जायेंगे।

गूगल डाटाबेस

निषेध

साइट अनुक्रमण प्रतिबंध क्या है? आप इसे या तो पूरे पृष्ठ पर या उसके एक अलग हिस्से (एक लिंक या पाठ का एक टुकड़ा) पर लागू कर सकते हैं। वास्तव में, वैश्विक अनुक्रमण प्रतिबंध और स्थानीय प्रतिबंध दोनों हैं। इसे कैसे क्रियान्वित किया जाता है?

आइए robots.txt में खोज इंजन डेटाबेस में किसी वेबसाइट को जोड़ने पर रोक लगाने पर विचार करें। robots.txt फ़ाइल का उपयोग करके, आप इस तरह से एक पृष्ठ या संपूर्ण संसाधन श्रेणी की अनुक्रमणिका को बाहर कर सकते हैं:

  1. उपयोगकर्ता एजेंट: *
  2. अस्वीकृत करें: /kolobok.html
  3. अस्वीकृत: /फोटो/

पहला बिंदु इंगित करता है कि निर्देश सभी उपप्रणालियों के लिए परिभाषित हैं, दूसरा इंगित करता है कि kolobok.html फ़ाइल का अनुक्रमण निषिद्ध है, और तीसरा फ़ोटो फ़ोल्डर की संपूर्ण सामग्री को डेटाबेस में जोड़ने की अनुमति नहीं देता है। यदि आपको कई पृष्ठों या फ़ोल्डरों को बाहर करने की आवश्यकता है, तो उन सभी को रोबोट में निर्दिष्ट करें।

किसी व्यक्तिगत इंटरनेट शीट की अनुक्रमणिका को रोकने के लिए, आप रोबोट मेटा टैग का उपयोग कर सकते हैं। यह robots.txt से इस मायने में भिन्न है कि यह सभी उपप्रणालियों को एक साथ निर्देश देता है। यह मेटा टैग इसका पालन करता है सामान्य सिद्धांतोंएचटीएमएल प्रारूप. इसे पृष्ठ शीर्षलेख में प्रतिबंध प्रविष्टि के बीच रखा जाना चाहिए, उदाहरण के लिए, इसे इस तरह लिखा जा सकता है: .

ajax

Yandex Ajax साइटों को कैसे अनुक्रमित करता है? आज, Ajax तकनीक का उपयोग कई वेब साइट डेवलपर्स द्वारा किया जाता है। बेशक, उसके पास बेहतरीन अवसर हैं। इसका उपयोग करके, आप तेज़ और उत्पादक इंटरैक्टिव वेब पेज बना सकते हैं।

हालाँकि, सिस्टम वेब शीट को उपयोगकर्ता और ब्राउज़र से अलग ढंग से "देखता" है। उदाहरण के लिए, एक व्यक्ति गतिशील रूप से भरी हुई इंटरनेट शीट के साथ एक आरामदायक इंटरफ़ेस को देखता है। एक खोज रोबोट के लिए, उसी पृष्ठ की सामग्री खाली हो सकती है या अन्य स्थिर HTML सामग्री के रूप में प्रस्तुत की जा सकती है, जिसके निर्माण के लिए स्क्रिप्ट का उपयोग नहीं किया जाता है।

Ajax साइटें बनाने के लिए, आप # वाले URL का उपयोग कर सकते हैं, लेकिन खोज इंजन रोबोट इसका उपयोग नहीं करता है। आमतौर पर यूआरएल के # के बाद वाले हिस्से को अलग कर दिया जाता है। इस पर गौर करने की जरूरत है. इसलिए, http://site.ru/#example जैसे URL के बजाय, वह http://site.ru पर स्थित संसाधन के मुख्य पृष्ठ पर अनुरोध करता है। इसका मतलब यह है कि इंटरनेट शीट की सामग्री डेटाबेस में शामिल नहीं की जा सकती है। परिणामस्वरूप, यह खोज परिणामों में दिखाई नहीं देगा.

अजाक्स साइटों की अनुक्रमणिका को बेहतर बनाने के लिए, यांडेक्स ने खोज रोबोट और ऐसी वेबसाइटों के यूआरएल को संसाधित करने के नियमों में बदलाव का समर्थन किया। आज, वेबमास्टर संसाधन संरचना में एक उपयुक्त योजना बनाकर यांडेक्स खोज इंजन को अनुक्रमण की आवश्यकता का संकेत दे सकते हैं। ऐसा करने के लिए आपको चाहिए:

  1. पेज यूआरएल में # चिन्ह को #! से बदलें। अब रोबोट समझ जाएगा कि वह इस इंटरनेट शीट के लिए सामग्री के HTML संस्करण का अनुरोध कर सकता है।
  2. ऐसे पृष्ठ की सामग्री का HTML संस्करण ऐसे URL पर रखा जाना चाहिए जहां #! द्वारा प्रतिस्थापित?_escaped_fragment_=.

अनुक्रमण क्या है? यह एक रोबोट द्वारा आपकी साइट के पृष्ठों की सामग्री प्राप्त करने और उस सामग्री को खोज परिणामों में शामिल करने की प्रक्रिया है। यदि हम संख्याओं को देखें, तो इंडेक्सिंग रोबोट के डेटाबेस में खरबों वेबसाइट पेज पते शामिल हैं। हर दिन रोबोट ऐसे अरबों पतों का अनुरोध करता है।

लेकिन इंटरनेट को अनुक्रमित करने की इस पूरी बड़ी प्रक्रिया को छोटे चरणों में विभाजित किया जा सकता है:


सबसे पहले, इंडेक्सिंग रोबोट को पता होना चाहिए कि आपकी साइट पर एक पेज दिखाई दिया है। उदाहरण के लिए, इंटरनेट पर अन्य पेजों को अनुक्रमित करके, लिंक ढूंढ़कर, या सेट नेम्प डाउनलोड करके। हमने पेज के बारे में सीखा, जिसके बाद हम इस पेज को क्रॉल करने, साइट के इस पेज का अनुरोध करने के लिए आपके सर्वर को डेटा भेजने, सामग्री प्राप्त करने और इसे खोज परिणामों में शामिल करने की योजना बना रहे हैं।

यह पूरी प्रक्रिया आपकी वेबसाइट के साथ इंडेक्सिंग रोबोट के आदान-प्रदान की प्रक्रिया है। यदि अनुक्रमण रोबोट द्वारा भेजे गए अनुरोध व्यावहारिक रूप से नहीं बदलते हैं, और केवल पृष्ठ पता बदलता है, तो रोबोट के पृष्ठ अनुरोध पर आपके सर्वर की प्रतिक्रिया कई कारकों पर निर्भर करती है:

  • आपकी सीएमएस सेटिंग से;
  • होस्टिंग प्रदाता सेटिंग्स से;
  • मध्यवर्ती प्रदाता के कार्य से.

यह उत्तर बस बदल रहा है. सबसे पहले, किसी पृष्ठ का अनुरोध करते समय, आपकी साइट से रोबोट को निम्नलिखित सेवा प्रतिक्रिया प्राप्त होती है:


ये HTTP हेडर हैं. उनमें विभिन्न सेवा जानकारी होती है जो रोबोट को यह समझने की अनुमति देती है कि अब कौन सी सामग्री प्रसारित की जाएगी।

मैं पहले हेडर पर ध्यान केंद्रित करना चाहूंगा - यह HTTP प्रतिक्रिया कोड है जो इंडेक्सिंग रोबोट को उस पेज की स्थिति बताता है जिसे रोबोट ने अनुरोध किया था।

ऐसी कई दर्जन HTTP कोड स्थितियाँ हैं:


मैं आपको सबसे लोकप्रिय लोगों के बारे में बताऊंगा। सबसे आम प्रतिक्रिया कोड HTTP-200 है। पृष्ठ उपलब्ध है, इसे अनुक्रमित किया जा सकता है, खोज परिणामों में शामिल किया जा सकता है, सब कुछ ठीक है।

इस स्थिति का विपरीत HTTP-404 है. पेज साइट पर नहीं है, अनुक्रमणिका के लिए कुछ भी नहीं है, और खोज में शामिल करने के लिए कुछ भी नहीं है। साइटों की संरचना बदलते समय और पते बदलते समय आंतरिक पृष्ठहम पुनर्निर्देशन के लिए 301 सर्वर स्थापित करने की अनुशंसा करते हैं। वह बस रोबोट की ओर इशारा करेगा पुराना पृष्ठएक नए पते पर स्थानांतरित कर दिया गया है और इसमें शामिल किए जाने की आवश्यकता है खोज के परिणामबिल्कुल नया पता.

यदि पृष्ठ की सामग्री पिछली बार किसी रोबोट द्वारा पृष्ठ पर आने के बाद से नहीं बदली है, तो HTTP-304 कोड वापस करना सबसे अच्छा है। रोबोट समझ जाएगा कि खोज परिणामों में पृष्ठों को अपडेट करने की कोई आवश्यकता नहीं है और सामग्री भी स्थानांतरित नहीं की जाएगी।

यदि आपकी साइट केवल थोड़े समय के लिए उपलब्ध है, उदाहरण के लिए, सर्वर पर कुछ काम करते समय, HTTP-503 को कॉन्फ़िगर करना सबसे अच्छा है। यह रोबोट को संकेत देगा कि साइट और सर्वर फिलहाल अनुपलब्ध हैं, आपको थोड़ी देर बाद वापस आना होगा। अल्पकालिक अनुपलब्धता की स्थिति में, यह पृष्ठों को खोज परिणामों से बाहर होने से रोकेगा।

इन HTTP कोड और पेज स्थितियों के अलावा, आपको सीधे पेज की सामग्री भी प्राप्त करनी होगी। यदि नियमित विज़िटर के लिए पृष्ठ इस तरह दिखता है:


ये चित्र, पाठ, नेविगेशन, सब कुछ बहुत सुंदर है, फिर अनुक्रमण रोबोट के लिए कोई भी पृष्ठ केवल स्रोत कोड, HTML कोड का एक सेट है:


विभिन्न मेटा टैग, टेक्स्ट सामग्री, लिंक, स्क्रिप्ट, सभी प्रकार की बहुत सारी जानकारी। रोबोट इसे एकत्र करता है और खोज परिणामों में शामिल करता है। ऐसा लगता है कि सब कुछ सरल है: उन्होंने एक पृष्ठ का अनुरोध किया, स्थिति प्राप्त की, सामग्री प्राप्त की, और इसे खोज में शामिल किया।

लेकिन यह अकारण नहीं है कि यांडेक्स खोज सेवा को वेबमास्टरों और साइट मालिकों से 500 से अधिक पत्र प्राप्त होते हैं जिनमें कहा गया है कि सर्वर की प्रतिक्रिया के साथ कुछ समस्याएं उत्पन्न हुई हैं।

इन सभी समस्याओं को दो भागों में बाँटा जा सकता है:

ये HTTP प्रतिक्रिया कोड के साथ समस्याएँ और पृष्ठों की प्रत्यक्ष सामग्री के साथ HTML कोड की समस्याएँ हैं। इन समस्याओं के बहुत सारे कारण हो सकते हैं। सबसे आम बात यह है कि इंडेक्सिंग रोबोट को होस्टिंग प्रदाता द्वारा ब्लॉक कर दिया जाता है।


उदाहरण के लिए, आपने एक वेबसाइट लॉन्च की, जोड़ा नया अनुभाग. रोबोट आपकी साइट पर अधिक बार आना शुरू कर देता है, जिससे सर्वर पर लोड बढ़ जाता है। होस्टिंग प्रदाता इसे अपनी निगरानी में देखता है, इंडेक्सिंग रोबोट को ब्लॉक कर देता है, और इसलिए रोबोट आपकी साइट तक नहीं पहुंच सकता है। आप अपने संसाधन पर जाएं - सब कुछ ठीक है, सब कुछ काम करता है, पृष्ठ सुंदर हैं, सब कुछ खुलता है, सब कुछ बढ़िया है, लेकिन रोबोट साइट को अनुक्रमित नहीं कर सकता है। यदि साइट अस्थायी रूप से अनुपलब्ध है, उदाहरण के लिए, यदि आप भुगतान करना भूल गए हैं डोमेन नाम, साइट कई दिनों से बंद है। रोबोट साइट पर आता है, यह पहुंच योग्य नहीं है, ऐसी स्थितियों में यह थोड़ी देर के बाद सचमुच खोज परिणामों से गायब हो सकता है।

गलत सीएमएस सेटिंग्स, उदाहरण के लिए, अपडेट करते समय या किसी अन्य सीएमएस पर स्विच करते समय, डिज़ाइन अपडेट करते समय, सेटिंग्स गलत होने पर आपकी साइट के पेज खोज परिणामों से गायब हो सकते हैं। उदाहरण के लिए, एक निषेधात्मक मेटा टैग की उपस्थिति सोर्स कोडसाइट पृष्ठ, विहित विशेषता की गलत सेटिंग। सुनिश्चित करें कि आपके द्वारा साइट पर किए गए सभी परिवर्तनों के बाद, पृष्ठ रोबोट के लिए पहुंच योग्य हों।

यांडेक्स टूल इसमें आपकी मदद करेगा। सर्वर प्रतिक्रिया की जाँच करने के लिए वेबमास्टर को:


आप देख सकते हैं कि आपका सर्वर रोबोट को कौन से HTTP हेडर और पेजों की सामग्री लौटाता है।


"अनुक्रमणिका" अनुभाग में आँकड़े शामिल हैं जहाँ आप देख सकते हैं कि कौन से पृष्ठ बाहर रखे गए हैं, इन संकेतकों में परिवर्तन की गतिशीलता, और विभिन्न सॉर्टिंग और फ़िल्टरिंग कर सकते हैं।


इसके अलावा, मैंने आज पहले ही इस अनुभाग, "साइट डायग्नोस्टिक्स" अनुभाग के बारे में बात की थी। यदि आपकी साइट किसी रोबोट के लिए अनुपलब्ध हो जाती है, तो आपको संबंधित अधिसूचना और अनुशंसाएं प्राप्त होंगी। इसे कैसे सुधारा जा सकता है? यदि ऐसी कोई समस्या उत्पन्न नहीं होती है, साइट पहुंच योग्य है, कोड 200 को पूरा करती है, और सही सामग्री रखती है, तो रोबोट शुरू होता है स्वचालित मोडउन सभी पृष्ठों पर जाएँ जिन्हें वह पहचानता है। इससे हमेशा वांछित परिणाम नहीं मिलते, इसलिए रोबोट की गतिविधियों को एक निश्चित तरीके से सीमित किया जा सकता है। इसके लिए एक robots.txt फ़ाइल है। हम इसके बारे में अगले भाग में बात करेंगे।

रोबोट.txt

robots.txt फ़ाइल स्वयं छोटी है सामग्री या लेख दस्तावेज़, यह साइट के रूट फ़ोल्डर में स्थित है और इसमें इंडेक्सिंग रोबोट के लिए सख्त नियम हैं जिनका साइट को क्रॉल करते समय पालन किया जाना चाहिए। robots.txt फ़ाइल का लाभ यह है कि इसका उपयोग करने के लिए आपको किसी विशेष या विशिष्ट ज्ञान की आवश्यकता नहीं है।

आपको बस नोटपैड खोलना है, कुछ प्रारूप नियम दर्ज करना है, और फिर फ़ाइल को सर्वर पर सहेजना है। एक दिन के भीतर ही रोबोट इन नियमों का उपयोग करना शुरू कर देता है।

यदि हम एक साधारण robots.txt फ़ाइल का उदाहरण लेते हैं, तो यह अगली स्लाइड पर है:


"उपयोगकर्ता-एजेंट:" निर्देश दिखाता है कि नियम किस रोबोट के लिए है, निर्देशों और सहायक साइटमैप और होस्ट निर्देशों को अनुमति/अस्वीकार करता है। थोड़ा सिद्धांत, मैं अभ्यास की ओर बढ़ना चाहूंगा।

कुछ महीने पहले मैं एक पेडोमीटर खरीदना चाहता था, इसलिए मैंने यांडेक्स का रुख किया। चुनाव में मदद के लिए बाज़ार। यांडेक्स के मुख्य पृष्ठ से यांडेक्स में ले जाया गया। बाजार और पहुंच गया होम पेजसेवा।


नीचे आप उस पृष्ठ का पता देख सकते हैं जिस पर मैं गया था। सेवा के पते ने साइट पर एक उपयोगकर्ता के रूप में मेरी पहचान भी जोड़ दी।

फिर मैं "कैटलॉग" अनुभाग पर गया


मैंने वांछित उपधारा का चयन किया और सॉर्टिंग पैरामीटर, मूल्य, फ़िल्टर, सॉर्ट करने का तरीका और निर्माता को कॉन्फ़िगर किया।

मुझे उत्पादों की एक सूची प्राप्त हुई, और पृष्ठ का पता पहले ही बढ़ चुका है।

मैं वांछित उत्पाद पर गया, "कार्ट में जोड़ें" बटन पर क्लिक किया और चेकआउट जारी रखा।

मेरी छोटी सी यात्रा के दौरान, पेज के पते एक निश्चित तरीके से बदल गए।


उनमें सेवा पैरामीटर जोड़े गए, जिन्होंने मुझे एक उपयोगकर्ता के रूप में पहचाना, सॉर्टिंग सेट की, और साइट के मालिक को संकेत दिया कि मैं साइट के इस या उस पेज पर कहां से आया हूं।

मुझे लगता है कि ऐसे पेज, सेवा पेज, खोज इंजन उपयोगकर्ताओं के लिए बहुत दिलचस्प नहीं होंगे। लेकिन यदि वे अनुक्रमण रोबोट के लिए उपलब्ध हैं, तो उन्हें खोज में शामिल किया जा सकता है, क्योंकि रोबोट अनिवार्य रूप से एक उपयोगकर्ता की तरह व्यवहार करता है।

वह एक पेज पर जाता है, एक लिंक देखता है जिस पर वह क्लिक कर सकता है, उस पर जाता है, डेटा को अपने रोबोट के डेटाबेस में लोड करता है और पूरी साइट को क्रॉल करना जारी रखता है। ऐसे पतों की इस श्रेणी में उपयोगकर्ताओं का व्यक्तिगत डेटा भी शामिल है, उदाहरण के लिए, जैसे डिलीवरी जानकारी या उपयोगकर्ताओं की संपर्क जानकारी।

स्वाभाविक रूप से, उन पर प्रतिबंध लगाना बेहतर है। robots.txt फ़ाइल बिल्कुल इसी में आपकी सहायता करेगी। आप आज शाम वेबमास्टर के अंत में अपनी वेबसाइट पर जा सकते हैं, क्लिक कर सकते हैं और देख सकते हैं कि वास्तव में कौन से पेज उपलब्ध हैं।

robots.txt की जाँच करने के लिए वेबमास्टर में एक विशेष उपकरण है:


आप डाउनलोड कर सकते हैं, पृष्ठ पते दर्ज कर सकते हैं, देख सकते हैं कि वे रोबोट के लिए सुलभ हैं या नहीं।


कुछ परिवर्तन करें, देखें कि रोबोट इन परिवर्तनों पर कैसे प्रतिक्रिया करता है।

robots.txt के साथ काम करते समय त्रुटियाँ

इस तरह के सकारात्मक प्रभाव के अलावा - सेवा पृष्ठों को बंद करना, robots.txt अगर गलत तरीके से संभाला जाए तो एक क्रूर मजाक भी खेल सकता है।

सबसे पहले, robots.txt का उपयोग करते समय सबसे आम समस्या वास्तव में आवश्यक साइट पेजों का बंद होना है, जिन्हें खोज में होना चाहिए और प्रश्नों के लिए दिखाया जाना चाहिए। इससे पहले कि आप robots.txt में बदलाव करें, यह जांचना सुनिश्चित करें कि जिस पेज को आप बंद करना चाहते हैं वह खोज क्वेरी के लिए दिखाई दे रहा है या नहीं। शायद कुछ मापदंडों वाला एक पृष्ठ खोज परिणामों में है और विज़िटर खोज से उस पर आते हैं। इसलिए, robots.txt का उपयोग करने और उसमें परिवर्तन करने से पहले जांच अवश्य कर लें।

दूसरे, यदि आपकी साइट सिरिलिक पते का उपयोग करती है, तो आप उन्हें robots.txt में इंगित नहीं कर पाएंगे प्रत्यक्ष रूप, उन्हें एन्कोड किया जाना चाहिए। चूँकि robots.txt एक अंतरराष्ट्रीय मानक है जिसका पालन सभी अनुक्रमण रोबोट करते हैं, इसलिए उन्हें निश्चित रूप से कोड करने की आवश्यकता होगी। सिरिलिक वर्णमाला को स्पष्ट रूप से निर्दिष्ट करना संभव नहीं है।

तीसरी सबसे लोकप्रिय समस्या विभिन्न खोज इंजनों के विभिन्न रोबोटों के लिए अलग-अलग नियम हैं। एक इंडेक्सिंग रोबोट के लिए, सभी इंडेक्सिंग पेज बंद थे, दूसरे के लिए, कुछ भी बंद नहीं था। इसके परिणामस्वरूप, एक खोज इंजन में सब कुछ ठीक है, वांछित पृष्ठ खोज में है, लेकिन दूसरे खोज इंजन में कचरा, विभिन्न कचरा पृष्ठ और कुछ और हो सकता है। यह सुनिश्चित करना सुनिश्चित करें कि यदि आप प्रतिबंध लगाते हैं, तो यह सभी अनुक्रमण रोबोटों के लिए किया जाना चाहिए।

चौथी सबसे लोकप्रिय समस्या क्रॉल-विलंब निर्देश का उपयोग है जब यह आवश्यक नहीं है। यह निर्देश आपको अनुक्रमण रोबोट से अनुरोधों की शुद्धता को प्रभावित करने की अनुमति देता है। यह एक व्यावहारिक उदाहरण है, एक छोटी वेबसाइट, इसे एक छोटी होस्टिंग पर रखा, सब कुछ ठीक है। हमने एक बड़ा कैटलॉग जोड़ा, रोबोट आया, कई नए पेज देखे, साइट को अधिक बार एक्सेस करना शुरू किया, लोड बढ़ाया, इसे डाउनलोड किया और साइट अप्राप्य हो गई। हम क्रॉल-विलंब निर्देश सेट करते हैं, रोबोट इसे देखता है, लोड कम करता है, सब कुछ ठीक है, साइट काम करती है, सब कुछ पूरी तरह से अनुक्रमित है, यह खोज परिणामों में है। कुछ समय बाद, साइट और भी बड़ी हो जाती है, एक नई होस्टिंग में स्थानांतरित हो जाती है जो बड़ी संख्या में अनुरोधों के साथ इन अनुरोधों से निपटने के लिए तैयार होती है, और वे क्रॉल-विलंब निर्देश को हटाना भूल जाते हैं। परिणामस्वरूप, रोबोट समझता है कि आपकी साइट पर बहुत सारे पेज दिखाई दिए हैं, लेकिन केवल स्थापित निर्देश के कारण उन्हें अनुक्रमित नहीं कर सकता है। यदि आपने कभी क्रॉल-विलंब निर्देश का उपयोग किया है, तो सुनिश्चित करें कि यह अब वहां नहीं है और आपकी सेवा इंडेक्सिंग रोबोट से लोड को संभालने के लिए तैयार है।


वर्णित कार्यक्षमता के अलावा, robots.txt फ़ाइल आपको दो बहुत महत्वपूर्ण कार्यों को हल करने की अनुमति देती है - साइट पर डुप्लिकेट से छुटकारा पाएं और मुख्य दर्पण का पता इंगित करें। यह वही है जिसके बारे में हम अगले भाग में बात करेंगे।

दोगुना हो जाता है


डुप्लिकेट से हमारा तात्पर्य एक ही साइट के कई पृष्ठों से है जिनमें बिल्कुल समान सामग्री होती है। सबसे आम उदाहरण पते के अंत में स्लैश वाले और बिना स्लैश वाले पृष्ठ हैं। साथ ही, डुप्लिकेट को विभिन्न श्रेणियों में एक ही उत्पाद के रूप में समझा जा सकता है।

उदाहरण के लिए, रोलर स्केट्स लड़कियों के लिए हो सकते हैं, लड़कों के लिए, एक ही मॉडल एक ही समय में दो खंडों में हो सकता है। और तीसरा, ये महत्वहीन पैरामीटर वाले पृष्ठ हैं। जैसा कि यांडेक्स के उदाहरण में है। बाज़ार इस पृष्ठ को "सत्र आईडी" के रूप में परिभाषित करता है; यह पैरामीटर सिद्धांत रूप में पृष्ठ की सामग्री को नहीं बदलता है।

डुप्लिकेट का पता लगाने और यह देखने के लिए कि रोबोट किन पेजों तक पहुंच रहा है, आप यांडेक्स का उपयोग कर सकते हैं। वेबमास्टर.


आँकड़ों के अलावा, उन पृष्ठों के पते भी हैं जिन्हें रोबोट ने डाउनलोड किया है। आप कोड और अंतिम कॉल देखें।

डुप्लिकेट से होने वाली समस्याएँ

डबल्स में इतना बुरा क्या है?

सबसे पहले, रोबोट साइट के बिल्कुल समान पृष्ठों तक पहुंचना शुरू कर देता है, जो न केवल आपके सर्वर पर अतिरिक्त भार पैदा करता है, बल्कि पूरी साइट के क्रॉलिंग को भी प्रभावित करता है। रोबोट डुप्लिकेट पृष्ठों पर ध्यान देना शुरू कर देता है, न कि उन पृष्ठों पर जिन्हें अनुक्रमित करने और खोज परिणामों में शामिल करने की आवश्यकता होती है।


दूसरी समस्या यह है कि डुप्लिकेट पृष्ठ, यदि वे रोबोट के लिए सुलभ हैं, तो खोज परिणामों में समाप्त हो सकते हैं और प्रश्नों के लिए मुख्य पृष्ठों के साथ प्रतिस्पर्धा कर सकते हैं, जो स्वाभाविक रूप से, कुछ प्रश्नों के लिए साइट को नकारात्मक रूप से प्रभावित कर सकता है।

आप डुप्लिकेट से कैसे निपट सकते हैं?

सबसे पहले, मैं "कैनोनिकल" टैग का उपयोग करने की अनुशंसा करता हूं रोबोट को मुख्य, विहित पृष्ठ पर इंगित करने के लिए, जिसे अनुक्रमित किया जाना चाहिए और खोज क्वेरी में पाया जाना चाहिए।

दूसरे मामले में, आप 301 सर्वर रीडायरेक्ट का उपयोग कर सकते हैं, उदाहरण के लिए, पते के अंत में स्लैश वाली और बिना स्लैश वाली स्थितियों के लिए। हमने पुनर्निर्देशन सेट किया है - कोई डुप्लिकेट नहीं है।


और तीसरा, जैसा कि मैंने पहले ही कहा, यह robots.txt फ़ाइल है। महत्वहीन मापदंडों से छुटकारा पाने के लिए आप इनकार निर्देश और क्लीन-परम निर्देश दोनों का उपयोग कर सकते हैं।

साइट दर्पण

दूसरा कार्य जो robots.txt आपको हल करने की अनुमति देता है वह है रोबोट को मुख्य दर्पण के पते पर इंगित करना।


मिरर साइटों का एक समूह है जो बिल्कुल समान हैं, डुप्लिकेट की तरह, केवल दो साइटें अलग हैं। वेबमास्टरों को आमतौर पर दो मामलों में दर्पण का सामना करना पड़ता है - जब वे एक नए डोमेन पर जाना चाहते हैं, या जब किसी उपयोगकर्ता को कई वेबसाइट पते उपलब्ध कराने की आवश्यकता होती है।

उदाहरण के लिए, आप जानते हैं कि जब उपयोगकर्ता एड्रेस बार में आपका पता या आपकी वेबसाइट का पता टाइप करते हैं, तो वे अक्सर वही गलती करते हैं - वे गलत वर्तनी, गलत अक्षर डालते हैं, या कुछ और करते हैं। आप उपयोगकर्ताओं को होस्टिंग प्रदाता से स्टब नहीं, बल्कि वह साइट दिखाने के लिए एक अतिरिक्त डोमेन खरीद सकते हैं जिस पर वे वास्तव में जाना चाहते थे।

आइए पहले बिंदु पर ध्यान केंद्रित करें, क्योंकि दर्पण के साथ काम करते समय सबसे अधिक समस्याएं इसी के साथ उत्पन्न होती हैं।

मैं आपको निम्नलिखित निर्देशों के अनुसार संपूर्ण स्थानांतरण प्रक्रिया को पूरा करने की सलाह देता हूं। एक छोटा निर्देश जो आपको नए डोमेन नाम पर जाने पर विभिन्न समस्याओं से बचने की अनुमति देगा:

सबसे पहले, आपको साइटों को इंडेक्सिंग रोबोट के लिए सुलभ बनाना होगा और उन पर बिल्कुल समान सामग्री डालनी होगी। यह भी सुनिश्चित करें कि रोबोट को साइटों के अस्तित्व के बारे में पता हो। सबसे आसान तरीका उन्हें Yandex में जोड़ना है। वेबमास्टर और उनके अधिकारों की पुष्टि करें।

दूसरे, होस्ट निर्देश का उपयोग करते हुए, रोबोट को मुख्य दर्पण के पते पर इंगित करें - जिसे अनुक्रमित किया जाना चाहिए और खोज परिणामों में होना चाहिए।

हम सभी संकेतकों को पुरानी साइट से नई साइट पर जोड़ने और स्थानांतरित करने की प्रतीक्षा कर रहे हैं।


जिसके बाद आप पुराने पते से नए पते पर पुनर्निर्देशन सेट कर सकते हैं। एक सरल निर्देश, यदि आप घूम रहे हैं तो इसका उपयोग अवश्य करें। मुझे आशा है कि इसमें कोई समस्या नहीं होगी
चलती।

लेकिन, स्वाभाविक रूप से, दर्पण के साथ काम करते समय त्रुटियां उत्पन्न होती हैं।

सबसे पहले, सबसे महत्वपूर्ण समस्या मुख्य दर्पण के पते पर अनुक्रमण रोबोट के लिए स्पष्ट निर्देशों की कमी है, वह पता जो खोज में होना चाहिए। अपनी साइटों पर जांचें कि क्या उनके robots.txt में एक होस्ट निर्देश है, और यह ठीक उसी पते की ओर इशारा करता है जिसे आप खोज में देखना चाहते हैं।

दूसरी सबसे लोकप्रिय समस्या दर्पणों के मौजूदा समूह में मुख्य दर्पण को बदलने के लिए पुनर्निर्देशन का उपयोग करना है। क्या हो रहा है? पुराना पता, चूंकि यह रीडायरेक्ट करता है, रोबोट द्वारा अनुक्रमित नहीं किया जाता है और खोज परिणामों से बाहर रखा जाता है। इस मामले में, नई साइट खोज में दिखाई नहीं देती है, क्योंकि यह मुख्य दर्पण नहीं है। आप ट्रैफ़िक खो देते हैं, आप विज़िटर खो देते हैं, मुझे लगता है कि किसी को इसकी आवश्यकता नहीं है।


और तीसरी समस्या चलते समय दर्पणों में से एक की दुर्गमता है। इस स्थिति में सबसे आम उदाहरण तब है जब उन्होंने साइट की सामग्री को एक नए पते पर कॉपी किया, लेकिन पुराना पता बस अक्षम कर दिया गया, उन्होंने डोमेन नाम के लिए भुगतान नहीं किया और यह अनुपलब्ध हो गया। स्वाभाविक रूप से, ऐसी साइटों का विलय नहीं किया जाएगा; उन्हें अनुक्रमण रोबोट के लिए पहुंच योग्य होना चाहिए।

कार्य में उपयोगी लिंक:

  • अधिक उपयोगी जानकारीआप Yandex.Help सेवा में पाएंगे।
  • वे सभी उपकरण जिनके बारे में मैंने बात की और उससे भी अधिक - Yandex.Webmaster का एक बीटा संस्करण है।

सवालों पर जवाब

"रिपोर्ट के लिए धन्यवाद। क्या robots.txt में रोबोट के लिए CSS फ़ाइलों की अनुक्रमणिका को अक्षम करना आवश्यक है या नहीं?

हम इस समय उन्हें बंद करने की अनुशंसा नहीं करते हैं. हां, सीएसएस और जावास्क्रिप्ट को छोड़ना बेहतर है, क्योंकि अब हम यह सुनिश्चित करने के लिए काम कर रहे हैं कि इंडेक्सिंग रोबोट आपकी साइट और शैलियों पर दोनों स्क्रिप्ट को पहचानना शुरू कर दे, और देखें कि एक विज़िटर एक नियमित ब्राउज़र से कैसे करता है।

"मुझे बताओ, यदि साइट यूआरएल पुराने और नए के लिए समान हैं, तो क्या यह सामान्य है?"

कोई बात नहीं। मूलतः, आप बस डिज़ाइन अपडेट करें, कुछ सामग्री जोड़ें।

“साइट में एक श्रेणी है और इसमें कई पृष्ठ शामिल हैं: उदाहरण के लिए, स्लैश, पृष्ठ 1, पृष्ठ 2, 10 तक। सभी पृष्ठों पर समान श्रेणी का पाठ है, और यह डुप्लिकेट निकला। क्या यह पाठ डुप्लिकेट होगा या इसे किसी तरह बंद कर दिया जाना चाहिए, दूसरे और आगे के पृष्ठों पर एक नया सूचकांक?

सबसे पहले, चूँकि पहले पृष्ठ पर पेजिनेशन और दूसरे पृष्ठ पर सामग्री आम तौर पर भिन्न होती है, इसलिए वे डुप्लिकेट नहीं होंगे। लेकिन आपको यह उम्मीद करनी होगी कि दूसरे, तीसरे और आगे के पृष्ठांकन पृष्ठ खोज में आ सकते हैं और कुछ प्रासंगिक क्वेरी के लिए दिखाई दे सकते हैं। पृष्ठांकन पृष्ठों में बेहतर, मैं विहित विशेषता का उपयोग करने की अनुशंसा करूंगा, सर्वोत्तम स्थिति में - उस पृष्ठ पर जिस पर सभी उत्पाद एकत्र किए जाते हैं ताकि रोबोट खोज में पृष्ठांकन पृष्ठों को शामिल न करे। लोग अक्सर पेजिनेशन के पहले पृष्ठ पर कैनोनिकल का उपयोग करते हैं। रोबोट दूसरे पेज पर आता है, उत्पाद देखता है, टेक्स्ट देखता है, पेज को खोज में शामिल नहीं करता है और इस विशेषता के कारण समझता है कि यह पहला पेजिनेशन पेज है जिसे खोज परिणामों में शामिल किया जाना चाहिए। कैनोनिकल का उपयोग करें, और पाठ को ही बंद कर दें, मुझे लगता है कि इसकी कोई आवश्यकता नहीं है।

स्रोत (वीडियो): साइट इंडेक्सिंग कैसे सेट करें- अलेक्जेंडर स्मिरनोव

मैगोमेड चेरबिज़ेव

कुल मिलाकर, यदि आपका संसाधन अच्छा है, अच्छी तरह से बनाया गया है, तो इसके अनुक्रमण में कोई समस्या नहीं होनी चाहिए। यदि साइट, हालांकि 100% नहीं, खोज इंजन की आवश्यकताओं को पूरा करती है - "लोगों के लिए", तो वे आपको देखकर प्रसन्न होंगे और जो कुछ भी नया जोड़ा जाएगा उसे अनुक्रमित करेंगे।

लेकिन जैसा भी हो, किसी साइट को बढ़ावा देने में पहला कदम उसे पीएस इंडेक्स में जोड़ना है। जब तक संसाधन को अनुक्रमित नहीं किया जाता, तब तक कुल मिलाकर प्रचार करने के लिए कुछ भी नहीं है, क्योंकि खोज इंजनों को इसके बारे में बिल्कुल भी पता नहीं चलेगा। इसलिए, इस लेख में मैं देखूंगा कि यांडेक्स में साइट इंडेक्सिंग क्या है और इंडेक्सिंग के लिए संसाधन कैसे सबमिट करें। मैं आपको यह भी बताऊंगा कि कैसे जांचें कि कोई साइट या एक अलग पेज यांडेक्स इंडेक्स में शामिल है या नहीं और यांडेक्स द्वारा इंडेक्सिंग को तेज करने के लिए क्या करना है।

यांडेक्स में किसी साइट को अनुक्रमित करने में रोबोट आपकी साइट के यांडेक्स खोज इंजन को क्रॉल करते हैं और सभी में प्रवेश करते हैं पन्ने खोलेंडेटाबेस के लिए. रूसी खोज इंजन स्पाइडर साइट के बारे में डेटा को डेटाबेस में जोड़ता है: इसके पृष्ठ, चित्र, वीडियो, दस्तावेज़ जो खोजने योग्य हैं। इसके अलावा, खोज बॉट लिंक और अन्य तत्वों को अनुक्रमित करने में लगा हुआ है जो विशेष टैग और फ़ाइलों द्वारा छिपे नहीं हैं।

किसी संसाधन को अनुक्रमित करने के मुख्य तरीके:

    मजबूर - आपको एक विशेष फॉर्म के माध्यम से साइट को यांडेक्स पर अनुक्रमणित करने के लिए जमा करना होगा।

    प्राकृतिक - खोज स्पाइडर वेबसाइट से लिंक करने वाले बाहरी संसाधनों से हटकर आपकी साइट को स्वतंत्र रूप से ढूंढने का प्रबंधन करता है।

यांडेक्स में किसी साइट को अनुक्रमित करने में लगने वाला समय हर किसी के लिए अलग-अलग होता है और कुछ घंटों से लेकर कई हफ्तों तक हो सकता है।

यह कई कारकों पर निर्भर करता है: Sitemap.xml में क्या मान हैं, संसाधन कितनी बार भरा जाता है, साइट का उल्लेख अन्य संसाधनों पर कितनी बार दिखाई देता है। अनुक्रमण प्रक्रिया चक्रीय है, इसलिए रोबोट (लगभग) समान समय अंतराल पर आपके पास आएगा। लेकिन किस आवृत्ति के साथ यह ऊपर वर्णित कारकों और विशिष्ट रोबोट पर निर्भर करता है।

स्पाइडर पूरी वेबसाइट (यदि यह छोटी है) या एक अलग अनुभाग (यह ऑनलाइन स्टोर या मीडिया पर लागू होता है) को अनुक्रमित कर सकता है। मीडिया और सूचना पोर्टल जैसे बार-बार अपडेट किए जाने वाले संसाधनों पर, यांडेक्स में त्वरित साइट अनुक्रमण के लिए तथाकथित तेज़ रोबोट मौजूद हैं।

कभी-कभी प्रोजेक्ट पर तकनीकी समस्याएं (या सर्वर के साथ समस्याएं) उत्पन्न हो सकती हैं; इस स्थिति में, साइट का यांडेक्स अनुक्रमण नहीं होगा, यही कारण है कि खोज इंजन निम्नलिखित परिदृश्य का सहारा ले सकता है:

  • डेटाबेस से अनअनुक्रमित पृष्ठों को तुरंत बाहर फेंक दें;
  • एक निश्चित समय के बाद संसाधन को पुनः अनुक्रमित करें;
  • उन पृष्ठों को सेट करें जिन्हें डेटाबेस से बाहर करने के लिए अनुक्रमित नहीं किया गया था, और यदि यह उन्हें पुन: अनुक्रमण के दौरान नहीं पाता है, तो इसे सूचकांक से बाहर कर दिया जाएगा।

यांडेक्स में साइट इंडेक्सिंग को कैसे तेज करें

यांडेक्स में अनुक्रमण को कैसे तेज करें यह विभिन्न वेबमास्टर मंचों पर एक सामान्य प्रश्न है। वास्तव में, पूरी साइट का जीवन अनुक्रमण पर निर्भर करता है: पीएस में संसाधन की स्थिति, उनसे ग्राहकों की संख्या, परियोजना की लोकप्रियता, लाभ, अंत में।

मैंने 10 विधियाँ तैयार की हैं जो मुझे आशा है कि आपके लिए उपयोगी होंगी। पहले पांच किसी संसाधन के निरंतर अनुक्रमण के लिए मानक हैं, और अगले पांच आपको यांडेक्स में आपकी साइट के अनुक्रमण को गति देने में मदद करेंगे:

    बुकमार्क करने की सेवाएँ;

    आरएसएस फ़ीड - आपके संसाधन से ग्राहकों के ईमेल और आरएसएस निर्देशिकाओं तक नई सामग्रियों का प्रसारण सुनिश्चित करेगा;

    लिंक एक्सचेंज - गुणवत्ता दाताओं से डूफ़ॉलो लिंक में स्थिर वृद्धि सुनिश्चित करेगा, यदि उन्हें सही ढंग से चुना गया है (सही ढंग से कैसे चयन करें);

    – यदि आपने अभी तक अपनी साइट को निर्देशिकाओं में पंजीकृत नहीं किया है, तो मैं आपको ऐसा करने की सलाह देता हूं। बहुत से लोग कहते हैं कि निर्देशिकाएँ बहुत पहले ही ख़त्म हो चुकी हैं या उनमें पंजीकरण करने से कोई साइट ख़त्म हो जाएगी - यह सच नहीं है। अधिक सटीक रूप से, यह पूर्ण सत्य नहीं है, यदि आप सभी निर्देशिकाओं में एक पंक्ति में पंजीकरण करते हैं, तो वास्तव में आपका संसाधन केवल इससे प्रभावित होगा। लेकिन भरोसे और अच्छे कैटलॉग के सही चयन से प्रभाव निस्संदेह होगा।

Yandex में साइट अनुक्रमण की जाँच करना

  • साइट और यूआरएल ऑपरेटर. यदि आप यांडेक्स में किसी साइट की अनुक्रमणिका की जांच करना चाहते हैं, तो आप मानक खोज इंजन ऑपरेटरों ..biz का उपयोग कर सकते हैं। (स्वाभाविक रूप से, मेरे डोमेन के बजाय, आपका)

  • आरडीएस बार. मैं इसे यांडेक्स में किसी पेज की अनुक्रमणिका जांचने का सबसे अच्छा और तेज़ तरीका मानता हूं। यह प्लगइन सभी लोकप्रिय ब्राउज़रों पर इंस्टॉल किया जा सकता है और यह तुरंत इंडेक्स में साइट पेजों की संख्या और उसमें विशिष्ट सामग्री की उपस्थिति के बारे में विस्तृत जानकारी प्रदान करेगा। इस एक्सटेंशन के साथ, आप सेवाओं या खोजों में मैन्युअल रूप से यूआरएल दर्ज करने में समय बर्बाद नहीं करेंगे। सामान्य तौर पर, मैं इसकी अनुशंसा करता हूं, आरडीएस बार बेहद सुविधाजनक है:
  • सेवा सर्पेंट. एक बहुक्रियाशील संसाधन जिसके साथ आप किसी साइट का विश्लेषण कर सकते हैं: साइटों की प्रभावशीलता और निगरानी का आकलन करना, प्रतिस्पर्धियों के पृष्ठों का विश्लेषण करना, पदों की जांच करना और साइट अनुक्रमण। आप इस लिंक का उपयोग करके पेज इंडेक्सिंग निःशुल्क जांच सकते हैं: https://serphunt.ru/indexing/। बैच चेकिंग (50 पते तक) और परिणामों की उच्च विश्वसनीयता के लिए धन्यवाद, यह सेवा मेरी राय में तीन सर्वश्रेष्ठ में से एक है।

  • एक्सएसईओ सेवा। वेबमास्टर्स के लिए टूल का एक सेट, XSEO.in में आप Yandex में साइट इंडेक्सिंग देख सकते हैं। अपने संसाधन के बारे में बहुत सी अतिरिक्त उपयोगी जानकारी भी प्राप्त करें:

  • पीआर-सीवाई और सीवाई-पीआर सेवाएं। कुछ और सेवाएँ जो आपको अनुक्रमित पृष्ठों की कुल संख्या के बारे में जानकारी प्रदान करेंगी:

  • साइटरिपोर्ट सेवा। एक उत्कृष्ट सेवा जो साइट पर काम करते समय आपकी सभी गलतियों को इंगित करेगी। इसमें एक अनुभाग "इंडेक्सेशन" भी है, जहां साइट के प्रत्येक पृष्ठ के लिए जानकारी प्रस्तुत की जाएगी, यह दर्शाता है कि यह खोज इंजन में अनुक्रमित है या नहीं। यांडेक्स सिस्टमऔर गूगल. इसलिए, मैं उपयोग करने की सलाह देता हूं यह संसाधनसाइट पर समस्याओं का पता लगाने और यांडेक्स मास इंडेक्सिंग की जांच करने के लिए:

Google के साथ सब कुछ बहुत सरल है. आपको अपनी साइट को वेबमास्टर टूल्स में जोड़ना होगा https://www.google.com/webmasters/tools/, फिर जोड़ी गई साइट का चयन करें, इस प्रकार आप अपनी साइट के सर्च कंसोल में पहुंच जाएंगे। इसके बाद, बाएं मेनू में, "स्कैनिंग" अनुभाग चुनें, और इसमें "Googlebot के रूप में देखें" आइटम चुनें।

खुलने वाले पृष्ठ पर, खाली फ़ील्ड में, नए पृष्ठ का पता दर्ज करें जिसे हम जल्दी से अनुक्रमित करना चाहते हैं (साइट के पहले से दर्ज डोमेन नाम को ध्यान में रखते हुए) और दाईं ओर "क्रॉल" बटन पर क्लिक करें। हम तब तक प्रतीक्षा करते हैं जब तक कि पृष्ठ स्कैन न हो जाए और पहले से स्कैन किए गए पतों की तालिका के शीर्ष पर उसी तरह दिखाई न दे। इसके बाद, "अनुक्रमणिका में जोड़ें" बटन पर क्लिक करें।

हुर्रे, आपका नया पृष्ठ तुरंत Google द्वारा अनुक्रमित कर दिया गया है! कुछ ही मिनटों में आप इसे Google खोज परिणामों में ढूंढ पाएंगे।

यांडेक्स में पृष्ठों का तेजी से अनुक्रमण

में नया संस्करणवेबमास्टर टूल उपलब्ध हो गए समान उपकरणअनुक्रमणिका में नए पृष्ठ जोड़ने के लिए. तदनुसार, आपकी साइट को भी सबसे पहले Yandex Webmaster में जोड़ा जाना चाहिए। आप वेबमास्टर में वांछित साइट का चयन करके भी वहां पहुंच सकते हैं, फिर "अनुक्रमणिका" अनुभाग पर जाएं, "पेज री-क्रॉलिंग" आइटम का चयन करें। खुलने वाली विंडो में, उन नए पृष्ठों के पते दर्ज करें जिन्हें हम शीघ्रता से अनुक्रमित करना चाहते हैं (एक पंक्ति में एक लिंक के माध्यम से)।

Google के विपरीत, Yandex में अनुक्रमण अभी तुरंत नहीं होता है, लेकिन वह इसके लिए प्रयास कर रहा है। उपरोक्त क्रियाओं का उपयोग करके आप यांडेक्स रोबोट को इसके बारे में सूचित करेंगे नया पृष्ठ. और इसे आधे घंटे से एक घंटे के भीतर अनुक्रमित किया जाएगा - यह मेरा व्यक्तिगत अनुभव बताता है। शायद यांडेक्स में पेज इंडेक्सिंग की गति कई मापदंडों (आपके डोमेन, खाते और/या अन्य की प्रतिष्ठा) पर निर्भर करती है। ज्यादातर मामलों में, आप वहीं रुक सकते हैं।

यदि आप देखते हैं कि आपकी साइट के पेज यांडेक्स द्वारा खराब तरीके से अनुक्रमित हैं, यानी, इससे निपटने के तरीके पर कई सामान्य सिफारिशें हैं:

  • सबसे अच्छी, लेकिन कठिन भी, अनुशंसा यह है कि आप अपनी वेबसाइट पर यांडेक्स क्विकबॉट स्थापित करें। ऐसा करने के लिए, साइट पर प्रतिदिन ताज़ा सामग्री जोड़ने की सलाह दी जाती है। अधिमानतः 2-3 या अधिक सामग्री। इसके अलावा, उन्हें एक बार में नहीं, बल्कि थोड़ी देर के बाद जोड़ें, उदाहरण के लिए, सुबह, दोपहर और शाम को। लगभग समान प्रकाशन कार्यक्रम (नई सामग्री जोड़ने के लिए लगभग समान समय बनाए रखना) बनाए रखना और भी बेहतर होगा। इसके अलावा, कई लोग बनाने की सलाह देते हैं आरएसएस फीडसाइट ताकि खोज रोबोट सीधे इससे अपडेट पढ़ सकें।
  • स्वाभाविक रूप से, हर कोई इतनी मात्रा में साइट पर नई सामग्री जोड़ने में सक्षम नहीं होगा - यह अच्छा है यदि आप प्रति सप्ताह 2-3 सामग्री जोड़ सकते हैं। इस मामले में, आप वास्तव में यांडेक्स की गति के बारे में सपने नहीं देख सकते हैं, लेकिन अन्य तरीकों से इंडेक्स में नए पेज लाने का प्रयास करें। इनमें से सबसे प्रभावी उन्नत ट्विटर खातों पर नए पेजों के लिंक पोस्ट करना माना जाता है। का उपयोग करके विशेष कार्यक्रमट्विडियम अकाउंटर की तरह, आप अपने लिए आवश्यक ट्विटर खातों की संख्या को "बढ़ा" सकते हैं और, उनकी मदद से, खोज इंजन इंडेक्स में जल्दी से नए साइट पेज डाल सकते हैं। यदि आपके पास स्वयं अपग्रेड किए गए ट्विटर खातों के लिंक पोस्ट करने का अवसर नहीं है, तो आप विशेष एक्सचेंजों के माध्यम से ऐसे पोस्ट खरीद सकते हैं। आपके लिंक वाली एक पोस्ट की कीमत औसतन 3-4 रूबल और अधिक होगी (चयनित खाते की ताकत के आधार पर)। लेकिन ये विकल्प काफी महंगा होगा.
  • त्वरित अनुक्रमण के लिए तीसरा विकल्प http://getbot.guru/ सेवा का उपयोग करना है, जो केवल 3 रूबल के लिए आपको परिणामों की गारंटी के साथ वांछित प्रभाव प्राप्त करने में मदद करेगा। नए प्रकाशन जोड़ने के दुर्लभ शेड्यूल वाली साइटों के लिए उपयुक्त है। सस्ती दरें भी हैं. सेवा की वेबसाइट पर ही उनके विवरण और अंतर को देखना बेहतर है। व्यक्तिगत रूप से, मेरे पास सेवाएँ हैं इस सेवा कामैं एक अनुक्रमण त्वरक के रूप में इससे बहुत प्रसन्न हूं।

बेशक, आप सोशल बुकमार्क में नई पोस्ट भी जोड़ सकते हैं, जिससे सैद्धांतिक रूप से साइट को जल्दी से अनुक्रमित होने में भी मदद मिलेगी। लेकिन इस तरह के जोड़ की प्रभावशीलता आपके खातों के स्तर पर भी निर्भर करेगी। यदि आपकी उन पर बहुत कम गतिविधि है और आप खातों का उपयोग केवल ऐसे स्पैम के लिए करते हैं, तो व्यावहारिक रूप से कोई उपयोगी आउटपुट नहीं होगा।

पी.एस.व्यापक अनुभव के साथ हमेशा प्रासंगिक होता है - हमसे संपर्क करें!

विषय पर प्रकाशन