GoogleBot कुछ साइटों पर पर्याप्त पृष्ठ क्यों नहीं क्रॉल करता है

Google SEO ऑफिस आवर्स हैंगआउट में Google के जॉन म्यूएलर से पूछा गया कि Google ने पर्याप्त वेब पेजों को क्रॉल क्यों नहीं किया। प्रश्न पूछने वाले व्यक्ति ने बताया कि Google उस गति से रेंग रहा था जो एक बहुत बड़ी वेबसाइट के साथ तालमेल रखने के लिए अपर्याप्त थी। जॉन मुलर ने समझाया कि Google पर्याप्त पृष्ठों को क्रॉल क्यों नहीं कर रहा है।

Google क्रॉल बजट क्या है?

GoogleBot Google के क्रॉलर का नाम है जो वेब पेज से वेब पेज पर जाता है और रैंकिंग उद्देश्यों के लिए उन्हें अनुक्रमित करता है।

लेकिन चूंकि वेब बड़ा है, इसलिए Google के पास केवल उच्च गुणवत्ता वाले वेब पृष्ठों को अनुक्रमित करने की रणनीति है, न कि निम्न गुणवत्ता वाले वेब पृष्ठों को अनुक्रमित करने की।

विशाल वेबसाइटों के लिए Google के डेवलपर पृष्ठ के अनुसार (लाखों वेब पृष्ठों में):

“किसी साइट को क्रॉल करने के लिए Google जितना समय और संसाधन लगाता है, उसे सामान्यतः साइट का क्रॉल बजट कहा जाता है।

ध्यान दें कि जरूरी नहीं कि आपकी साइट पर क्रॉल की गई हर चीज को अनुक्रमित किया जाए; प्रत्येक पृष्ठ का मूल्यांकन, समेकित और मूल्यांकन यह निर्धारित करने के लिए किया जाना चाहिए कि क्रॉल किए जाने के बाद इसे अनुक्रमित किया जाएगा या नहीं।

क्रॉल बजट दो मुख्य तत्वों द्वारा निर्धारित किया जाता है: क्रॉल क्षमता सीमा और क्रॉल मांग।”

विज्ञापन

नीचे पढ़ना जारी रखें

GoogleBot क्रॉल बजट क्या तय करता है?

प्रश्न पूछने वाले के पास सैकड़ों हजारों पृष्ठों वाली एक साइट थी। लेकिन Google प्रति दिन केवल 2,000 वेब पेजों को क्रॉल कर रहा था, इतनी बड़ी साइट के लिए यह दर बहुत धीमी है।

प्रश्न पूछने वाले व्यक्ति ने निम्नलिखित प्रश्न का अनुसरण किया:

“क्या आपके पास मौजूदा क्रॉलिंग बजट में अंतर्दृष्टि प्राप्त करने के लिए कोई अन्य सलाह है?

सिर्फ इसलिए कि मुझे लगता है कि हम वास्तव में सुधार करने की कोशिश कर रहे हैं, लेकिन प्रतिदिन पृष्ठों में उछाल नहीं देखा है।”

Google के म्यूएलर ने उस व्यक्ति से पूछा कि साइट कितनी बड़ी है।

प्रश्न पूछने वाले ने उत्तर दिया:

“हमारी साइट सैकड़ों हजारों पृष्ठों में है।

और हमने देखा है कि प्रति दिन लगभग २,००० पृष्ठ क्रॉल किए जा रहे हैं, भले ही ६०,००० जैसे बैकलॉग की खोज की गई हो, लेकिन अभी तक अनुक्रमित या क्रॉल किए गए पृष्ठ नहीं हैं। ”

Google के जॉन मुलर ने उत्तर दिया:

“तो व्यवहार में, मुझे दो मुख्य कारण दिखाई देते हैं कि ऐसा क्यों होता है।

एक ओर यदि सर्वर काफी धीमा है, जो कि… प्रतिक्रिया समय है, तो मुझे लगता है कि आप इसे क्रॉल आँकड़े रिपोर्ट में भी देखते हैं।

यह एक ऐसा क्षेत्र है जहां अगर… जैसे कि अगर मुझे आपको एक नंबर देना है, तो मैं कहूंगा कि लक्ष्य 300, 400 मिलीसेकंड से कम है, औसतन कुछ ऐसा ही।

क्योंकि इससे हमें उतनी ही रेंगने की अनुमति मिलती है जितनी हमें जरूरत होती है।

यह पेज स्पीड तरह की चीज के समान नहीं है।

तो यह है… एक बात का ध्यान रखना।”

विज्ञापन

नीचे पढ़ना जारी रखें

साइट की गुणवत्ता GoogleBot क्रॉल बजट को प्रभावित कर सकती है

Google के जॉन म्यूएलर ने साइट की गुणवत्ता के मुद्दे का उल्लेख किया।

खराब साइट गुणवत्ता के कारण GoogleBot क्रॉलर किसी वेबसाइट को क्रॉल नहीं कर सकता है।

Google के जॉन मुलर ने समझाया:

“दूसरा बड़ा कारण है कि हम वेबसाइटों से बहुत अधिक क्रॉल नहीं करते हैं क्योंकि हम समग्र रूप से गुणवत्ता के बारे में आश्वस्त नहीं हैं।

तो यह कुछ ऐसा है जहां, विशेष रूप से नई साइटों के साथ, मैं देखता हूं कि हम कभी-कभी उससे संघर्ष करते हैं।

और मैं कभी-कभी लोगों को यह कहते हुए भी देखता हूं, तकनीकी रूप से एक लाख पृष्ठों वाली वेबसाइट बनाना संभव है क्योंकि हमारे पास एक डेटाबेस है और हम इसे केवल ऑनलाइन रखते हैं।

और बस ऐसा करने से, अनिवार्य रूप से एक दिन से अगले दिन तक हमें इनमें से बहुत सारे पृष्ठ मिलेंगे लेकिन हम जैसे होंगे, हम अभी तक इन पृष्ठों की गुणवत्ता के बारे में सुनिश्चित नहीं हैं।

और जब तक हम सुनिश्चित नहीं हो जाते कि गुणवत्ता वास्तव में अच्छी है, तब तक हम उन्हें क्रॉल करने और अनुक्रमित करने के बारे में थोड़ा अधिक सतर्क रहेंगे।”

Google द्वारा क्रॉल किए जाने वाले पृष्ठों की संख्या को प्रभावित करने वाले कारक

ऐसे अन्य कारक हैं जो Google द्वारा क्रॉल किए जाने वाले उन पृष्ठों की संख्या को प्रभावित कर सकते हैं जिनका उल्लेख नहीं किया गया था।

उदाहरण के लिए, किसी साझा सर्वर पर होस्ट की गई वेबसाइट Google को पर्याप्त तेज़ी से पृष्ठ प्रस्तुत करने में असमर्थ हो सकती है क्योंकि सर्वर पर अन्य साइटें हो सकती हैं जो अत्यधिक संसाधनों का उपयोग कर रही हैं, जो उस सर्वर पर अन्य हजारों साइटों के लिए सर्वर को धीमा कर रही हैं।

दूसरा कारण यह भी हो सकता है कि सर्वर को दुष्ट बॉट्स द्वारा स्लैम किया जा रहा है, जिससे वेबसाइट धीमी हो जाती है।

जॉन मुलर की सलाह है कि सर्वर जिस गति से वेब पेजों की सेवा कर रहा है, वह अच्छी है। रात में घंटों के बाद इसे जांचना सुनिश्चित करें क्योंकि Google जैसे कई क्रॉलर सुबह के घंटों में क्रॉल करेंगे क्योंकि आम तौर पर क्रॉल करने के लिए यह कम विघटनकारी समय होता है और उस समय साइटों पर कम साइट विज़िटर होते हैं।

उद्धरण

बड़ी साइटों के लिए क्रॉल बजट पर Google डेवलपर पृष्ठ पढ़ें:
आपका क्रॉल बजट प्रबंधित करने के लिए बड़े साइट स्वामी की मार्गदर्शिका

विज्ञापन

नीचे पढ़ना जारी रखें

Google के जॉन म्यूएलर को GoogleBot के बारे में प्रश्न का उत्तर देते हुए देखें कि वह पर्याप्त वेब पेजों को क्रॉल नहीं कर रहा है।

इसे लगभग २५:४६ मिनट के निशान पर देखें:

Related Posts

Leave a Reply

Your email address will not be published. Required fields are marked *