एसईओ और उन्हें कैसे उपयोग करने के लिए 8 उपयोगी अजगर पुस्तकालय

पायथन लाइब्रेरी एक मज़ेदार और सुलभ तरीका है जिसे सीखने और एसईओ के लिए पायथन का उपयोग करने के साथ शुरू करना है।

पायथन लाइब्रेरी उपयोगी कार्यों और कोड का एक संग्रह है जो आपको स्क्रैच से कोड लिखने की आवश्यकता के बिना कई कार्यों को पूरा करने की अनुमति देता है।

पायथन में उपयोग करने के लिए 100,000 से अधिक पुस्तकालय उपलब्ध हैं, जिनका उपयोग डेटा विश्लेषण से वीडियो गेम बनाने के कार्यों के लिए किया जा सकता है।

इस लेख में, आप एसईओ परियोजनाओं और कार्यों को पूरा करने के लिए मेरे द्वारा उपयोग किए गए कई अलग-अलग पुस्तकालयों को देखेंगे। ये सभी शुरुआती हैं और आपको आरंभ करने में मदद करने के लिए बहुत सारे दस्तावेज़ और संसाधन मिलेंगे।

क्यों पायथन पुस्तकालयों एसईओ के लिए उपयोगी हैं?

प्रत्येक पायथन लाइब्रेरी में सभी प्रकार के फ़ंक्शन (चर, शब्दकोश, ऑब्जेक्ट्स आदि) होते हैं, जिनका उपयोग विभिन्न कार्यों को करने के लिए किया जा सकता है।

विज्ञापन

नीचे पढ़ना जारी रखें

उदाहरण के लिए, एसईओ का उपयोग कुछ चीजों को स्वचालित करने, परिणामों की भविष्यवाणी करने और बुद्धिमान अंतर्दृष्टि प्रदान करने के लिए किया जा सकता है।

बस वेनिला पायथन के साथ काम करना संभव है, लेकिन पुस्तकालय हो सकते हैं कार्यों को बहुत आसान बनाने के लिए उपयोग किया जाता है और लिखने और पूरा करने के लिए तेज।

एसईओ कार्यों के लिए पायथन लाइब्रेरी

एसईओ कार्यों के लिए उपयोगी पायथन पुस्तकालयों की एक संख्या शामिल है डेटा विश्लेषण, वेब स्क्रैपिंग, और विज़ुअलाइज़िंग अंतर्दृष्टि।

यह एक संपूर्ण सूची नहीं है, लेकिन ये वे पुस्तकालय हैं जिन्हें मैं स्वयं एसईओ प्रयोजनों के लिए सबसे अधिक उपयोग कर रहा हूं।

पांडा

पंडों एक पायथन लाइब्रेरी है जिसका उपयोग टेबल डेटा के साथ काम करने के लिए किया जाता है। यह उच्च-स्तरीय डेटा हेरफेर के लिए अनुमति देता है जहां प्रमुख डेटा संरचना एक DataFrame है।

DataFrames Excel के समान हैं स्प्रेडशीटहालाँकि, वे पंक्ति और बाइट सीमा तक सीमित नहीं हैं और बहुत तेज़ और अधिक कुशल भी हैं।

पंडों के साथ आरंभ करने का सबसे अच्छा तरीका डेटा का एक सरल सीएसवी (उदाहरण के लिए आपकी वेबसाइट का एक क्रॉल) लेना है, और इसे पायथन के भीतर डेटाफ़्रेम के रूप में सहेजना है।

विज्ञापन

नीचे पढ़ना जारी रखें

एक बार जब आप इस पायथन में संग्रहीत हो जाते हैं, तो आप डेटा एकत्र करने, धुरी और सफाई सहित विभिन्न विश्लेषण कार्य कर सकते हैं।

उदाहरण के लिए, यदि मेरे पास अपनी वेबसाइट का पूरा क्रॉल है और वे केवल उन पृष्ठों को निकालना चाहते हैं जो कि अनुक्रमणिका हैं, तो मैं अपने डेटाफ़्रेम में केवल उन URL को शामिल करने के लिए एक अंतर्निहित पंडास फ़ंक्शन का उपयोग करूंगा।

import pandas as pd 
df = pd.read_csv('/Users/rutheverett/Documents/Folder/file_name.csv')
df.head
indexable = df[(df.indexable == True)]
indexable

अनुरोध

अगले पुस्तकालय को अनुरोध कहा जाता है और इसका उपयोग पायथन में HTTP अनुरोध करने के लिए किया जाता है।

अनुरोध, अनुरोध करने के लिए GET और POST जैसे विभिन्न अनुरोध विधियों का उपयोग करता है, जिसके परिणाम पायथन में संग्रहीत किए जाते हैं।

कार्रवाई में इसका एक उदाहरण URL का एक सरल GET अनुरोध है, इससे पृष्ठ का स्थिति कोड प्रिंट होगा:

import requests
response = requests.get('https://www.deepcrawl.com') print(response)

फिर आप इस परिणाम का उपयोग निर्णय लेने वाले फ़ंक्शन को बनाने के लिए कर सकते हैं, जहां 200 स्थिति कोड का अर्थ है कि पृष्ठ उपलब्ध है, लेकिन 404 का अर्थ है कि पृष्ठ नहीं मिला है।

if response.status_code == 200:
    print('Success!')
elif response.status_code == 404:
    print('Not Found.')

आप हेडर जैसे विभिन्न अनुरोधों का भी उपयोग कर सकते हैं, जो पृष्ठ के बारे में उपयोगी जानकारी जैसे कि सामग्री प्रकार या कब तक प्रतिक्रिया को कैश करने में ले गए।

headers = response.headers
print(headers)

response.headers['Content-Type']

एक विशिष्ट उपयोगकर्ता एजेंट को अनुकरण करने की क्षमता भी है, जैसे कि Googlebot, प्रतिक्रिया को निकालने के लिए यह विशिष्ट बॉट पृष्ठ को क्रॉल करते समय दिखाई देगा।

headers = {'User-Agent': 'Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)'} ua_response = requests.get('https://www.deepcrawl.com/', headers=headers) print(ua_response)

उपयोगकर्ता एजेंट प्रतिक्रिया

सुंदर सूप

सुंदर सूप एक पुस्तकालय है जिसका उपयोग HTML और XML फ़ाइलों से डेटा निकालने के लिए किया जाता है।

मजेदार तथ्य: ब्यूटीफुल लाइब्रेरी वास्तव में लुईस कैरोल द्वारा एलिसन्स एडवेंचर्स इन वंडरलैंड की कविता के नाम पर थी।

विज्ञापन

नीचे पढ़ना जारी रखें

लाइब्रेरी के रूप में, ब्यूटीफुल का उपयोग वेब फ़ाइलों की समझ बनाने के लिए किया जाता है और इसका उपयोग अक्सर वेब स्क्रैपिंग के लिए किया जाता है, क्योंकि यह HTML दस्तावेज़ को विभिन्न पायथन ऑब्जेक्ट्स में बदल सकता है।

उदाहरण के लिए, आप URL ले सकते हैं और पेज के शीर्षक को निकालने के लिए अनुरोध पुस्तकालय के साथ एक साथ सुंदर सूप का उपयोग कर सकते हैं।

from bs4 import BeautifulSoup 
import requests
url="https://www.deepcrawl.com" 
req = requests.get(url) 
soup = BeautifulSoup(req.text, "html.parser")
title = soup.title print(title)

सुंदर सूप शीर्षक

इसके अतिरिक्त, find_all पद्धति का उपयोग करते हुए, BeautifulSoup आपको एक पृष्ठ से कुछ तत्वों को निकालने में सक्षम बनाता है, जैसे कि पृष्ठ पर सभी href लिंक:

विज्ञापन

नीचे पढ़ना जारी रखें

url="https://www.deepcrawl.com/knowledge/technical-seo-library/" 
req = requests.get(url) 
soup = BeautifulSoup(req.text, "html.parser")

for link in soup.find_all('a'): 
    print(link.get('href'))

सुंदर सूप सभी लिंक

उनका साथ देना

इन तीन पुस्तकालयों का उपयोग एक साथ भी किया जा सकता है, पृष्ठ पर HTTP अनुरोध करने के लिए उपयोग किए जाने वाले अनुरोधों के साथ हम जानकारी निकालने के लिए सुंदरसौप का उपयोग करना चाहते हैं।

इसके बाद हम उस कच्चे डेटा को पंडों के डेटाफ़्रेम में और विश्लेषण करने के लिए बदल सकते हैं।

URL = 'https://www.deepcrawl.com/blog/'
req = requests.get(url)
soup = BeautifulSoup(req.text, "html.parser")

links = soup.find_all('a')

df = pd.DataFrame({'links':links})
df

माटप्लोटलिब और सीबोर्न

Matplotlib और Seaborn दो पायथन लाइब्रेरीज़ हैं जिनका उपयोग विज़ुअलाइज़ेशन बनाने के लिए किया जाता है।

Matplotlib आपको कई अलग-अलग डेटा विज़ुअलाइज़ेशन जैसे बार चार्ट, लाइन ग्राफ़, हिस्टोग्राम और यहां तक ​​कि हीटमैप बनाने की अनुमति देता है।

विज्ञापन

नीचे पढ़ना जारी रखें

उदाहरण के लिए, यदि मैं 30 दिनों की अवधि में सबसे अधिक लोकप्रियता के साथ प्रश्नों को प्रदर्शित करने के लिए कुछ Google रुझान डेटा लेना चाहता था, तो मैं इन सभी की कल्पना करने के लिए Matplotlib में एक बार चार्ट बना सकता हूं।

माटप्लोटलिब बार ग्राफ

मेटबॉटलिब पर बना सीबॉर्न, लाइन और बार ग्राफ़ के अलावा स्कैप्प्लेट्स, बॉक्स प्लॉट्स और वायलिन प्लॉट्स के रूप में और भी अधिक विज़ुअलाइज़ेशन पैटर्न प्रदान करता है।

यह Matplotlib से थोड़ा अलग है क्योंकि यह कम सिंटैक्स का उपयोग करता है और इसमें अंतर्निहित डिफ़ॉल्ट थीम है।

विज्ञापन

नीचे पढ़ना जारी रखें

समय के साथ एक वेबसाइट के कुछ सेगमेंट में लॉग फाइल हिट्स की कल्पना करने के लिए मैंने सीबॉर्न का उपयोग करने का एक तरीका लाइन ग्राफ बनाया है।

माटप्लोटलिब लाइन ग्राफ

sns.lineplot(x = "month", y = "log_requests_total", hue="category", data=pivot_status)
plt.show()

यह विशेष उदाहरण एक पिवट टेबल से डेटा लेता है, जिसे मैं पंडों की लाइब्रेरी का उपयोग करके पायथन में बनाने में सक्षम था, और एक और तरीका है कि ये लाइब्रेरी डेटा से आसानी से समझने वाली तस्वीर बनाने के लिए मिलकर काम करते हैं।

Advertools

Advertools द्वारा निर्मित एक पुस्तकालय है एलियास डब्बास इसका उपयोग हम एसईओ पेशेवरों और डिजिटल विपणक के रूप में डेटा के आधार पर प्रबंधन, समझने और निर्णय लेने में मदद करने के लिए कर सकते हैं।

विज्ञापन

नीचे पढ़ना जारी रखें

साइटमैप विश्लेषण

यह लाइब्रेरी आपको कई विभिन्न कार्यों जैसे कि डाउनलोडिंग, पार्सिंग और विश्लेषण करने की अनुमति देती है XML साइटमैप पैटर्न निकालने या विश्लेषण करने के लिए कि कितनी बार सामग्री जोड़ी या बदली गई है।

Robots.txt विश्लेषण

एक और दिलचस्प बात आप इस पुस्तकालय के साथ कर सकते हैं एक समारोह का उपयोग करने के लिए है किसी वेबसाइट के robots.txt को निकालें डेटाफ़्रेम में, सेट नियमों को आसानी से समझने और विश्लेषण करने के लिए।

आप किसी विशेष उपयोगकर्ता-एजेंट को कुछ URL या फ़ोल्डर पथ लाने में सक्षम हैं या नहीं, यह जांचने के लिए आप लाइब्रेरी के भीतर एक परीक्षण भी चला सकते हैं।

URL विश्लेषण

Advertools भी आपको सक्षम बनाता है URL का विश्लेषण और विश्लेषण करें जानकारी निकालने के लिए और URL के कुछ सेट के लिए एनालिटिक्स, SERP और क्रॉल डेटा को बेहतर ढंग से समझने के लिए।

आप HTTP स्कीम, मुख्य पथ, अतिरिक्त पैरामीटर और क्वेरी स्ट्रिंग जैसी चीज़ों को निर्धारित करने के लिए लाइब्रेरी का उपयोग करके URL को विभाजित कर सकते हैं।

सेलेनियम

सेलेनियम एक पायथन पुस्तकालय है जो आमतौर पर स्वचालन उद्देश्यों के लिए उपयोग किया जाता है। सबसे आम उपयोग मामला वेब अनुप्रयोगों का परीक्षण कर रहा है।

विज्ञापन

नीचे पढ़ना जारी रखें

एक प्रवाह को स्वचालित करने वाले सेलेनियम का एक लोकप्रिय उदाहरण एक स्क्रिप्ट है जो एक ब्राउज़र खोलता है और परिभाषित अनुक्रम में कई अलग-अलग चरणों को करता है जैसे कि फॉर्म भरना या कुछ बटन क्लिक करना।

सेलेनियम उसी सिद्धांत को नियोजित करता है जैसा कि अनुरोध पुस्तकालय में उपयोग किया जाता है जिसे हमने पहले कवर किया था।

हालाँकि, यह न केवल अनुरोध भेजेगा और प्रतिक्रिया की प्रतीक्षा करेगा बल्कि अनुरोध किए जा रहे वेबपेज को भी प्रस्तुत करेगा।

सेलेनियम के साथ आरंभ करने के लिए, आपको ब्राउज़र के साथ बातचीत करने के लिए एक वेबड्राइवर की आवश्यकता होगी।

प्रत्येक ब्राउज़र का अपना वेबड्राइवर होता है; उदाहरण के लिए क्रोम में क्रोमड्राइवर और फ़ायरफ़ॉक्स में गेकोड्राइवर है।

ये आपके पायथन कोड के साथ डाउनलोड और सेट-अप करने में आसान हैं। यहाँ एक उपयोगी लेख है एक उदाहरण परियोजना के साथ, सेटअप प्रक्रिया की व्याख्या करना।

बिखरा हुआ

अंतिम पुस्तकालय जिसे मैं इस लेख में शामिल करना चाहता था, वह है स्क्रेपी।

जब हम किसी वेबपेज से आंतरिक डेटा को क्रॉल करने और निकालने के लिए अनुरोध मॉड्यूल का उपयोग कर सकते हैं, तो उस डेटा को पास करने के लिए और उपयोगी अंतर्दृष्टि निकालने के लिए हमें इसे BeautifulSoup के साथ संयोजित करने की आवश्यकता है।

विज्ञापन

नीचे पढ़ना जारी रखें

स्क्रेपी अनिवार्य रूप से आपको इन दोनों को एक पुस्तकालय में करने की अनुमति देता है।

स्क्रैप भी काफी तेज और अधिक शक्तिशाली है, एक सेट अनुक्रम में डेटा को क्रॉल, अर्क और पर्स करने के लिए अनुरोध पूरा करता है, और आपको डेटा को ढालने की अनुमति देता है।

स्क्रेपी के भीतर, आप कई निर्देशों को परिभाषित कर सकते हैं जैसे कि उस डोमेन का नाम जिसे आप क्रॉल करना चाहते हैं, आरंभ URL और स्पाइडर को कुछ पेज फोल्डर को क्रॉल करने की अनुमति है या नहीं।

Scrapy का उपयोग किसी निश्चित पृष्ठ पर सभी लिंक को निकालने और आउटपुट फ़ाइल में संग्रहीत करने के लिए किया जा सकता है, उदाहरण के लिए।

class SuperSpider(CrawlSpider):
   name="extractor"
   allowed_domains = ['www.deepcrawl.com']
   start_urls = ['https://www.deepcrawl.com/knowledge/technical-seo-library/']
   base_url="https://www.deepcrawl.com"
   def parse(self, response):
       for link in response.xpath('//div/p/a'):
           yield {
               "link": self.base_url + link.xpath('.//@href').get()
           }

आप इसे एक कदम आगे ले जा सकते हैं और एक वेबपेज पर पाए जाने वाले लिंक का अनुसरण करके उन सभी पेजों से जानकारी निकाल सकते हैं, जो स्टार्ट यूआरएल से लिंक किए जा रहे हैं, एक तरह से Google के छोटे पैमाने पर प्रतिकृति की तरह और एक पेज पर लिंक का अनुसरण करना।

from scrapy.spiders import CrawlSpider, Rule
 
 
class SuperSpider(CrawlSpider):
    name="follower"
    allowed_domains = ['en.wikipedia.org']
    start_urls = ['https://en.wikipedia.org/wiki/Web_scraping']
    base_url="https://en.wikipedia.org"
 
    custom_settings = {
        'DEPTH_LIMIT': 1
    }
 
    def parse(self, response):
        for next_page in response.xpath('.//div/p/a'):
            yield response.follow(next_page, self.parse)
 
        for quote in response.xpath('.//h1/text()'):
            yield {'quote': quote.extract() }

इन परियोजनाओं के बारे में अधिक जानें, अन्य उदाहरण परियोजनाओं के बीच, यहां

अंतिम विचार

जैसा हैमलेट बतिस्ता हमेशा कहा, “सीखने का सबसे अच्छा तरीका है।”

विज्ञापन

नीचे पढ़ना जारी रखें

मुझे आशा है कि उपलब्ध कुछ पुस्तकालयों की खोज ने आपको पायथन सीखने के साथ शुरुआत करने, या अपने ज्ञान को गहरा करने के लिए प्रेरित किया है।

एसईओ उद्योग से अजगर योगदान

हेमलेट को पायथन एसईओ समुदाय के लोगों से संसाधनों और परियोजनाओं को साझा करना भी पसंद था। दूसरों को प्रोत्साहित करने के लिए उनके जुनून का सम्मान करने के लिए, मैं समुदाय से देखी गई कुछ अद्भुत चीजों को साझा करना चाहता था।

हेमलेट और एसईओ पायथन समुदाय के लिए एक अद्भुत श्रद्धांजलि के रूप में उन्होंने खेती करने में मदद की, चार्ली वार्गनियर SEO Pythonistas ने उन अद्भुत Python परियोजनाओं के योगदान को एकत्रित करने के लिए बनाया है जिन्हें SEO समुदाय ने बनाया है।

हैमलेट का एसईओ समुदाय में अमूल्य योगदान है।

मोशे मा-यफित एक सुपर बनाया लॉग फ़ाइल विश्लेषण के लिए शांत स्क्रिप्ट, और इस पोस्ट में बताया गया है कि स्क्रिप्ट कैसे काम करती है। विज़ुअलाइज़ेशन यह Google बॉट हिट्स बाय डिवाइस, डेली हिट्स द्वारा रिस्पॉन्स कोड, रिस्पॉन्स कोड% टोटल, आदि सहित प्रदर्शित करने में सक्षम है।

कोरय तुबर्बक GÜBÜR वर्तमान में एक साइटमैप स्वास्थ्य चेकर पर काम कर रहा है। उन्होंने इलायस डब्बास के साथ एक रेंकविज़न वेबिनार की मेजबानी भी की जहां उन्होंने एक स्क्रिप्ट साझा की जो SERPs और एनालिसिस एल्गोरिदम को रिकॉर्ड करती है।

विज्ञापन

नीचे पढ़ना जारी रखें

यह नियमित रूप से समय के अंतर के साथ SERPs को अनिवार्य रूप से रिकॉर्ड करता है, और आप सभी लैंडिंग पृष्ठों को क्रॉल कर सकते हैं, डेटा मिश्रण कर सकते हैं और कुछ सहसंबंध बना सकते हैं।

जॉन मैक्लिन एक लेख लिखा है जिसका उपयोग आप कैसे कर सकते हैं अपने प्रतियोगियों की जासूसी करने के लिए पायथन और डेटा स्टूडियो

जे सी चौइनार्ड ए लिखा Reddit API का उपयोग करने के लिए पूरा गाइड। इसके साथ, आप Reddit से डेटा निकालने और Subreddit पर पोस्ट करने जैसी चीजें कर सकते हैं।

रोब मई एक नए जीएससी विश्लेषण उपकरण पर काम कर रहा है और Wix में कुछ नए डोमेन / वास्तविक साइटों का निर्माण कर रहा है, जबकि इसे उच्चतर वर्डप्रेस प्रतियोगी के खिलाफ मापने के लिए।

मसाकी ओकाज़ावा एक स्क्रिप्ट भी साझा की है जो पायथन के साथ Google खोज कंसोल डेटा का विश्लेषण करती है।

और अधिक संसाधनों:

विज्ञापन

नीचे पढ़ना जारी रखें


छवि क्रेडिट

लेखक द्वारा सभी स्क्रीनशॉट, मार्च 2021

Related Posts

Leave a Reply

Your email address will not be published. Required fields are marked *