Friday, March 29, 2024

मेटा रोबोट क्या है | Best Meta Robots In Hindi

मेटा रोबोट क्या है एवं उपयोग | रोबोट और मेटा टैग | Meta Robots Kya Hota Hai Hindi

मेटा रोबोट क्या है – इंटरनेट एक आश्चर्यजनक दर से बढ़ रहा है, उच्च पृष्ठ रैंकिंग प्राप्त करना अधिक से अधिक कठिन होता जा रहा है। ऐसे सैकड़ों डायनामिक्स हैं जो इंजन को यह तय करने में मदद करते हैं कि किसी पेज को कैसे रैंक किया जाए।

यह जानने के बाद कि इनमें से कुछ गतिकी कैसे काम करती हैं, निश्चित रूप से आपको इंटरनेट पर अपनी साइटों के प्रदर्शन को बढ़ाने में मदद मिलेगी। गतिशीलता में से एक जिसे आपको ध्यान में रखना है वह है “मेटा रोबोट”। मानो या न मानो, लेकिन आप वास्तव में उन रोबोटों को नियंत्रित कर सकते हैं जो आपकी साइटों को कई तरह से क्रॉल करते हैं, जो निस्संदेह आपकी रैंकिंग में मदद करेंगे।

मेटा रोबोट किसी वेबसाइट के प्रत्येक पृष्ठ के लिए अद्वितीय होते हैं, और सर्च इंजन द्वारा एक ही पृष्ठ पर क्रॉलर को निर्देशित करने के लिए उपयोग किए जाते हैं। अधिकांश भाग के लिए आप चाहते हैं कि अधिक से अधिक क्रॉलर आपकी साइट तक पहुंचें; हालांकि, ऐसे कुछ उदाहरण हैं जहां आप नहीं चाहते कि आपकी साइट के पृष्ठ या विशिष्ट क्षेत्रों को क्रॉल किया जाए। रोबोट टैग आपको सर्च इंजन द्वारा स्कैन की जा रही चीज़ों पर नियंत्रण रखने और उन्हें सर्च क्वेरी परिणामों को वापस करने से रोकने की अनुमति देगा, जबकि अभी भी उनके लिंक मान को अन्य पृष्ठों पर स्थानांतरित करने में सक्षम होंगे।

आप किसी पृष्ठ को स्कैन होने से क्यों रोकना चाहेंगे, आप सोच रहे हैं? यहां कुछ कारण दिए गए हैं: सुरक्षा के लिए, आप निजी जानकारी जैसे संपर्क जानकारी और पते की रक्षा करना चाह सकते हैं। स्पैम बॉट्स को संवेदनशील जानकारी एकत्र करने की कोशिश करने से रोकें। आप डुप्लिकेट सामग्री को भी ब्लॉक कर सकते हैं, जो एक गंभीर एसईओ समस्या है, और उपयोगकर्ता-जनित सामग्री, जिसकी पुष्टि नहीं की जा सकती है। उपयोगकर्ता-जनित सामग्री का एक उदाहरण आपकी साइट या ब्लॉग पर नियमित उपयोगकर्ताओं द्वारा पोस्ट की गई टिप्पणियां और समीक्षाएं होंगी।

अधिकांश भाग के लिए, आप मेटा नाम = “रोबोट्स” सामग्री = “इंडेक्स, फॉलो” के डिफ़ॉल्ट मानों का उपयोग करेंगे, जो कि मेटा रोबोट टैग नहीं होने के समान ही है। डुप्लीकेट पृष्ठों के लिए आप मेटा नाम = “रोबोट्स” सामग्री = “नोइंडेक्स, फॉलो” का उपयोग करना चाहेंगे, मूल रूप से आप डुप्लिकेट पेज को इंडेक्स नहीं करना चाहते हैं, लेकिन आप चाहते हैं कि आपके पेज के लिंक मूल्य धारण करें। उपयोगकर्ता-जनित सामग्री के साथ, मेटा नाम = “रोबोट्स” सामग्री = “इंडेक्स, नोफ़ॉलो”, उपयुक्त होगा।

पेज अभी भी इंडेक्स किया जाएगा, लेकिन लिंक का कोई मूल्य नहीं होगा। निजी जानकारी को सुरक्षित रखने का प्रयास करते समय, मेटा नाम = “रोबोट्स” सामग्री = “नोइंडेक्स, नोफ़ॉलो”, का उपयोग सब कुछ ब्लॉक करने के लिए किया जाएगा।

आरंभ करने के लिए आपको एक robots.txt फ़ाइल बनाने की आवश्यकता होगी, जो आपके उन सभी पृष्ठों को सूचीबद्ध करती है जिनके लिए आप मेटा रोबोट टैग का उपयोग करना चाहते हैं। प्रत्येक पृष्ठ पर ऊपर उल्लिखित उपयुक्त टैग सम्मिलित करें। आपकी साइट में प्रवेश करने वाले प्रत्येक स्पाइडर या बॉट को robot.txt फ़ाइल पढ़नी चाहिए जो उन्हें बताएगी कि आपकी वेबसाइट पर क्या इंडेक्स नहीं करना है और कहाँ नहीं जाना है।

मेटा रोबोट क्या है और कैसे काम करता है | मेटा रोबोट क्या होता है | Meta Robots Kya Hai Hai Hindi me

मेटा रोबोट क्या है एवं उपयोग | रोबोट और मेटा टैग | Meta Robots Kya Hota Hai Hindi
मेटा रोबोट क्या है एवं उपयोग | रोबोट और मेटा टैग | Meta Robots Kya Hota Hai Hindi

रोबोट और मेटा टैग: आपको क्या जानना चाहिए | Robots and Meta Tags

SEO या सर्च इंजन ऑप्टिमाइजेशन वेबसाइट के तत्व हैं और ब्लॉग मालिकों को खुद से परिचित होने की जरूरत है। ऐसा इसलिए है क्योंकि वे वही हैं जो खोज इंजनों को वेब पर लाखों लोगों के बीच आपकी साइट खोजने में मदद करते हैं।

यह भी देखें :  वेबसाइट रोबोट क्या है | Best Robot.txt File

विशेष रूप से मेटा टैग आपके ब्लॉग या वेबसाइट पृष्ठों पर शामिल करने के लिए महत्वपूर्ण हैं ताकि वे रोबोट (कभी-कभी स्पाइडरबॉट कहा जाता है) द्वारा स्थित हो सकें और सबसे उपयुक्त वेबसाइटों पर ट्रैफ़िक भेज सकें।

तो वैसे भी मेटा टैग क्या हैं? मेटा टैग HTML कोड होते हैं जो किसी वेबसाइट के हेडर में डाले जाते हैं। वे वेबसाइट विज़िटर की दृष्टि से छिपे हुए हैं क्योंकि उनका कार्य केवल खोज इंजन को आपकी साइट के बारे में पर्याप्त जानकारी प्रदान करना है ताकि उस पर ट्रैफ़िक भेजा जा सके। ये मेटा टैग वेबसाइटों को स्कैन करने वाले रोबोट या स्पाइडरबॉट को दिशा-निर्देश देने का भी काम करते हैं।

रोबोट मेटा टैग रोबोट को बताते हैं कि आप अपनी साइट पर किसी विशेष पृष्ठ को इंडेक्स करना चाहते हैं या नहीं। उदाहरण के लिए यदि आपके पास एक वर्डप्रेस ब्लॉग है, तो अपनी पोस्ट के लिए अपने डैशबोर्ड पेज पर आप निम्न में से किसी एक का चयन कर सकते हैं।

index, follow

index, nofollow

noindex, follow

noindex, nofollow

आइए चर्चा करें कि उनका क्या मतलब है।

index, follow = रोबोट इन निर्देशों का पालन करेगा और आपकी वेबसाइट या ब्लॉग के हर पेज को इंडेक्स करेगा

index, nofollow = रोबोट अब केवल इस पृष्ठ को देखेगा और आगे नहीं।

Noindex, follow = यह रोबोट को इस पृष्ठ को न देखने के लिए कहता है लेकिन यह आपकी वेबसाइट के शेष सभी पृष्ठों को क्रॉल करेगा।

Noindex, no follow = यहाँ रोबोट के लिए निर्देश है कि इस पृष्ठ को न देखें और शेष पृष्ठों को क्रॉल न करें।

तो आप अपनी साइट पर किसी पृष्ठ को इंडेक्स न करने का चुनाव क्यों कर सकते हैं? आपकी वेबसाइटों में पृष्ठों के इंडेक्स न होने के कारण अलग-अलग होते हैं। उनमें निम्नलिखित में से कोई भी शामिल हो सकता है लेकिन निश्चित रूप से केवल इन्हीं तक सीमित नहीं है:

यह डेटा से भरा एक पृष्ठ है, शायद संदर्भ के रूप में उपयोग किया जाता है और स्पाइडर्स के लिए आवश्यक कुछ नहीं होता है।

  • हो सकता है कि आपके पास एक या दो पृष्ठ हों जो अस्थायी हों, इसलिए जब तक आप पृष्ठ को अपनी वेबसाइट का स्थायी हिस्सा नहीं बना लेते, तब तक आप नहीं चाहते कि स्पाइडर रोबोट इसे क्रॉल करें।
  • या, आप चाहते हैं कि पृष्ठ को रोबोट द्वारा इंडेक्स न करके अधिक निजी रखा जाए।

यदि आपके पास माउस के एक क्लिक के साथ उपलब्ध विभिन्न चयनों वाला वर्डप्रेस ब्लॉग नहीं है, तो आपको अपनी साइट के लिए HTML कोड की आवश्यकता होगी। यह कुछ इस तरह दिखना चाहिए:

<html>

<head>

<meta name=”robots” content=”noindex” />

<title>Don’t index this page</title>

</head>

अब जब आपको रोबोट मेटा टैग की बेहतर समझ है, तो आप अपनी साइट के लिए उपयुक्त कोड लागू कर सकते हैं। Google डिफ़ॉल्ट अनुक्रमणिका है, इसलिए अनुसरण करें यदि यह वह नहीं है जो आप चाहते हैं, तो आपको स्पाइडर रोबोट को अन्य निर्देश देने होंगे।

robots.txt फ़ाइल क्या है?

सर्च इंजन सर्च परिणामों के साथ आने के लिए लाखों वेब पेजों को देखते हैं। वे ऐसा करते हैं जिसे हम “सर्च इंजन स्पाइडर” कहते हैं। यह समझ में आता है – वेब पर रेंगने वाली स्पाइडर्स। लेकिन उनके लिए एक और शब्द “रोबोट” है क्योंकि वे केवल मानव रहित प्रोग्राम हैं जो स्वचालित रूप से डेटा एकत्र करते हैं।

शुरुआत में, इन रोबोटों ने वेब से जुड़ी हर पेज, हर फाइल को स्पाइडर किया। इससे सर्च इंजन और उनका उपयोग करने वाले दोनों के लिए समस्याएँ पैदा हुईं। वे पृष्ठ जो वास्तव में देखने लायक नहीं थे, जैसे कि, किसी साइट के सभी पृष्ठों में शामिल की जाने वाली शीर्षलेख फ़ाइलें, स्पाइडर की जा रही थीं और सर्च परिणामों में दिखाई दे रही थीं। क्या आपने कभी Google पर सर्च की है और परिणामस्वरूप आंशिक पृष्ठ प्राप्त किया है?

यह भी देखें :  क्वालिटी बैकलिंक्स कैसे बनायें | High Quality

समाधान यह था कि Google और अन्य सर्च इंजन प्रत्येक साइट के रूट फ़ोल्डर में robots.txt फ़ाइल की तलाश शुरू करें (http://www. mydomain. com/ robots.txt) यह निर्धारित करने के लिए कि क्या खोजा जाना चाहिए और क्या नहीं . इसे “द रोबोट्स एक्सक्लूज़न स्टैंडर्ड” नाम दिया गया है। नोटपैड या अन्य साधारण टेक्स्ट एडिटर के साथ बनाई गई यह सरल टेक्स्ट फ़ाइल, रोबोट को आपकी साइट के कुछ फ़ोल्डरों को स्पाइडर न करने के लिए कह कर आपको पूर्ण नियंत्रण प्रदान करती है।

परिणाम अधिक खुश विज़िटर हैं जो सर्च इंजन से आपकी साइट पर आते हैं और केवल पूर्ण पृष्ठ प्राप्त करते हैं जो आप उन्हें देखना चाहते हैं, न कि आंशिक, परीक्षण या स्क्रिप्ट पृष्ठ जो आप उन्हें नहीं देखना चाहते हैं। आइए आरंभ करने के लिए कुछ उदाहरण देखें:

यह सभी स्पाइडर को आपकी साइट के सभी पेजों पर स्पाइडर बनाने की अनुमति देता है। * एक वाइल्डकार्ड है जिसका अर्थ है “सभी स्पाइडर।”

User-agent: *

Disallow:

यह उपरोक्त उदाहरण के विपरीत है। यह सभी स्पाइडर को आपकी पूरी साइट पर स्पाइडर नहीं बनाने के लिए कहता है। यदि आपके पास एक परीक्षण साइट है, उदाहरण के लिए, जो अभी तक लाइव नहीं है, तो आप इसे चाहते हैं।

User-agent: *

Disallow: /

यह उदाहरण सभी रोबोटों को सीजीआई-बिन और इमेज फोल्डर से बाहर रहने के लिए कहता है।

User-agent: *

Disallow: /cgi-bin/

Disallow: /images/

यह उदाहरण केवल WebFerret रोबोट को पेज ferret.htm को स्पाइडर नहीं करने के लिए कहता है। यह सिर्फ एक उदाहरण है। मेरे पास वेबफेरेट के खिलाफ कुछ भी नहीं है। Google के लिए उपयोगकर्ता एजेंट कोड googlebot है।

User-agent: WebFerret

Disallow: ferret.htm

यह महत्वपूर्ण है कि फ़ाइल एक साधारण टेक्स्ट फ़ाइल हो – इसे बनाने के लिए Microsoft Word का उपयोग न करें। और सावधान रहें कि आप कैसे टाइप करते हैं – यह बिल्कुल उपरोक्त उदाहरणों की तरह दिखना चाहिए, केवल पहले अक्षर के लिए कैप के साथ, बस सही रिक्ति, आदि। खराब तरीके से की गई robots.txt फ़ाइल आपकी साइट को मदद करने से ज्यादा नुकसान पहुंचा सकती है।

वेबसाइट ऑप्टिमाइज़ेशन में रोबोट फ़ाइल कितनी महत्वपूर्ण हैं

एक अभ्यास एसईओ सलाहकार के रूप में मैंने वेबमास्टरों से एक संदेह सुना कि वे अपनी साइट की मूल निर्देशिका पर robots.txt फ़ाइल क्यों डालें। उनकी बात यह है कि उन्हें अपनी वेबसाइट के किसी भी हिस्से से स्पाईडरस  को प्रतिबंधित करने की आवश्यकता नहीं है और वे एक फ़ाइल क्यों डालें जो स्पाईडरस  को पूर्ण अनुमति देती है। उन्होंने जो कहा वह डेवलपर्स के दृष्टिकोण से सच है क्योंकि हम सर्च इंजन स्पाइडर को मेरी वेबसाइट को क्रॉल करने और इसे पूरी तरह से इंडेक्स करने के लिए नहीं कह सकते हैं या मजबूर नहीं कर सकते हैं।

यदि आप वास्तव में ऐसा करना चाहते हैं तो आपको Google वेबमास्टर टूल में साइटमैप सबमिशन के लिए जाना होगा, लेकिन यह एक अलग कहानी है। फिर उन्हें एक टेक्स्ट फ़ाइल क्यों अपलोड करनी चाहिए जो स्पाईडरस  से कहती है “आपको मेरी वेबसाइट तक पहुंचने की अनुमति है” जहां यह उनका सामान्य कर्तव्य है?

प्रश्न का उत्तर बहुत सरल है। जब स्पाइडर आपकी वेबसाइट पर किसी विशेष पृष्ठ की तलाश करते हैं, जहां वह उपलब्ध नहीं है, तो सामान्य परिणाम त्रुटि 404 है। दुर्भाग्य से robots.txt फ़ाइल सर्च इंजन स्पाइडर के लिए एक जाना-माना नाम है और वे फ़ाइल में देखेंगे कि क्या कोई बाधा है उनके लिए साइट पर सेट है।

यह भी देखें :  सर्च इंजन रोबोट क्या हैं | Best SEO Robots

यदि कोई robots.txt फ़ाइल नहीं बनाई गई है तो यह एक त्रुटि 404 पृष्ठ पर समाप्त हो जाएगी। स्पाईडरस  को त्रुटि दिखाई देगी और वे इसे टूटी हुई कड़ी के रूप में रिपोर्ट कर सकते हैं। यह टूटी हुई लिंक रिपोर्ट सर्च इंजन की नजर में आपकी वेबसाइट के महत्व को कम कर सकती है। इसलिए इस स्थिति से बचने के लिए SEO सलाहकार अपने ग्राहकों को इस साधारण टेक्स्ट फ़ाइल को अपने सर्वर पर अपलोड करने की सलाह देते हैं।

तो यह रोबोट फ़ाइल क्या है? robots.txt एक टेक्स्ट फ़ाइल है जिसे आपकी वेबसाइट की रूट डायरेक्टरी में अपलोड किया जाएगा जहां इसमें सर्च इंजन स्पाइडर के लिए नियमों का एक सेट होता है। robots.txt मुख्य रूप से वेब स्पाइडर को यह बताने के लिए प्रयोग किया जाता है कि निम्नलिखित (दिए गए) लिंक को क्रॉल न करें।

एक बात जो हमारे मन में है वह यह है कि robots.txt फाइलें एक स्पाइडर को निम्नलिखित पृष्ठ को क्रॉल और इंडेक्स करने के लिए नहीं कह सकती हैं क्योंकि इंडेक्स एक स्पाइडर का सामान्य कर्तव्य है। मुझे लगता है कि आपको बात मिल गई है। इसलिए कोई भी स्पाईडरस  को अपनी वेबसाइट क्रॉल करने के लिए मजबूर नहीं कर सकता क्योंकि यह पूरी तरह से स्पाईडरस  पर निर्भर करता है। लेकिन कोई स्पाईडरस  को उसकी वेबसाइट के कुछ हिस्से या यहां तक ​​कि पूरी तरह से एक्सेस करने से रोक सकता है।

सर्च इंजन और मेटा रोबोट टैग और रोबोट डॉट टेक्स्ट – क्रॉलिंग

सर्च इंजनों के बढ़ते कौशल के साथ, सामग्री का दोहराव एक ऐसे मुद्दे के रूप में उभरा है जो वेबमास्टरों को बुरे सपने दे रहा है। भले ही उनमें से प्रत्येक खोज इंजन परिणामों में शीर्ष रैंकिंग की इच्छा रखते हों, लेकिन वे नहीं चाहते कि उनकी वेबसाइटों का सारा मामला सभी के लिए उपलब्ध हो। कुछ वेब पेजों पर स्पाइडर्स या रोबोटों को जानकारी तक पहुंचने से रोकने के लिए, रोबोट्स.टीएक्सटी और मेटा रोबोट टैग एसईओ के उपकरण के रूप में विकसित हुए हैं।

विवरण और उद्देश्य – आगे बढ़ने से पहले, सर्च इंजन स्पाइडर या रोबोट के बारे में थोड़ा विस्तार से बात करना बुद्धिमानी होगी। ये विभिन्न वेबसाइटों पर जाने वाले सर्च इंजन द्वारा बनाए गए कम्प्यूटरीकृत या स्वचालित प्रोग्राम हैं। वे बिना किसी मानवीय सहायता के सभी जानकारी प्राप्त करते हैं और इस प्रकार एकत्र किए गए डेटा का उपयोग खोज इंजन द्वारा वेबसाइटों को इंडेक्स करने के लिए किया जाता है।

यदि एक वेब मास्टर होने के नाते आप अपनी सामग्री की वास्तविकता को संरक्षित करना चाहते हैं और यह नहीं चाहते कि यह खोज इंजन परिणामों में दिखाई दे तो SEO के दो आजमाए हुए और परखे हुए तरीके आपके बहुत काम आ सकते हैं। ये robots.txt और मेटा रोबोट्स टैग हैं जो आपके वेब मैटर को क्रॉल करने से रोकते हैं और यह बदले में सामग्री की नकल की जांच करता है। robots.txt फ़ाइल को वेबसाइट के स्थानीय रूट सर्वर पर रखकर, आप स्पाइडर या रोबोट को इसे इंडेक्स करने की अनुमति नहीं देते हैं।

Robots.txt फ़ाइल की संरचना – चलिए अब आगे बढ़ते हैं और आपको Robots.txt file का format बताते हैं। उदाहरण के लिए, यदि आप चाहते हैं कि आपकी वेबसाइट के समाचार पोस्टिंग भाग पर कोई क्रॉल न हो, तो आपकी robots.txt फ़ाइल का प्रारूप होना चाहिए: –

उपयोगकर्ता एजेंट: * अस्वीकृत करें: समाचार पोस्ट करना/

यहां उपयोगकर्ता एजेंट के साथ तारांकन चिह्न लगाया गया है ताकि यह स्थापित किया जा सके कि robots.txt फ़ाइल सभी खोज इंजनों के स्पाइडर्स या रोबोट के लिए मान्य है।

मेटा रोबोट की संरचना टैग

कभी-कभी वेब मास्टर के सर्वर पर नियंत्रण की कमी के कारण robots.txt फ़ाइल बनाना संभव नहीं होता है। ऐसे में मेटा रोबोट्स टैग का इस्तेमाल किया जा सकता है ताकि सर्च इंजन स्पाइडर्स को दूर रखा जा सके। इसके फॉर्मेट का उदाहरण नीचे दिया गया है

Head> यहां इंडेक्सिंग का अर्थ है कि पृष्ठ इंडेक्स के लिए खोला गया है, किसी भी इंडेक्स का अर्थ यह नहीं है कि स्पाइडर्स को पृष्ठ को इंडेक्स करने की अनुमति नहीं है। इसके आगे, जब रोबोटों को लिंक का अनुसरण करने और उन्हें इंडेक्स करने का निर्देश दिया जाता है तो फॉलो शब्द का उपयोग किया जाता है जबकि नो फॉलो का अर्थ इसके ठीक विपरीत होता है।

Rate this post
Suraj Kushwaha
Suraj Kushwahahttp://techshindi.com
हैलो दोस्तों, मेरा नाम सूरज कुशवाहा है मै यह ब्लॉग मुख्य रूप से हिंदी में पाठकों को विभिन्न प्रकार के कंप्यूटर टेक्नोलॉजी पर आधारित दिलचस्प पाठ्य सामग्री प्रदान करने के लिए बनाया है।

Related Articles

LEAVE A REPLY

Please enter your comment!
Please enter your name here

Stay Connected

0FansLike
0FollowersFollow
0SubscribersSubscribe
spot_img
- Advertisement -

Latest Articles