فایل robot.txt چیست

همه فعالیت هایی که برای بهبود سئو سایت انجام میشود باید توسط ربات های گوگل ایندکس شود تا بر اساس اقدامات صورت گرفته تغییراتی در رتبه بندی سایت انجام گیرد(مطاله بیشتر: ایندکس چیست). در مقاله قبلی تعیین کردیم که چطور میتوان از طریق ساخت سایت مپ ربات های گوگل را به ایندکس کردن و اولیت […]

نکته: در صورتی که نیازمند قرار گرفتن آموزش خاص و یا مطلبی به صورت رایگان در حوزه های حسابداری و کامپیوتر هستید آن را در قسمت نظرات همین صفحه وارد کنید.

همه فعالیت هایی که برای بهبود سئو سایت انجام میشود باید توسط ربات های گوگل ایندکس شود تا بر اساس اقدامات صورت گرفته تغییراتی در رتبه بندی سایت انجام گیرد(مطاله بیشتر: ایندکس چیست). در مقاله قبلی تعیین کردیم که چطور میتوان از طریق ساخت سایت مپ ربات های گوگل را به ایندکس کردن و اولیت بندی صفحات سایت هدایت کرد.(اگر نمیدانید چطور باید سایت مپ بسازید و ایندکس کردن صفحات سایت تان را تسریع بخشید حتما مقاله sitemap چیست را مطالعه کنید).

در این مقاله به شما توضیح میدهیم که چطور باید برای گوگل نحوه خزش در سایت تان را تعیین کنید. اگر ا مطالعه کل این مقاله همچنان سوالی در مورد این که فایل Robots.txt چیست و چطور یک فایل Robots عالی بسازیم باقی ماند میتوانید در بخش نظرات سوال تان را مطرح کنید.

فایل robot.txt چیست

در سئو حتما نام فایل robot txt را شنیده اید اما سوالی که مطرح میشود این است که فایل robots.txt چیست و چه کاربردی در سئو سایت دارد؟

فایل robots.txt قراردادی است برای جلوگیری از دسترسی خزنده های وب به تمام یا بخشی از یک وب سایت ساخته میشود. این یک فایل متنی با فرمت .txt است که برای SEO استفاده می شود و حاوی دستوراتی برای ربات های موتورهای جستجو است که صفحاتی را مشخص می کند که می توانند یا نمی توانند ایندکس شوند.

robots.txt برای فهرست کردن صفحات استفاده نمی شود، بلکه برای جلوگیری از خزش در آنها استفاده می شود. اگر صفحه‌ای قبلاً ایندکس نشده بود، جلوگیری از خزیدن آن باعث می‌شود که هرگز ایندکس نشود. اما اگر صفحه ای قبلاً ایندکس شده باشد یا وب سایت دیگری به آن پیوند داده شود، robots.txt اجازه فهرست زدایی را به آن صفحه از سایت نمی دهد.

برای جلوگیری از ایندکس شدن یک صفحه در گوگل، باید از تگ noindex استفاده کنید اما اگر هدف شما این باشد که تعدا صفحات متعددی را به این وضعیت منتقل کنید نمیتوان از این تگ استفاده کرد. در این صورت ساخت robot.txt به کمک شما میاید و شما میتوانید ایندکس نشدن دسته ای از صفحات را به انجام برسانید.

بنابراین هدف اصلی فایل robots.txt مدیریت خزش ربات ها با ممنوع کردن خزش آن ها در صفحات معین میباشد.

اگر سئوکار هستید و میخواهید بیشتر با ابزارهای سئو آشنا شوید به شما پیشنهاد میکنیم یادگیری سرچ کنسول را جز برنامه های خود قرار دهید. اگر نمیدانید این ابزار چه قابلیت هایی دارد حتما مقاله سرچ کنسول گوگل چیست را مطالعه کنید.

فایل robot.txt چیست
فایل robot.txt چیست

نحوه کار فایل robot.txt

موتورهای جستجو دو وظیفه اصلی دارند: خزیدن در سایت ها برای کشف محتوا و فهرست بندی صفحات حاوی محتوا به طوری که بتواند بین کاربرانی که به دنبال اطلاعات هستند با بهترین رتبه بندی توزیع شود.

برای خزیدن در سایت ها موتورهای جستجو لینک ها را دنبال می کنند تا از یک سایت به سایت دیگر برسند، آنها میلیاردها لینک و وب سایت را می خزند. هنگامی که ربات موتور جستجو به یک وب سایت دسترسی پیدا می کند، به دنبال فایل robots.txt می گردد.

اگر فایل robot txt را پیدا کند، ربات ابتدا این فایل را قبل از ادامه مرور صفحه می خواند. اگر فایل robots.txt حاوی دستورالعمل‌هایی برای منع فعالیت عامل کاربر نباشد یا اگر سایت فایل robots.txt نداشته باشد بدون هیچ گونه محدودیتی خزش در ساییت را انجام میدهد.

اهمیت ساخت robot.txt

شاید این سوال برای شما پیش آمده باشد که با وجود آن که فایل robot txt جلوی خزش یک سری از صفحات را میگیرد اما چه اهمیتی دارد که این فایل در سایت ما وجود داشته باشد؟ در واقع میتوان گفت مزایا فایل robot txt عبارتند از:

  • از خزیدن محتوای تکراری خودداری میکند.
  • جلوگیری از خزیدن موتور جستجو در صفحات بی اهمیت برای سئو.
  • جلوگیری از ایندکس کردن تصاویر خاص توسط موتورهای جستجو در سایت.
  • محل نقشه سایت را مشخص کنید.

اگر سایت شما شامل صفحاتی نیست که می‌خواهید دسترسی کاربر را کنترل کنید، ممکن است به فایل robots.txt نیاز نداشته باشید.

اگر میخواهید در کوتاهترنی زمان کار با ابزار سرچ کنسول را یاد بگیرید پیشنهاد میکنیم از آموزش سرچ کنسول مجتمع فنی آریا تهران نهایت بهره را ببرید. این دوره زیر نظر برترین اساتید سئو ترهان آموزش داده شده و شما میتوانید به خوبی با جزییات این ابزار آشنا شوید و برای بهبود سایت خود از آن استفاده کنید.

دانلود فایل robot.txt

برای دانلود فایل robot txt شما باتدا باید بدانید robots.txt را کجا قرار دهید. شما نمی دانید که آیا فایل robots.txt دارید یا نه؟

برای دسترسی و دانلود فایل robot txt باید دامنه سایت تان را تایپ کنید و سپس /robots.txt را در انتهای URL اضافه کنید. به عنوان مثال، فایل فایل robot txt را در انتهای دامنه “example.com” به صورت “https://www.example.com/robots.txt” قرار دهید.
اگر صفحه txt. نمایش داده نشد، این سایت صفحه robots.txt ندارد.

اگر robots.txt ندارید:

آیا به آن نیاز دارید؟ بررسی کنید که صفحات کم ارزشی که به آن نیاز دارند ندارید. مثال: سبد خرید، صفحات جستجوی موتور جستجوی داخلی شما و غیره.
اگر به آن نیاز دارید، فایل را مطابق دستورالعمل های ذکر شده در این مقاله ایجاد کنید.

اگر میخواهید بهترین استراتژی سئو برای سایت تان داشته باشید . از همان ابتدا برای بهبود رتبه صفحات سایت تان بهترین برنامه ریزی و نقشه راه را داشته باشید حتما مقاله تعیین استراتژی سئو تهران را مطالعه کنید. در ان مقاله با راهکار های کاربردی به شما کمک کردیم در کوتاهترین زمان بهترین وموثرترین استراتژی برای سئو سایت تان بچینید.

آموزش ساخت فایل robot.txt

در آموزش robot txt شما باید بتوانید اقدام به ساخت robot.txt کنید که در این قسمت از مقاله به صورت جامع آموزش ساخت فایل robot.txt را برای شما عزیزان قرار داده ایم.

یک فایل robots.txt از یک یا چند دستورالعمل تشکیل شده است. با توجه به فرمت این فایل می توانید تقریباً از هر ویرایشگر متنی برای ساخت robot.txt استفاده کنید. و

یرایشگر متن باید قادر به ایجاد فایل های متنی استاندارد ASCII یا UTF-8 باشد. از نرم افزار ورد استفاده نکنید، زیرا این برنامه‌ها اغلب فایل‌ها را در قالبی اختصاصی ذخیره می‌کنند و ممکن است کاراکترهای غیرمنتظره‌ای اضافه کنند که می‌تواند ربات خزنده‌ها را گیج کند.

شما می توانید با استفاده از ویرایشگر متن ساده دلخواه، یک فایل robots.txt جدید ایجاد کنید. (به یاد داشته باشید، فقط از یک ویرایشگر متن ساده استفاده کنید.)

اگر قبلاً یک فایل robots.txt دارید، مطمئن شوید که متن آن را حذف کرده اید ( نه فایل). ابتدا، باید با برخی از دستورات استفاده شده در فایل robots.txt آشنا شوید.

دستورات ساخت فایل robot.txt عبارتند از:

با تنظیم عبارت user-agent شروع کنید. ما آن را طوری تنظیم می کنیم که برای همه ربات های وب اعمال شود.

این کار را با استفاده از یک ستاره بعد از عبارت user-agent انجام دهید، مانند این:

آموزش ساخت فایل robot.txt
آموزش ساخت فایل robot.txt

بعد، «Disallow:» را تایپ کنید اما بعد از آن چیزی تایپ نکنید.

از آنجایی که پس از Disallow چیزی وجود ندارد، ربات های وب هدایت می شوند تا کل سایت شما را بخزند. در حال حاضر، همه چیز در سایت شما یک بازی مجاز است.

آموزش ساخت فایل robot.txt
آموزش ساخت فایل robot.txt

تا اینجا، فایل robots.txt شما باید به شکل زیر باشد:

آموزش ساخت فایل robot.txt
آموزش ساخت فایل robot.txt

این دستورات بسیار ساده به نظر می رسند، اما این دو خط در حال حاضر کارهای زیادی انجام می دهند.

شما همچنین می توانید به نقشه سایت XML خود لینک دهید، اما این کار ضروری نیست. اگر می خواهید لینک به صفحه ای انجام دهیدمیتوانید مانند زیر این کار را انجام دهید:

آموزش ساخت فایل robot.txt
آموزش ساخت فایل robot.txt

حالا بیایید آن را به سطح بعدی ببریم و این فایل کوچک را به یک بهبود دهنده سئو تبدیل کنیم.

همان طور که گفته شد سرچ کنسول یکی از ابزار سئو سایت میباشد. اگر میخواهید با لیستی از ابزار های پرکاربرد سئو سایت آشنا شوید و از این ابزار ها برای بهبود رتبه سایت تان استفاده کنید پیشنهاد میکنیم حتما مقاله ابزار سئو سایت را مطالعه کنید.

نحوه بهینه سازی robots.txt برای سئو

سوالی که شما میتوانید در انتهای این بخش به آن پاسخ دهید این است که فایل robots.txt چیست و چه کاربردی در سئو سایت دارد.

نحوه بهینه سازی robots.txt برای سئو به محتوایی که در سایت خود دارید بستگی دارد. روش های مختلفی برای استفاده از robots.txt در سئو وجود دارد.

یکی از بهترین کاربردهای فایل robots.txt، به حداکثر رساندن خزش موتورهای جستجو با تاکید به آن‌ها به خزیدن در قسمت‌هایی از سایت شما است که برای عموم نمایش داده نمی‌شوند.

به عنوان مثال، اگر از فایل robots.txt برای این سایت (neilpatel.com) بازدید کنید، خواهید دید که صفحه ورود (wp-admin) را disallows کرده است.

نحوه بهینه سازی robots.txt برای سئو
نحوه بهینه سازی robots.txt برای سئو

با شرکت در کلاس سئو آموزشگاه آریا تهران علاوه بر دریافت مدرک بین المللی فنی و حرفه ای به سرعت وارد بازار کسب و کار شوید.

از آنجایی که آن صفحه فقط برای ورود به قسمت بک اند استفاده می شود منطقی نیست که ربات های موتور جستجو وقت خود را صرف خزیدن در آن تلف کنند. شما از این دستور برای سایت های وردپرسی نیز استفاده کنید.

شما می توانید از دستور یا دستورات مشابهی برای جلوگیری از خزیدن ربات ها در صفحات خاص استفاده کنید. پس از disallow، بخشی از URL را که بعد از .com می آید وارد کنید و آن را بین دو / / قرار دهید.

بنابراین اگر می خواهید به یک ربات بگویید که در صفحه شما به آدرس http://yoursite.com/page/ نخزد، می توانید این را تایپ کنید:

نحوه بهینه سازی robots.txt برای سئو
نحوه بهینه سازی robots.txt برای سئو

با مسدود کردن صفحات تشکر سایت خود، می توانید مطمئن شوید که ربات های گوگل آن صفحات را مورد خزش قرار نمیدهند.

بنابراین فرض کنید صفحه تشکر سایت در آدرس https://yoursite.com/thank-you/ وجود دارد که باید دستور زیر را اجرا کنید:

نحوه بهینه سازی robots.txt برای سئونحوه بهینه سازنحوه بهینه سازی robots.txt برای سئوی robots.txt برای سئو
نحوه بهینه سازی robots.txt برای سئو

دو دستورالعمل دیگر وجود دارد که باید بدانید: noindex و nofollow.

آیا می‌دانید که چه زمانی از دستورالعمل disallow استفاده می‌کنیم؟ در واقع این دستور از ایندکس شدن صفحه جلوگیری نمی کند.

بنابراین از نظر تئوری، شما می توانید یک صفحه را disallow کنید، اما همچنان می تواند در فهرست ایندکس قرار گیرد.

به همین دلیل است که شما به دستورالعمل noindex نیاز دارید. با دستورالعمل Disallow کار می کند تا مطمئن شوید ربات ها از صفحات خاصی بازدید نمیکنند و یا آن ها را ایندکس نمی کنند.

اگر صفحاتی دارید که نمی‌خواهید ایندکس شوند (مانند صفحات تشکر)، می‌توانید از دستورالعمل‌های Disallow و Noindex استفاده کنید:

آموزش بهینه سازی robots.txt برای سئو
آموزش بهینه سازی robots.txt برای سئو

اکنون، آن صفحه در SERP یا نتایج جستجو نشان داده نمی شود.

در نهایت، دستورالعمل nofollow وجود دارد. این در واقع همان لینک nofollow است. به طور خلاصه، به ربات‌های وب می‌گوید که پیوندهای یک صفحه را مورد خزش قرار ندهند.

اما دستور nofollow قرار است کمی متفاوت اجرا شود زیرا در واقع بخشی از فایل robots.txt نیست.

کد صفحه ای را که می خواهید تغییر دهید پیدا کنید و مطمئن شوید که این کد بین تگ های <head> قرار دارد.

آموزش بهینه سازی robots.txt برای سئو
آموزش بهینه سازی robots.txt برای سئو

سپس این خط را بنویسید:

<meta name=”robots” content=”nofollow”>

اگر می خواهید هر دو دستورالعمل noindex و nofollow را اضافه کنید، از این خط کد استفاده کنید:

<meta name=”robots” content=”noindex,nofollow”>

آموزش بهینه سازی robots.txt برای سئو
آموزش بهینه سازی robots.txt برای سئو

این به ربات های وب هر دو دستورالعمل را در یک زمان می دهد.

اگر میخواهید با صفر تا صد سئو آشنا شوید و به راحتی این اصول را در سایت تان پیاده سازی کنید و به رتبه های برتر گوگل دست یابید حتما به صفحه آموزش صفر تا صد سئو رایگان مراجعه کنید و این راهکار ها را در سایت تان پیاده سازی کنید.

آموزش ساخت robots.txt وردپرس

آموزش ساخت robots.txt وردپرس مانند دستورایت است که در قسمت قبل به شما اموزش دادیم و شما میتوانید از این دستورات برای سایت های وردپرسی نیز استفاده کنید.

البته شما میتوانید از افزونه All in One SEO برای ساخت robots.txt وردپرس استفاده کنید که شما میتوانید با استفاده از این افزونه ساخت فایل robot.txt را به راحتی انجام داده و برای ویرایش robots.txt اقدام کنید.

برای ویرایش robots.txt شما باید در منو پیشخوان وردپرس روی گزینه All in One SEO کلیک گنید و از میان گزینه های نمایش داده شده گزینه Enable Custom Robots.txt را انتخاب کنید. به این ترتیب شما میتوانید به این فایل دسترسی داشته باشید و برای ویرایش robots.txt اقدام کنید.

به این ترتیب شما میتوانید در بخش Robots.txt Preview به این فایل دسترسی داشته باشید و دستورات قرارداده شده در این فایل را ویرایش کنید.

در این بخش دکمه Add Rule وجود دارد که میتوانید با استفاده از این دکمه دستورات یا قوانین سفارشی خود را به فایل تان اضافه کنید.

از ایندکس شدن چه صفحاتی باید جلوگیری شود

یکی ازسوالاتی که برای سئوکاران مطرح میشود این است که چه صفحاتی باید ایندکس شوند و از ایندکس شدن چه صفحاتی باید جلوگیری شود؟

شما با استفاده از فایل robots.txt میتوانید جلوی ایندکس شدن بسیاری از تگ ها، دسته بندی ها و صفحات خاصی از سایت تان را بگیرید زیرا بعضی از موارد میتوانند تاثیر منفی بر رتبه بندی سایت داشته باشند. مواردی که باید برای ایندکس شدن آن ها جلوگیری کرد عبارتند از:

  • صفحات با محتوای تکراری
  • صفحاتی که با هم تداخل دارند و تعدادی از آن ها از نظر ورودی ارزشی ندارند.
  • تگ ها و برچسب هایی در سایت که به عنوان محتوای اضافی در سایت محسوب میشوند.
  • فیلتر بندی های سایت های فروشگاهی که میتوانند مواردی مانند رنگ و قیمت را فیلتربندی کنند.
  • صفحات چت و گفتگو در سایت
  • صفحات مربوط به پروفایل های کاربران
  • صفات ادمین سایت
  • به طور کلی فایل هایی که نیازی به دیده شدن توسط گوگل ندارند.

نحوه تغییر فایل robots.txt چیست

یکی از مهمترین عواملی که شما باید برای تغییر فایل robots.txt در نظر داشته باشید سیستم مورد استفاده شما یا cms میباشد. شما در هر cms میتوانید از طریق افزونه ها و یا برنامه ها به فایل robots.txt دسترسی پیدا کنید و تغییرات لازم را در آن اعمال کنید.

برای مثال Wix و Shopify به شما این امکان را میدهد به فایل robots.txt دسترسی پیدا کنید و در سیستم مدیریت محتوا وردپرس نیز مانند Yoast SEO امکان دسترسی به این فایل را ممکن میکند.

در صورتی که از سیستم مدیریت محتوا خاصی استفاده نمیکنید و یا به هر دلیلی نمیخواهید از طریق افزونه ها به آن دسترسی پیدا کنید میتوانید آدرس  domain.com/robots.txt را وارد کرده و با نمایش داده شدن فایل آن را ذخیره کرده و یا کپی نمایید.

زمانی که شما robots.txt را دانلود کردید میتوانید در یک نرم افزار ویرایشگر آن را ادیت کنید و تغییرات لازم را در آن اعمال کنید. برای تغییر فایل robots.txt دقت داشته باشید که ویرایشگر شما در استاندارد UTF-8 باشد و نام فایل حتما robots.txt باشد.

بعد از آن که تغییرات را در آن اعمال کردید باید مجدد آن را آپلود نمایید که برای این کار مجدد میتوانید از افزونه های مخصوص cms خودتان و یا هاست و یا از طریق پروتکل های FTP به سرور دسترسی پیدا کنید.

در صورتی که میخواهید robots.txt سایت شما سریع تر مورد بررسی ربات های موتور جستجو قرار بگیرد میتوانید از این لینک برای این کار اقدام کنید.

سینتکس Robots.txt

به طور کلی فایل Robots.txt از بلوک های متنی ساخته شده است که در ان قوانین و دستورالعمل هایی وجود دارد و هر بلوک نوشته در آن با User-agent  شروع میشود. نمونه سینتکس Robots.txt در این قسمت برای شما عزیزان قرار داده شده است:

User-agent: *
Disallow: /admin/
Disallow: /users/

#specific instructions for Googlebot
User-agent: Googlebot
Allow: /wp-admin/
Disallow: /users/

#specific instructions for Bingbot
User-agent: Bingbot
Disallow: /admin/
Disallow: /users/
Disallow:/not-for-Bingbot/
Crawl-delay: 10

Sitemap: https://www.example.com/sitemap.xml

جمعبندی

در این مقاله توضیح دادیم فایل Robots.txt چیست و چطور یک فایل Robots عالی بسازیم و آموزش ساخت فایل robots.txt در وردپرس را به همراه آموزش کامل بهینه سازی فایل Robot.txt برای شما عزیزان قرار دادیم. اگر سوالی در مورد آموزش ساخت robots.txt حرفه ای دارید میتوانید در بخش نطرات سوال تان را مطرح کنید تا اساتید ما در کوتاهترین زمان پاسخ شما را بدهند.

اگر میخواهید سایت تان در کوتاهترین زمان به رتبه های برتر گوگل برسد و بیشترین حجم ترافیک را به سایت هدایت کند میتوانید از خدمات سئو سایت شرکت سئو آریا تهران بهره مند شوید. برای بهره مندی از مشاوره رایگان و کسب اطلاعات بیشتر میتوانید با همکاران ما تماس بگیرید.

سوالات متداول

فایل robot.txt چیست؟

فایل robots.txt قراردادی است برای جلوگیری از دسترسی خزنده های وب به تمام یا بخشی از یک وب سایت ساخته میشود. این یک فایل متنی با فرمت .txt است که برای SEO استفاده می شود و حاوی دستوراتی برای ربات های موتورهای جستجو است که صفحاتی را مشخص می کند که می توانند یا نمی توانند ایندکس شوند.

آموزش ساخت فایل robot.txt چگونه است؟

در این مقاله به طور کامل معرفی و نحوه ساخت فایل Robots.txt را توضیح دادیم و آموزش کامل بهینه سازی فایل Robot.txt را در این صفحه قرار دادیم.