بسیاری از وبمستران و دیجیتال مارکترها هنگام بررسی گوگل سرچ کنسول سایتشان با ارور Submitted URL blocked by robots.txt مواجه میشوند؛ این خطا نشانه آن است که بعضی صفحات سایت به دلیل پیکربندی نامناسب فایل robots.txt توسط موتور جستجوگر ایندکس نمیشوند و عملاً از نمایش در نتایج گوگل محروم خواهند شد. اگر همین الآن دنبال رفع این مشکل و تأثیر آن بر سئوی سایت خود هستید، دقیقا جای درستی آمدهاید؛ چون راهکارهای واقعی و قابل اجرا را همینجا میخوانید تا به سرعت نتیجه بگیرید.
آموزش ارور Submitted URL blocked by robots.txt
مراحل گامبهگام رفع مشکل با یک مثال واقعی
برای آموزش عملی، فرض کنید سایت شما www.example.com دارای چند صفحه خدمات است که قصد ایندکس شدن آنها را دارید اما با اعلام ارور Submitted URL blocked by robots.txt مواجه میشوید.
  
  مرحله ۱: به گوگل سرچ کنسول بروید و در بخش Coverage، لیست صفحاتی که این ارور را دریافت کردهاند پیدا کنید. روی پیام خطا کلیک کنید تا جزئیات صفحات مسدود شده نمایش داده شود.
  
  مرحله ۲: فایل robots.txt سایت را در مسیر اصلی یعنی www.example.com/robots.txt بیابید. دستورها را بررسی کنید؛ معمولاً خطا زمانی رخ میدهد که یا به صورت تصادفی کل صفحات یا مسیر خاصی را به کمک دستور Disallow مسدود کردهاید. برای مثال:
User-agent: * Disallow: /services/
  در این حالت، کل پوشه services توسط گوگل بوت قابل خزیدن نیست و هر URL داخل این مسیر دچار مشکل میشود.
  
  مرحله ۳: اگر مسیر خاصی را اشتباه مسدود کردهاید، دستور Disallow را حذف یا تغییر دهید. اگر میخواهید به گوگل اجازه دهید فقط برخی صفحات مهم ایندکس شوند، میتوانید از Allow استفاده کنید:
User-agent: Googlebot Allow: /services/page1 Disallow: /services/
  مرحله ۴: بعد از اصلاح، با ابزار robots.txt Tester گوگل یا افزونههایی مثل Rank Math بررسی کنید که URLهای مورد نظر قابل خزیدن باشند. آدرس problematic page را وارد و تست بزنید تا نتیجه را ببینید.
  
  مرحله ۵: پس از اطمینان، فایل robots.txt را ذخیره و آپلود کنید. سپس در سرچ کنسول روی Validate Fix بزنید تا گوگل وضعیت جدید را پردازش کند.
  
سوالات متداول
جمعبندی
ارور Submitted URL blocked by robots.txt یکی از اصلیترین دلایل ایندکس نشدن صفحات مهم وبسایت است و رفع آن اهمیت مستقیم بر اعتبار سئوی سایت دارد. با یادگیری مراحل رفع دقیق و رعایت کنترل دورهای فایل robots.txt، میتوانید از بروز این خطا جلوگیری کنید و مطمئن باشید تمام صفحات ارزشمند شما بهدرستی توسط گوگل دیده میشوند.
اگر میخواهید برای سایت خود محتوای حرفهای تولید کنید، همین حالا با پرشین اتومات تماس بگیرید.
مطالب مرتبط
علت و رفع ارور URL blocked by Googlebot
معنی ارور Excluded by ‘noindex’ tag در گوگل سرچ کنسول
حل ارور Index request rejected
علت ارور Duplicate without user-selected canonical در سرچ کنسول
رفع ارور Duplicate, Google chose different canonical than user
رفع خطای Submitted URL seems to be a Soft 404
حل ارور Indexed, not submitted in sitemap
حل خطای Page removed because of legal complaint
رفع ارور Submitted URL marked ‘noindex’
علت و رفع ارور Redirect error