رفتن به مطلب
A . S

بررسی robots.txt پیشرفته برای جلوگیری از duplicate content

پست های پیشنهاد شده

همانطور که متن سوال نشون میده ، من تعداد بسیار زیادی duplicate content تو گوگل دارم  ، که همشون از طریق query ها ایجاد شده

به این تصویر دقت کنید !

با اینکه گوگل تمام query parameter هارو میشناسه ، اما همچنان duplicate ها بسیار زیادن 
حالا سوال من اینه ، آیا این پارامتر هارو تو robots.txt ببندم که کلا واردشون نشه ؟ 
مثل این فایل روبوت : 

User-agent: *
Disallow: /wp-admin/
Disallow: /*?mweb*
Disallow: /*?product_cat*
Disallow: /*?product_tag*
Disallow: /*?source_id*
Disallow: /*?orderby*
Disallow: /*?product_order*
Disallow: /*?product_count*
Disallow: /*?page_size*
Disallow: /?add-to-cart*
Allow: /wp-admin/admin-ajax.php

 

و یا کلا هر چی "؟" داره رو ببندم !؟

User-agent: *
Disallow: /wp-admin/
Disallow: /*?*
Allow: /wp-admin/admin-ajax.php

و یا نه

کلا کاری با robots.txt نداشته باشم و توی گوگل تو بخش URL Parameters مشخص کنم که به اینها کاری نداشته باشه ؟ توی این بخش هم تمام پارامترهارو شناخته
چطور با این نوع duplicate content توی وردپرس برخورد کنیم ؟!

تصویر url parameter ها

به اشتراک گذاری این ارسال


لینک به ارسال

به گفتگو بپیوندید

هم اکنون می توانید مطلب خود را ارسال نمایید و بعداً ثبت نام کنید. اگر حساب کاربری دارید، برای ارسال با حساب کاربری خود اکنون وارد شوید .

مهمان
ارسال پاسخ به این موضوع ...

×   شما در حال چسباندن محتوایی با قالب بندی هستید.   حذف قالب بندی

  تنها استفاده از 75 اموجی مجاز می باشد.

×   لینک شما به صورت اتوماتیک جای گذاری شد.   نمایش به صورت لینک

×   محتوای قبلی شما بازگردانی شد.   پاک کردن محتوای ویرایشگر

×   شما مستقیما نمی توانید تصویر خود را قرار دهید. یا آن را اینجا بارگذاری کنید یا از یک URL قرار دهید.


  • مطالب مشابه

    • توسط unid_user
      سلام و درود
      دوستان گرامی، وقتی در انتهای سایتم به صورت example.com/robots.txt رو وارد میکنم، خطای 404 گوگل میاد.
      ولی وقتی به صورت example.com/fa/robots.txt وارد میکنم. وارد سایت خودم میشه و خطای 404 میده. "برگه پیدا نشد".
      مطالب سایتم در گوگل ایندکس هستند. آیا مشکل جدید دارم یا نه؟
      چطور باید این مشکل و برطرف کنم؟
       
      با تشکر و سپاس
    • توسط erfan98_
      سلام دوستان
      میدونیم که فایل robots باید بسته به نوع سایت و نیازهاش ساخته بشه.
      کسی میدونه چه معیارهایی رو باید ملاک قرار بدیم برای ساخت فایل ربات برای یه سایت خاص؟
       
      مثلا بستن feed
      خطاهای وبمستر و ...                         
       
      سپاس
    • توسط parsmelodi
      سلام دوستان کسی فایل robots.txt خوب برای سایت سراغ داره به ما هم بده؟
      واقعا ممنون میشم
      آدرس سایت من  پارس ملودی  http://parsmelodi.com
    • توسط mohandes1900
      یه مشکل بزرگ داره سایتم
      مطالب جدید رو از سایت های خارجی ترجمه میکنیم و توی سایت قرار میدیم حتی عنوان ها هم تو گوگل فارسیشون قبلا نبوده و کلا پست ها خیلی خوبن اما نمیدونم چرا وقتی توی گوگل سرچ میکنیم عنوان پست رو نشون نمیده و فقط با تگ های اون پست میشه پیداش کرد..
      کسی میدونه دلیلش چیه؟
      عکس های پست ها هم نمیاد توی گوگل
    • توسط mohandes1900
      سلام دوستان کسی فایل robots.txt خوب برای سایت سراغ داره به ما هم بده؟
      واقعا ممنون میشم
×
×
  • اضافه کردن...