رفتن به مطلب

بررسی robots.txt پیشرفته برای جلوگیری از duplicate content


A . S

پست های پیشنهاد شده

همانطور که متن سوال نشون میده ، من تعداد بسیار زیادی duplicate content تو گوگل دارم  ، که همشون از طریق query ها ایجاد شده

به این تصویر دقت کنید !

با اینکه گوگل تمام query parameter هارو میشناسه ، اما همچنان duplicate ها بسیار زیادن 
حالا سوال من اینه ، آیا این پارامتر هارو تو robots.txt ببندم که کلا واردشون نشه ؟ 
مثل این فایل روبوت : 

User-agent: *
Disallow: /wp-admin/
Disallow: /*?mweb*
Disallow: /*?product_cat*
Disallow: /*?product_tag*
Disallow: /*?source_id*
Disallow: /*?orderby*
Disallow: /*?product_order*
Disallow: /*?product_count*
Disallow: /*?page_size*
Disallow: /?add-to-cart*
Allow: /wp-admin/admin-ajax.php

 

و یا کلا هر چی "؟" داره رو ببندم !؟

User-agent: *
Disallow: /wp-admin/
Disallow: /*?*
Allow: /wp-admin/admin-ajax.php

و یا نه

کلا کاری با robots.txt نداشته باشم و توی گوگل تو بخش URL Parameters مشخص کنم که به اینها کاری نداشته باشه ؟ توی این بخش هم تمام پارامترهارو شناخته
چطور با این نوع duplicate content توی وردپرس برخورد کنیم ؟!

تصویر url parameter ها

لینک به ارسال

لطفا برای ارسال دیدگاه وارد شوید

شما بعد از اینکه وارد حساب کاربری خود شدید می توانید دیدگاهی ارسال کنید



ورود به حساب کاربری
×
×
  • اضافه کردن...