همانطور که متن سوال نشون میده ، من تعداد بسیار زیادی duplicate content تو گوگل دارم ، که همشون از طریق query ها ایجاد شده
به این تصویر دقت کنید !
با اینکه گوگل تمام query parameter هارو میشناسه ، اما همچنان duplicate ها بسیار زیادن
حالا سوال من اینه ، آیا این پارامتر هارو تو robots.txt ببندم که کلا واردشون نشه ؟
مثل این فایل روبوت :
User-agent: *
Disallow: /wp-admin/
Disallow: /*?mweb*
Disallow: /*?product_cat*
Disallow: /*?product_tag*
Disallow: /*?source_id*
Disallow: /*?orderby*
Disallow: /*?product_order*
Disallow: /*?product_count*
Disallow: /*?page_size*
Disallow: /