رفتن به مطلب
yohana

ایندکس شدن فایل robots.txt

پست های پیشنهاد شده

سلام دوستان

وقت بخیر

آقا فایل robots.txt من تو گوگل ایندکس شده . 

وقتی از این دستور استفاده می کنم site:www.yoursite.com 

جزو لینک های ایندکس شده گوگل میاد و روش کلیک میکنم محتویاتش نشون داده میشه .

اگر توسط خودش از ایندکس شدنش جلوگیری کنم مشکلی یش نمیاد؟

به اشتراک گذاری این ارسال


لینک به ارسال

به گفتگو بپیوندید

هم اکنون می توانید مطلب خود را ارسال نمایید و بعداً ثبت نام کنید. اگر حساب کاربری دارید، برای ارسال با حساب کاربری خود اکنون وارد شوید .

مهمان
ارسال پاسخ به این موضوع ...

×   شما در حال چسباندن محتوایی با قالب بندی هستید.   حذف قالب بندی

  تنها استفاده از 75 اموجی مجاز می باشد.

×   لینک شما به صورت اتوماتیک جای گذاری شد.   نمایش به صورت لینک

×   محتوای قبلی شما بازگردانی شد.   پاک کردن محتوای ویرایشگر

×   شما مستقیما نمی توانید تصویر خود را قرار دهید. یا آن را اینجا بارگذاری کنید یا از یک URL قرار دهید.


  • مطالب مشابه

    • توسط unid_user
      سلام و درود
      دوستان گرامی، وقتی در انتهای سایتم به صورت example.com/robots.txt رو وارد میکنم، خطای 404 گوگل میاد.
      ولی وقتی به صورت example.com/fa/robots.txt وارد میکنم. وارد سایت خودم میشه و خطای 404 میده. "برگه پیدا نشد".
      مطالب سایتم در گوگل ایندکس هستند. آیا مشکل جدید دارم یا نه؟
      چطور باید این مشکل و برطرف کنم؟
       
      با تشکر و سپاس
    • توسط erfan98_
      سلام دوستان
      میدونیم که فایل robots باید بسته به نوع سایت و نیازهاش ساخته بشه.
      کسی میدونه چه معیارهایی رو باید ملاک قرار بدیم برای ساخت فایل ربات برای یه سایت خاص؟
       
      مثلا بستن feed
      خطاهای وبمستر و ...                         
       
      سپاس
    • توسط yotawp
      سلام دوستان وقتتون بخیر
      ی چند روزی هست که سایت من دیگه ایندکس نمیشه و وقتی به گوگل وب مستر میرم این خطا رو میبینم
      اگر کسی میتونه کمک کنه ممنون میشم بهم بگه باید چکار کنم

    • توسط A . S
      همانطور که متن سوال نشون میده ، من تعداد بسیار زیادی duplicate content تو گوگل دارم  ، که همشون از طریق query ها ایجاد شده
      به این تصویر دقت کنید !
      با اینکه گوگل تمام query parameter هارو میشناسه ، اما همچنان duplicate ها بسیار زیادن 
      حالا سوال من اینه ، آیا این پارامتر هارو تو robots.txt ببندم که کلا واردشون نشه ؟ 
      مثل این فایل روبوت : 
      User-agent: * Disallow: /wp-admin/ Disallow: /*?mweb* Disallow: /*?product_cat* Disallow: /*?product_tag* Disallow: /*?source_id* Disallow: /*?orderby* Disallow: /*?product_order* Disallow: /*?product_count* Disallow: /*?page_size* Disallow: /?add-to-cart* Allow: /wp-admin/admin-ajax.php  
      و یا کلا هر چی "؟" داره رو ببندم !؟
      User-agent: * Disallow: /wp-admin/ Disallow: /*?* Allow: /wp-admin/admin-ajax.php و یا نه
      کلا کاری با robots.txt نداشته باشم و توی گوگل تو بخش URL Parameters مشخص کنم که به اینها کاری نداشته باشه ؟ توی این بخش هم تمام پارامترهارو شناخته
      چطور با این نوع duplicate content توی وردپرس برخورد کنیم ؟!
      تصویر url parameter ها
    • توسط parsmelodi
      سلام دوستان کسی فایل robots.txt خوب برای سایت سراغ داره به ما هم بده؟
      واقعا ممنون میشم
      آدرس سایت من  پارس ملودی  http://parsmelodi.com
×
×
  • اضافه کردن...