سه شنبه ۰۹ اردیبهشت ۰۴

آنالیز و ایندکس

در این وبلاگ مقالات رسمی و تخصصی سئو سایت منتشر می شود

آنالیز و ایندکس

۱,۸۴۰ بازديد
موتور جستجوی گوگل چندیدن گونه روبات اختصاصی بخود دارااست که معروفترین آن‌ها با نام Googlebot شناخته میگردد و وظیفه آنالیز و ایندکس صفحه ها وب را برعهده داراست . روبات Gogglebot-image هم مسئول محاسبه تصاویر سایت ها و ایندکس کردن آن ها می باشد .
سئو در مشهد

User-Agent:
Googlebot
Disallow:
/folder2/
شما می توانید به راه های مختلفی قوانین خویش را اعمال کنید، میتوان یک کاغذ معلوم و یا یک دسته از صفحات را برای یک قانون توصیف نمود .
مثال های پایین راه های مختلف استعمال از این مقررات هستند: برای
عدم دسترسی روبات ها به تمام محتویات وبسایت از کاراکتر / به کارگیری میکنیم
Disallow:
/
برای
عدم دسترسی به یک پوشه یا مدل از سایت اسم آن را وارد کنید
Disallow:
/blog/
برای
اعمال محدودیت روی یک ورقه مختص نشانی دقیق آن را سوای اسم وب سایت وارد کنید
Disallow:
/blog/keyword-planner/
برای
محدود کردن یک تصویر بر روی وب سایت نشانی آن را بهمراه User-agent مربوط به آن وارد کنید
User-agent:
Googlebot-Image Disallow: /images/dogs .jpg

و
برای پنهان کردن تمام تصاویر جانور بر روی تارنما از روئت کرد موتورهای کاوش از فرمان تحت به کار گیری کنید
User-agent:
Googlebot-Image Disallow:
/
همچنین
شما می‌توانید یک مدل فایل معین را از مشاهده کرد موتورهای جستجو نهفته نگه دارید، بعنوان نمونه برای تصاویری با فرمت gif
User-agent:
Googlebot Disallow: /* .gif$

اعتنا داشته باشید که فولدر robots .txt نسبت به والا و کوچک بودن حروف انگلیسی اساسی بوده و نشانی صفحه ها بایستی به اعتنا وارد شوند . پس از ایجاد پوشه موضوع نظر خویش و ذخیره آن در فرمت txt آن را بر روی سرور و در ریشه اصلی اسکن فرمائید . قانون ها اعمال گردیده برای روبات هایی میباشند که از این پس به سایت شما وارد می گردند حذف صفحاتی که در گذشته ایندکس شده اند از دیتابیس گوگل مستمند گذشت زمان خواهد بود .

آزمایش Robots .txt
در بخش Blocked URLs وبمستر وبمستر گوگل نصیب مشخصی را برای سناریو صفحاتی از وب سایت شما که به وسیله robots .txt دسترسی روبات به آنها محدود شده، در حیث گرفته میباشد . این ورقه با اسم Blocked URLs و بعنوان پایین مجموعه ای از بخش Crawl توصیف شده میباشد .
برای اطمینان از همت درست فایل robots .txt به بخش Blocked URLs در اکانت وبمستر خود مراجعه کرده و نظیر تصویر ذیل در بخش اول محتویات فایل را اسکن نمایید . در بخش دوم نشانی صفحاتی که قصد دارید اندازه محدودیت روبات های گوگل در دسترسی به آنها را بسنجید وارد فرمائید .
(در هر خط یک آدرس) در بخش انتهایی شما میتوانید یک نوع از روبات های گوگل را علاوه بر روبات حیاتی که وظیفه ایندکس صفحه ها را برعهده دارد تعیین فرمائید .
تا كنون نظري ثبت نشده است
ارسال نظر آزاد است، اما اگر قبلا در فارسی بلاگ ثبت نام کرده اید می توانید ابتدا وارد شوید.