大家好!昨晚幫朋友修電腦到深夜,所以今天的博文現在才發。別急,疊玉科技SEO今天要分享的可是干貨——關于網站SEO的入門知識,也是搜索引擎蜘蛛訪問網站的“第一站”:Robots協議的妙用和編寫技巧。
一、Robots協議是個啥
俗稱“蘿卜絲”,Robots協議其實是搜索引擎的“機器協議”,用來告訴蜘蛛哪些頁面可以抓取,哪些不可以。這很重要,因為有些頁面被抓取可能會有風險或損害利益。
二、Robots協議的三大指
- User-agent:指定哪些蜘蛛可以遵循下面的規則。
- Disallow:告訴蜘蛛哪些頁面或目錄禁止抓取。
- Allow:指定允許蜘蛛抓取的內容。
別忘了,還可以在Robots文件中放置站點地圖,方便蜘蛛快速找到。
三、如何編寫Robot
- User-agent:定義蜘蛛名,如Baiduspider、Googlebot等。
- Disallow:列出不希望被抓取的頁面或目錄。
- Allow:指定可以被抓取的內容。
四、Robots的實際應
舉幾個例子:
- 禁止所有搜索引擎抓取所有頁面。
- 只允許百度蜘蛛抓取所有頁面。
- 禁止所有蜘蛛抓取特定目錄和頁面,其他允許。
五、Robots協議的大事
- 淘寶封殺百度爬蟲。
- 京東屏蔽一淘網爬蟲。
- BE拍賣公司因無視Ebay的Robots協議被告。
- 搜索被指違反Robots協議。
如果還有疑問,歡迎訪問疊玉科技SEO博客留言或加入官方群,博主會為大家解答。更多SEO知識,盡在疊玉科技SEO博客,助你SEO之路一臂之力!