親愛的站長們,你們有沒有遇到過這樣的煩惱:明明網站內容質量上乘,還特別針對爬蟲做了優化,結果百度卻不收錄?別急,今天就來聊聊這個讓人頭疼的問題。
原來,問題可能出在網站頁面的長度上。有這么一個上海的網站,它的主體內容是用js生成的,還特別針對爬蟲抓取做了優化,把圖片的二進制內容直接放到了HTML里。結果,頁面長度竟然達到了164k!雖然頁面內容質量很高,但因為太長,爬蟲抓取時被截斷了,導致頁面被認定為“空短”,最終沒有被收錄。
作為SEO工程師,我們有幾點建議給大家:
. 不建議站點使用js生成主體內容。如果js渲染出錯,頁面內容讀取可能會出現問題,影響爬蟲抓取。
. 針對爬蟲抓取做優化時,記得把主體內容放在前面,避免因為抓取截斷導致內容不完整。
. 如果站點針對爬蟲抓取做了SEO優化,建議頁面長度控制在128k以內,不要太長。
SEO優化是一個需要持之以恒的過程,希望這篇文章能給大家帶來一些啟發。讓我們一起努力,共同進步!