一般來說,盡量讓搜索引擎抓取和索引更多內容是seo們經常頭疼的一個問題,沒有收錄、索引就無從談排名.尤其對達到一定規模的網站來說,使網站充分收錄是個頗令人費神的seo技術,當頁面達到比如說幾十萬,無論網站架構怎么設計、多么優化,100%收錄都是不可能的,只能盡量提高收錄率.
但有時候怎么阻止搜索引擎收錄也可能成為一個問題,最近越來越成為問題.需要阻止收錄的情況如保密信息、復制內容、廣告鏈接等.過去常用的阻止收錄方法包括密碼保護、把內容放在表格后面、使用JS/Ajax、使用Flash等.
使用Flash
Google幾年前就開始嘗試抓取Flash內容了,簡單文字性內容已經能抓取.Flash里面的鏈接也能被跟蹤.
表格
Google蜘蛛也能填表,也能抓取POST請求頁面.這個早就能從日志中看到.
JS/Ajax
使用JS鏈接一直以來被當作不搜索引擎友好的方法,因此可以阻止蜘蛛爬行,但兩三年前我就看到JS鏈接不能阻止Google蜘蛛抓取,不僅JS中出現的URL會被爬,簡單的JS還能被執行找到更多URL.
前幾天有人發現很多網站使用的Facebook評論插件里的評論被爬、被收錄,插件本身是個AJAX.這是個好消息.我的一個實驗電子商務網站產品評論功能就因為這個費了不少心思,用Facebook comments插件好處大大的,具體什么好處以后有時間再說,唯一的問題就是評論是AJAX實現的,不能被抓取,而產品評論被收錄是目的之一(產生原創內容).我當時想了半天也沒有解決方法,只好先傻傻地既放上Facebook comments插件又打開購物車本身的評論功能.現在好了,Facebook comments里的評論能被收錄,就不用兩套評論功能了.
Robots文件
目前唯一確保內容不被收錄的方法是robots文件禁止.但也有個壞處,會流失權重,雖然內容是不能收錄了,但頁面成了只接受鏈接權重、不流出權重的無底洞.
Nofollow
Nofollow并不能保證不被收錄.就算自己網站所有指向頁面的鏈接都加了NF,也不能保證別人網站不給這個頁面弄個鏈接,搜索引擎還是能發現這個頁面.
Meta Noindex + Follow
(11月3日補充)讀者no1se提醒,為防止收錄又能傳遞權重,可以在頁面上使用meta noindex和 meta follow,這樣頁面不收錄,但能流出權重.確實如此,也是個比較好的方法.也有一個問題,還是會浪費蜘蛛爬行時間.哪位讀者有能防止收錄、又沒有權重流失、又不浪費爬行時間的方法,請留言,對seo界功德無量.
怎樣使頁面不被收錄是個值得思考的問題,沒意識到嚴重性的童鞋可以想想自己網站上有多少復制內容、低質量內容、各種無搜索價值(但用戶覺得方便、有用所以又不能拿掉)的分類、過濾URL.
評論(0人參與,0條評論)
發布評論
最新評論