<ul id="g60s4"><pre id="g60s4"></pre></ul>
<strong id="g60s4"><nav id="g60s4"></nav></strong>
<ul id="g60s4"></ul>
  • <tr id="g60s4"></tr>
  • 
    
  • 或者

    搜索引擎蜘蛛抓取配額是什么?

    作者:冰河世紀 瀏覽:139 發布時間:2017-07-12
    分享 評論 0

    一月份時,Google新的SEO代言人Gary Illyes在Google官方博客上發了一篇帖子:What Crawl Budget Means for Googlebot,討論了搜索引擎蜘蛛抓取份額相關問題。對大中型網站來說,這是個頗為重要的SEO問題,有時候會成為網站自然流量的瓶頸。

    今天的帖子總結一下Gary Illyes帖子里的以及后續跟進的很多博客、論壇帖子的主要內容,以及我自己的一些案例和理解。

    強調一下,以下這些概念對百度同樣適用。

    一、什么是搜索引擎蜘蛛抓取份額?

    顧名思義,抓取份額是搜索引擎蜘蛛花在一個網站上的抓取頁面的總的時間上限。對于特定網站,搜索引擎蜘蛛花在這個網站上的總時間是相對固定的,不會無限制地抓取網站所有頁面。

    抓取份額的英文Google用的是crawl budget,直譯是爬行預算,我覺得不太能說明是什么意思,所以用抓取份額表達這個概念。

    抓取份額是由什么決定的呢?這牽扯到抓取需求和抓取速度限制。

    二、抓取需求

    抓取需求,crawl demand,指的是搜索引擎“想”抓取特定網站多少頁面。

    決定抓取需求的主要有兩個因素。一是頁面權重,網站上有多少頁面達到了基本頁面權重,搜索引擎就想抓取多少頁面。二是索引庫里頁面是否太久沒更新了。說到底還是頁面權重,權重高的頁面就不會太久不更新。

    頁面權重和網站權重又是息息相關的,提高網站權重,就能使搜索引擎愿意多抓取頁面。

    三、抓取速度限制

    搜索引擎蜘蛛不會為了抓取更多頁面,把人家網站服務器拖垮,所以對某個網站都會設定一個抓取速度的上限,crawl rate limit,也就是服務器能承受的上限,在這個速度限制內,蜘蛛抓取不會拖慢服務器、影響用戶訪問。

    服務器反應速度夠快,這個速度限制就上調一點,抓取加快,服務器反應速度下降,速度限制跟著下降,抓取減慢,甚至停止抓取。

    所以,抓取速度限制是搜索引擎“能”抓取的頁面數。

    四、抓取份額是由什么決定的?

    抓取份額是考慮抓取需求和抓取速度限制兩者之后的結果,也就是搜索引擎“想”抓,同時又“能”抓的頁面數。

    網站權重高,頁面內容質量高,頁面夠多,服務器速度夠快,抓取份額就大。

    五、小網站沒必要擔心抓取份額

    小網站頁面數少,即使網站權重再低,服務器再慢,每天搜索引擎蜘蛛抓取的再少,通常至少也能抓個幾百頁,十幾天怎么也全站抓取一遍了,所以幾千個頁面的網站根本不用擔心抓取份額的事。數萬個頁面的網站一般也不是什么大事。每天幾百個訪問要是能拖慢服務器,SEO就不是主要需要考慮的事了。

    六、大中型網站經常需要考慮抓取份額

    幾十萬頁以上的大中型網站,可能要考慮抓取份額夠不夠的問題。

    抓取份額不夠,比如網站有1千萬頁面,搜索引擎每天只能抓幾萬個頁面,那么把網站抓一遍可能需要幾個月,甚至一年,也可能意味著一些重要頁面沒辦法被抓取,所以也就沒排名,或者重要頁面不能及時被更新。

    要想網站頁面被及時、充分抓取,首先要保證服務器夠快,頁面夠小。如果網站有海量高質量數據,抓取份額將受限于抓取速度,提高頁面速度直接提高抓取速度限制,因而提高抓取份額。

    百度站長平臺和Google Search Console都有抓取數據。如下圖某網站百度抓取頻次:

    搜索引擎蜘蛛抓取配額是什么? - 百度站長平臺和Google Search Console都有抓取數據

    上圖是SEO每天一貼這種級別的小網站,頁面抓取頻次和抓取時間(取決于服務器速度和頁面大小)沒有什么大關系,說明沒有用完抓取份額,不用擔心。

    有的時候,抓取頻次和抓取時間是有某種對應關系的,如下圖另一個大些的網站:

    搜索引擎蜘蛛抓取配額是什么? - 有的時候,抓取頻次和抓取時間是有某種對應關系的

    可以看到,抓取時間改善(減小頁面尺寸、提高服務器速度、優化數據庫),明顯導致抓取頻次上升,使更多頁面被抓取收錄,遍歷一遍網站更快速。

    Google Search Console里更大點站的例子:

    搜索引擎蜘蛛抓取配額是什么? - Google Search Console里更大點站的例子

    最上面的是抓取頁面數,中間的是抓取數據量,除非服務器出錯,這兩個應該是對應的。最下面的是頁面抓取時間。可以看到,頁面下載速度夠快,每天抓取上百萬頁是沒有問題的。

    當然,像前面說的,能抓上百萬頁是一方面,搜索引擎想不想抓是另一方面。

    大型網站另一個經常需要考慮抓取份額的原因是,不要把有限的抓取份額浪費在無意義的頁面抓取上,導致應該被抓取的重要頁面卻沒有機會被抓取。

    浪費抓取份額的典型頁面有:

    大量過濾篩選頁面。這一點,幾年前關于無效URL爬行索引的帖子里有詳細討論。

    站內復制內容

    低質、垃圾內容

    日歷之類的無限個頁面

    上面這些頁面被大量抓取,可能用完抓取份額,該抓的頁面卻沒抓。

    七、怎樣節省抓取份額?

    當然首先是降低頁面文件大小,提高服務器速度,優化數據庫,降低抓取時間。

    然后,盡量避免上面列出的浪費抓取份額的東西。有的是內容質量問題,有的是網站結構問題,如果是結構問題,最簡單的辦法是robots文件禁止抓取,但多少會浪費些頁面權重,因為權重只進不出。

    某些情況下使用鏈接nofollow屬性可以節省抓取份額。小網站,由于抓取份額用不完,加nofollow是沒有意義的。大網站,nofollow是可以在一定程度上控制權重流動和分配的,精心設計的nofollow會使無意義頁面權重降低,提升重要頁面權重。搜索引擎抓取時會使用一個URL抓取列表,里面待抓URL是按頁面權重排序的,重要頁面權重提升,會先被抓取,無意義頁面權重可能低到搜索引擎不想抓取。

    最后幾個說明:

    鏈接加nofollow不會浪費抓取份額。但在Google是會浪費權重的。

    noindex標簽不能節省抓取份額。搜索引擎要知道頁面上有noindex標簽,就得先抓取這個頁面,所以并不節省抓取份額。

    canonical標簽有時候能節省一點抓取份額。和noindex標簽一樣,搜索引擎要知道頁面上有canonical標簽,就得先抓取這個頁面,所以并不直接節省抓取份額。但有canonical標簽的頁面被抓取頻率經常會降低,所以會節省一點抓取份額。

    抓取速度和抓取份額不是排名因素。但沒被抓取的頁面也談不上排名。


    亚洲精品无码成人片久久| 日韩视频中文字幕专区| 国产亚洲精品岁国产微拍精品| 337p日本欧洲亚洲大胆精品555588 | 91久久国产精品| 中国国产成人精品久久| 亚洲av无码日韩av无码网站冲| 在线观看精品视频看看播放| 华人在线精品免费观看| 亚洲国产精品无码久久久久久曰 | 久久99国产乱子伦精品免费| 中文成人无字幕乱码精品区| selaoban在线视频免费精品| 亚洲欧洲中文日韩av乱码| 久久久一本精品99久久精品66直播| 一区二区三区日韩精品| 一本一本久久aa综合精品| 亚洲精品乱码久久久久久蜜桃| 国产精品jizzjizz| 人妻少妇精品无码专区动漫| 正在播放国产精品放孕妇| 久久精品国产亚洲香蕉| 亚洲日韩国产一区二区三区在线| 国产人妻人伦精品1国产盗摄| 亚洲国产精品成人久久久| 无码精品A∨在线观看| 国产精品一区二区av| 精品日本一区二区三区在线观看| 日韩视频在线播放| 国产精品亚洲一区二区在线观看 | 亚洲国产精品VA在线观看麻豆| 亚洲av无码成人精品区| 国产成人精品男人的天堂538| 国产精品免费AV片在线观看| 中文字幕在线精品| 国产999精品久久久久久| 日韩av一中美av一中文字慕| heyzo亚洲精品日韩| 国产伦精品一区二区三区视频小说| 国产AV国片精品| 国语精品一区二区三区|