<ul id="g60s4"><pre id="g60s4"></pre></ul>
<strong id="g60s4"><nav id="g60s4"></nav></strong>
<ul id="g60s4"></ul>
  • <tr id="g60s4"></tr>
  • 
    
  • 或者

    搜索引擎真的遵守robots.txt協議嗎?

    作者:青檸i 瀏覽:175 發布時間:2018-05-22
    分享 評論 0

        我們都知道文件是搜索引擎遵守的一個抓取協議,但是是不是真的有效果呢?


        搜索引擎真的會遵循這個協議嗎?


        讓我們首先來看看


        下面這段 [這是我南昌seo站點的設置:允許GG 百度、ALEXA 抓取,屏蔽了其他一切引擎禁止!]


        User-agent:Googlebot


        Disallow:


        User-agent:baiduspider


        Disallow:


        User-agent:ia_archiver


        Disallow:


        User-agent:*


        Disallow:/


        從理論上來說 這樣的設置就屏蔽了其他一切引擎,但實際上這種方法并不能完全屏蔽SOSO YAHOO MSN之類的爬蟲,在YAHOO上輸入site:還是可以看到內容以及索引的! 遵守robots協議與否當然是由他們自己說了算的!所以要想完全屏蔽搜索引擎的爬蟲,需要在.htaccess中加入限制語句才行,這里我們介紹2種最簡單的方法: 1:


        RewriteEngine on RewriteCond %{HTTP_USER_AGENT} ^MSNBOT [NC] RewriteRule .* - [F]


        2:


        SetEnvIfNoCase User-Agent "^MSNBOT" bad_bot


        <Limit GET POST> Order Allow,Deny Allow from all Deny from env=bad_bot </Limit>


        注:MSNBOT 為MSN蜘蛛機器人代碼 ,如果想要真正屏蔽某個搜索引擎 把其中的紅色部分[MSNBOT] 換成你想要屏蔽的蜘蛛機器人代碼即可! 請不要隨意添寫 否則造成損失與本人無關! seo小林發布,轉載請注明出處:江西南昌seo


    精品一区二区三区免费毛片爱| 亚洲综合精品网站在线观看| 国产精品国产三级国产专播| 久久精品*5在热| 999成人精品视频在线| 凹凸国产熟女精品视频app| 日韩精品电影一区| 亚洲欭美日韩颜射在线二| 国内精品久久久久久无码不卡| 亚洲欧美国产精品专区久久| 精品国产一区二区三区四区| 99久久综合精品国产| 久久精品中文字幕不卡一二区| 国产精品网站在线观看免费传媒| 久久精品国产精品亚洲| 精品多毛少妇人妻AV免费久久| 亚洲国产精品尤物yw在线| 精品人妻无码专区在中文字幕| 日韩精品无码中文字幕一区二区| 国产女精品视频在ktv| 国产精品无码一二区免费| 精品久久久久久亚洲综合网| 嫩草影院在线观看精品视频| 国产乱人伦偷精品视频免| 经典国产乱子伦精品视频| 亚洲AV成人精品一区二区三区| 91精品国产91| 曰产无码久久久久久精品| 99热在线精品免费全部my| 一本色道久久88亚洲精品综合 | 国产成人综合一区精品| 亚洲精品人成网在线播放影院| 2021国产精品久久精品| 九九精品久久久久久噜噜| 国产精品高清一区二区三区不卡| 99国产精品永久免费视频| 97香蕉久久夜色精品国产| 国产成人无码精品久久久小说| 精品国产亚洲AV麻豆| 国产精品毛多多水多| www.日韩三级www.日日爱|