<ul id="g60s4"><pre id="g60s4"></pre></ul>
<strong id="g60s4"><nav id="g60s4"></nav></strong>
<ul id="g60s4"></ul>
  • <tr id="g60s4"></tr>
  • 
    
  • 或者

    robots.txt怎么寫?【seo優化】

    作者:山里的苦丁 瀏覽:249 發布時間:2018-01-29
    分享 評論 0

      robots文件是用來告訴搜索引擎:這個網站上哪些部分可以被訪問、哪些不可以,robots文件是存放在網站根目錄下的一個純文本文件。當搜索引擎訪問一個網站時,它首先會檢查該網站根目錄下是否存在robots文件。robots文件必須放置在一個網站的根目錄下,而且文件名必須全部小寫。


      我們做的網站肯定希望被收錄,因為網站流量的一部分或者是大部分都是來自搜索,所以對網站來說是很重要的。問題是:我們有的網站內容不希望杯搜索到,那么怎么辦呢?在這種情況下,我們就有必要會用到robots文件,來與搜索引擎溝通。所有的搜索引擎蜘蛛自動在網站根目錄中尋找這個文件,所以你只需創建它并上傳,然后等待蜘蛛來閱讀。


      1、允許所有搜索引擎訪問


      User-agent: *


      Disallow:


      或者


      User-agent: *


      Allow: /


      在這里大家要注意下,可以最直接的建一個空文件 “robots.txt”然后放到網站的根目錄。


      2、禁止所有搜索引擎訪問


      User-agent: *


      Disallow: /


      或者


      User-agent: *


      allow:


      3、禁止所有搜索引擎訪問網站中的幾個部分,在這里我用a、b、c目錄來代替


      User-agent: *


      Disallow: /a/


      Disallow: /b/


      Disallow: /c/


      如果是允許,則是


      Allow: /a/


      Allow: /b/


      Allow: /c/


      4、禁止某個搜索引擎的訪問,我用w來代替


      User-agent: w


      Disallow: /


      或


      User-agent: w


      Disallow: /d/*.htm


      在Disallow:后面加 /d/*.htm的意思是禁止訪問/d/目錄下的所有以”.htm”為后綴的URL,包含子目錄。


      5、只允許某個搜索引擎的訪問,我用e來代替


      User-agent: e


      Disallow:


      在Disallow:后面不加任何東西,意思是僅允許e訪問該網站。


      6、使用”$”限制訪問url


      User-agent: *


      Allow: .htm$


      Disallow: /


      意思是僅允許訪問以”.htm”為后綴的URL


      7、禁止訪問網站中所有的動態頁面


      User-agent: *


      Disallow: /*?*


      8、禁止搜索引擎F抓取網站上所有圖片


      User-agent: F


      Disallow: .jpg$


      Disallow: .jpeg$


      Disallow: .gif$


      Disallow: .png$


      Disallow: .bmp$


      意思是只允許引擎抓取網頁,禁止抓取任何圖片(嚴格來說,是禁止抓取jpg、jpeg、gif、png、bmp格式的圖片。)


      9、只允許搜索引擎E抓取網頁和.gif格式圖片


      User-agent: E


      Allow: .gif$


      Disallow: .jpg$


      Disallow: .jpeg$


      Disallow: .png$


      Disallow: .bmp$


      意思是只允許抓取網頁和gif格式圖片,不允許抓取其他格式圖片


      END


      注意事項


      絕大多數的搜索引擎機器人都遵守robots文件的規則,關于怎么寫robots文件的方法,大致就是這些了。要提醒大家的是:robots.txt文件一定要寫對,如果不太會寫,還是要先了解再寫,以免給網站的收錄帶來麻煩。


    亚洲精品福利网站| 国内精品伊人久久久久av一坑 | 999任你躁在线精品免费不卡| 奇米影视国产精品四色| 免费精品一区二区三区在线观看| 亚欧在线精品免费观看一区| 久久这里只有精品18| 国产精品三级国产电影| 国产在线无码精品电影网| 精品无码一级毛片免费视频观看| 国产日韩在线观看视频网站| 国产精品综合AV一区二区国产馆 | 最新国产午夜精品视频不卡| 亚洲精品无码成人片久久不卡| 久久91综合国产91久久精品| 久久国产香蕉一区精品| 国产热re99久久6国产精品| 午夜人屠h精品全集| 国产伦精品一区二区三区不卡| 国产亚洲精品VA片在线播放| 国产精品福利在线观看| 精品伊人久久大线蕉色首页| 亚洲国产精品综合久久久| 久久精品一本到99热免费| 99热在线精品播放| 精品一区二区三区在线成人| 久久99久久99精品免视看动漫| 999久久久免费精品播放| 97久久精品亚洲中文字幕无码 | 国产精品玖玖玖在线资源| 色综合99久久久无码国产精品| 亚洲色精品VR一区区三区| 中文字幕日韩精品一区二区三区| 97视频精品视频人人一二区| 国产精品久久久久一区二区三区 | 久热国产精品视频一区二区三区| 亚洲精品无码av中文字幕| 国产精品久久久久久久久久久不卡 | 日韩人妻无码精品专区| av蓝导航精品导航| 国产成人精品一区二区秒拍|