<ul id="g60s4"><pre id="g60s4"></pre></ul>
<strong id="g60s4"><nav id="g60s4"></nav></strong>
<ul id="g60s4"></ul>
  • <tr id="g60s4"></tr>
  • 
    
  • 或者

    robots.txt文件到底有什么用呢?

    作者:山里的苦丁 瀏覽:243 發(fā)布時間:2017-11-01
    分享 評論 0

      前幾天有朋友在網(wǎng)站通過聊天窗口問苦丁,有什么什么辦法阻止搜索引擎的收錄,因為自己網(wǎng)站上面有的東西不想被搜索引擎收錄。其實是可以實現(xiàn)的,在這里就有必要好好介紹一下robots.txt文件,因為通過這個robots.txt全完可以實現(xiàn)搜索引擎收錄的問題。


      其實不管是企業(yè)網(wǎng)站還是門戶網(wǎng)站,上面都會有些資料是保密而不對外公開的。怎么樣做到不對外公開呢?唯一的保密的措施就是不讓搜索引擎來搜錄這些信息。這 樣就會不在網(wǎng)絡(luò)上公司,那么要實現(xiàn)這個網(wǎng)站頁面不收錄,就體了robots.txt的作用啦!robots.txt是一個簡單的記事本文件,這是網(wǎng)站管理 員和搜錄引擎對話的一個通道。在這個文件中網(wǎng)站管理者可以聲明該網(wǎng)站中不想被robots訪問的部分,或者指定搜索引擎只收錄指定的內(nèi)容。


      當(dāng)一個搜索機器人(有的叫搜索蜘蛛)訪問一個站點時,它會首先檢查該站點根目錄下是否存在robots.txt,如果存在,搜索機器人就會按照該文件中的內(nèi)容來確定訪問的范圍;如果該文件不存在,那么搜索機器人就沿著鏈接抓取。


      既然我們這里知道了什么是robots.txt,我們該如何來應(yīng)用呢?


      1、如果我們網(wǎng)站的內(nèi)容為全部公開,則不需要要設(shè)置robots.txt或robots.txt為空就可以啦。


      2、robots.txt這個文件名必需要是小寫而且都要放在網(wǎng)站的根目錄下http://www.xxxxx.com/robots.txt一般要通過這種URL形式能訪問到,才說明我們放的位置是正確的。


      3、robots.txt一般只寫上兩種函數(shù):User-agent和 Disallow。有幾個禁止,就得有幾個Disallow函數(shù),并分行描述。


      4、至少要有一個Disallow函數(shù),如果都允許收錄,則寫: Disallow: ,如果都不允許收錄,則寫:Disallow: /  (注:只是差一個斜桿)。


      寫法說明


      User-agent: *  星號說明允許所有搜索引擎收錄


      Disallow: /search.html   說明 http://www.xxxxx.com/search.html 這個頁面禁止搜索引擎抓取。


      Disallow: /index.php?   說明類似這樣的頁面http://www.www.xxxxx.com/index.php?search=%E5%A5%BD&action=search&searchcategory=%25 禁止搜索引擎抓取。


      常見的用法實例:


      允許所有的robot訪問


      User-agent: *


      Disallow:


      或者也可以建一個空文件 “/robots.txt” file


      禁止所有搜索引擎訪問網(wǎng)站的任何部分


      User-agent: *


      Disallow: /


      禁止所有搜索引擎訪問網(wǎng)站的幾個部分(下例中的01、02、03目錄)


      User-agent: *


      Disallow: /01/


      Disallow: /02/


      Disallow: /03/


      禁止某個搜索引擎的訪問(下例中的BadBot)


      User-agent: BadBot


      Disallow: /


      只允許某個搜索引擎的訪問(下例中的Crawler)


      User-agent: Crawler


      Disallow:


      User-agent: *


      Disallow: /


      另外,我覺得有必要進行拓展說明,對robots meta進行一些介紹:


      Robots META標簽則主要是針對一個個具體的頁面。和其他的META標簽(如使用的語言、頁面的描述、關(guān)鍵詞等)一樣,Robots META標簽也是放在頁面的<head></head>中,專門用來告訴搜索引擎ROBOTS如何抓取該頁的內(nèi)容。


      Robots META標簽的寫法:


      Robots META標簽中沒有大小寫之分,name=”Robots”表示所有的搜索引擎,可以針對某個具體搜索引擎寫為name=”BaiduSpider”。 content部分有四個指令選項:index、noindex、follow、nofollow,指令間以“,”分隔。


      INDEX 指令告訴搜索機器人抓取該頁面;


      FOLLOW 指令表示搜索機器人可以沿著該頁面上的鏈接繼續(xù)抓取下去;


      Robots Meta標簽的缺省值是INDEX和FOLLOW,只有inktomi除外,對于它,缺省值是INDEX,NOFOLLOW。


      這樣,一共有四種組合:


      <META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>


      <META NAME=”ROBOTS” CONTENT=”NOINDEX,FOLLOW”>


      <META NAME=”ROBOTS” CONTENT=”INDEX,NOFOLLOW”>


      <META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>


      其中


      <META NAME=”ROBOTS” CONTENT=”INDEX,FOLLOW”>可以寫成<META NAME=”ROBOTS” CONTENT=”ALL”>;


      <META NAME=”ROBOTS” CONTENT=”NOINDEX,NOFOLLOW”>可以寫成<META NAME=”ROBOTS” CONTENT=”NONE”>


      目前看來,絕大多數(shù)的搜索引擎機器人都遵守robots.txt的規(guī)則,而對于Robots META標簽,目前支持的并不多,但是正在逐漸增加,如著名搜索引擎GOOGLE就完全支持,而且GOOGLE還增加了一個指令“archive”,可以限制GOOGLE是否保留網(wǎng)頁快照。例如:


      <META NAME=”googlebot” CONTENT=”index,follow,noarchive”>


      表示抓取該站點中頁面并沿著頁面中鏈接抓取,但是不在GOOLGE上保留該頁面的網(wǎng)頁快照。


      robots.txt文件對于我們做SEO的朋友來說也是經(jīng)常要用到的,所以我們還要好好了解他的具體操作方法。苦丁分享


    国产精品视频久久久久久 | freesexvideos精品老师毛多| 成年男女男精品免费视频网站| 亚洲精品91在线| 99爱在线精品视频免费观看9| 久久777国产线看观看精品| 久久久久人妻一区精品果冻| 亚洲精品高清久久| 亚洲国产一二三精品无码 | 国产免费无遮挡精品视频| 欧美黑人欧美精品刺激| 91精品国产麻豆福利在线| 在线观看自拍少妇精品| 国产国产成人久久精品| www.午夜精品| 日韩福利电影在线观看| 色妞妞www精品视频| 久久久精品国产sm调教网站| 国产精品青草久久久久福利99| 日韩精品射精管理在线观看| 国产69精品久久久久妇女| 国产精品三级国语在线看| 久久精品94精品久久精品| 免费日韩在线视频| 2019日韩中文字幕MV| 日韩精品人妻av一区二区三区| 国产精品午夜高清在线观看| 精品72久久久久久久中文字幕| 91大神精品在线观看| 99久久精品国产一区二区成人| 亚洲AV日韩精品久久久久| 国产成人久久精品二区三区| 青青热久久国产久精品| 日本一区二区三区精品国产| 国产精品合集一区二区三区 | 99久久人妻无码精品系列蜜桃| 精品国偷自产在线| 2017国产精品自拍| 久久精品亚洲日本波多野结衣| 国产精品∧v在线观看| 精品久久亚洲一级α|