<ul id="g60s4"><pre id="g60s4"></pre></ul>
<strong id="g60s4"><nav id="g60s4"></nav></strong>
<ul id="g60s4"></ul>
  • <tr id="g60s4"></tr>
  • 
    
  • 或者

    網站建設初始相關的SEO技術(一)

    作者:草根香蕉皮 瀏覽:206 發布時間:2018-08-01
    分享 評論 0

     網站建設初始技術即網站在建立階段,就必須全盤綜合考慮的技術細節,因為后續在網站運營過程中再進行調整,會牽涉太多方面,甚至無法執行。


      1.網站站點地圖(Sitemap)的設置和技術細節


      Sitemap是一種通知機制,就是通過創建一個文件的方式,把網站網頁的URL提交給搜索引擎,在Sitemap中定義好頁面的URL地址、權重、更新頻率等。通過把Sitemap提交給搜索引擎,搜索引擎爬蟲沿著Sitemap里面的鏈接地址進行爬行,這就是Sitemap的機制。


      普通Sitemap文件的建立如下。通過XML的方式創建Sitemap,這是最常見也是最簡單的一種方式。


      網址


      2015.01.03T04:20.08:00


      always


      1.O


      網址


      2015.01.02T20:20:36Z


      daily


      O.8


      1.百度Sitemap


      網頁地址


      2015-01-01


      dafly


      1.0


      2.重要字段含義


      ?changefreq:指定提交的URL對應頁面內容的更新頻率,例如,daily、weeIdb,、monthly、yearly。這個參數用于設置搜索引擎頁面變動的頻率,即考量是否需要蜘蛛經常爬行并更新網頁的內容。


      ?lastmod:當前頁面內容最后的修改時間,這個參數可以給搜索引擎一個參考,就是時效性的參考,某些內容,特別是咨詢類的,搜索引擎會將內容的更新時間作為排序的一個因子。


      ?priority:定義頁面的權重,權重越高,相對于其他頁面,當前頁面的優先級越高。


      ?:用描述具體的鏈接地址,這里需要注意的是鏈接地址中的一些特殊字符必須轉換為XML(HTML)定義的轉義字符,簡化版的


      Sitemap也可以采用記事本方式,就是直接打開一個記事本,然后把URL填入,每個URL一行,然后直接提交搜索引擎,也能實現同樣的目的。


      3.超級門戶的Sitemap模式


      搜索引擎并不限定每個網站提交的Sitemap文件的個數,因此,如果網頁


      URL條目比較多,可以對新增的頁面進行差額提交。


      在創建多個Sitemap文件時,可以通過一個父Sitemap文件鏈接多個子


      Sitemap文件,子Sitemap文件通過填充實際URL條目的模式完成,這樣可以確保


      每個Sitemap文件的URL條目不會特別多,建議一個Sitemap文件的URL條目不


      要超過1000個。


      下面是一個例子。


      http://www.abc.com/sitemap1.xml.gz


      http://www.abc.com/sitemap2.xml.gz


      Sitemapl:


      URLl


      2015-01-01


      daily


      1.0


      URL2


      20 1 5..0 1.,0 1


      daily


      1.0


      URL3


      2015.01.01


      dafly


      1.0


      URL4


      20 l 5―0 1.0 1


      daily


      1.0


      提交Sitemap的方式有多種,通常的做法是創建百度或者其他搜索引擎的站長賬戶,然后在站長后臺把Sitemap的uRL提交上去,在站長后臺可以看到每個Sitemap的處理進度和收錄的數據。


      2.Robots文件設置和技術細節


      Robots.txt文件放在網站的根目錄下,主要用于通知蜘蛛在該網站上的抓取范圍,SEO可以在這個文件中聲明該網站中不想被搜索引擎收錄的部分,或者指定搜索引擎只收錄特定的部分。


      (1).經常使用到Robots.txt文件的情況


      ?網站升級,老版本網站的很多頁面在新版本網站中去掉了,在這種情況下,可以通過Robots文件告訴蜘蛛不再抓取這些已經被去掉的頁面。


      ?網站存在很多重復的內容,比如一個網站同時存在動態頁面和已經經過靜態化處理的頁面,這些頁面在內容上都是完全重復的內容,為了解決重復的問題,可以在Robots文件中禁止蜘蛛抓取動態頁面。


      ?網站內部有些內容不便于公開發布,但是需要允許內部查閱。遇到這種情況,可以在Robots中告訴蜘蛛不要抓取。


      (2).Robots文件的基本寫法


      User-agent:


      Allow:    /cgi.bin/see


      Allow:    /tmp/hi


      Allow:    /~joe/look


      Disallow:    /cgi.bin/


      Disallow:    /t.mp/


      Disallow:|00e|


      Allow是允許蜘蛛爬行的頁面,而Disallow后面則是不允許蜘蛛訪問的路徑和文件。


      3.Robots的使用示例


      (1)僅允許訪問某目錄下某個后綴的文件。


      這里僅允許訪問帶“$”符號的網址,如下。


      User―agent:*


      Allow:.asp$


      Disallow:/


      (2)禁止索引網站中所有的動態頁面。


      這里是限制訪問帶“?”的網址,例如,index.asp?id=1。


      User―agent:*


      DisallOW:/*?*


      (3)使用“*”,限制訪問帶某個后綴的域名。


      這里是禁止訪問admin目錄下所有htm文件,如下。


      User―agent:*


      DisaUow:/admin/*.htm


    日韩精品人妻系列无码av东京| 国产精品一区二区四区| 久久国产精品久久精| 久久97久久97精品免视看| 精品一区二区三区免费毛片| 国产成人无码精品久久二区三区| 午夜精品福利影院| 亚洲精品亚洲人成在线麻豆| 亚洲AV永久无码精品水牛影视| 国产亚洲精品影视在线产品| 亚洲国产精品专区在线观看| 精品女同一区二区三区在线| 日韩国产成人无码av毛片| 日韩精品无码Av一区二区| 国产精品嫩草影院永久一| WWW夜片内射视频日韩精品成人| 囯产精品久久久久久久久久妞妞| 中文字幕动漫精品专区| 亚洲精品乱码久久久久久下载 | 精品成人一区二区三区免费视频| 日韩精品无码一区二区三区AV| 国产精品一区不卡| 国产精品久久现线拍久青草| 日产精品卡2卡三卡乱码网址| 成人区人妻精品一区二区三区| 久久亚洲精品11p| 99久久综合国产精品免费| 窝窝午夜看片成人精品| 国产高清国内精品福利| 国产精品嫩草影院人体模特| 精品人妻无码区在线视频| 亚洲AV无码乱码麻豆精品国产| 亚洲乱人伦精品图片| 精品人妻AV一区二区三区| 日本阿v精品视频在线观看| 国产精品麻豆高清在线观看| 2021国产精品久久精品| 国产精品久久久久久久app| 欧美国产成人精品二区芒果视频| 蜜臀AV无码精品人妻色欲| 国产精品你懂的在线播放|