在大型網站中SEO工作一些心得
1.流量基礎框架
SEO流量=搜索緯度覆蓋× 收錄 × 排名 × 點擊
2.詳細工作內容
技術類、內容規劃類、數據統計分析類
3.數據統計類
流量數據,Google Analytics監控近7日同比會話數據,百度統計輔助分析,頻率:每日;
爬蟲抓取數據,包括抓取總量、核心頁面抓取量、非200狀態碼數量,利用python開發腳本,聯結服務器日志數據,匯總為郵件形式發給SEOer,頻率:每日;
各大站長平臺數據,包括抓取頻次、收錄和索引、流量和關鍵詞、移動適配、sitemap和主動提交等數據,頻率:每周;
新內容收錄數據,以site:域名+ title的形式,查詢倒排索引量,需要python開發對應查詢腳本,頻率:每周查詢前一周數據;
第三方平臺數據,以5118、愛站為主,參考百度流量預估、關鍵詞、權重等數據,也可以用于競品網站分析,頻率:每周;
4.技術類
針對收錄:爬蟲監控體系的建立;收錄批量查詢腳本開發;sitemap和主動推送部署;
針對流量:流量數據進行頁面級分類,細化流量分布數據;
移動優化:移動適配正則表達式、相關meta聲明代碼部署;
其他技術:百度mip頁面開發;阿拉丁合作xml;
提升頁面相關性和內鏈數量:相關推薦板塊開發;手工錨文本開發;
5.內容規劃類
建立行業流量地圖:按照同一維度確定詞根>百度蜂巢>長尾詞結構概況>輸出腦圖
找到可學習的SEO網站:某一內容領域5118關鍵詞> top20子域名>愛站數據分析流量效率>排除通用站和阿拉丁合作>確定可學習網站
頁面生成機制:詞根>百度蜂巢>長尾詞與詞根相似度計算>高相關且有搜索量&高相關且無搜索量>資源分配不同>編輯產出內容(鎖定keywords、title自擬)> 7日后監控流量數據>對應關鍵詞排名數據(≥10,待定;<10,鏈接資源=搜索量* 100支持)
1>利用各種渠道獲得一批詞根;
2>詞根通過百度蜂巢、5118等獲得長尾詞和對應搜素量數據;
3>篩選出與詞根相關度高且有搜索量的關鍵詞,作為構建內容的核心詞;
4>編輯根據核心詞產出內容,建立關鍵詞與URL一一對應關系;
5>在發布內容7天以后,查詢關鍵詞和URL的排名情況,若排名進入首頁則不進行處理,排名未進入首頁的關鍵詞給予資源傾斜,建設 搜索量*100的鏈接錨文本傳遞給對應鏈接,繼續觀察排名數據;
6>超過發布時間2個月的內容仍然無法排名首頁的,刪除對應文章。
頁面生成機制執行:
大量關鍵詞>搜索量大于50的關鍵詞>批量查詢排名>排名分類(top1,3,5,10,30,其他)>按照排名倒序作為更新內容的緊急次序>排名不好的搜索量大于50的關鍵詞進行2步走>①進行二次關鍵詞挖掘 ②對應關鍵詞進入手工位>去重&清洗不相關詞>整理出需要更新的內容方向>監控現有排名和更新后排名
評論(0人參與,0條評論)
發布評論
最新評論