1、搜尋引擎的具體優化規則是什麼?
搜尋引擎的優化規則是什麼
此類問題實際上很寬泛,相當於問「SEO怎麼做?」這邊用圖片大概講解一下抓取規則
搜尋引擎從用戶搜索到最終搜索結果展現的步驟是(以百度為例):
抓取,百度都不知道你的網站,如何讓你有排名呢?所以要讓百度知道你,就要先通過抓取這個步驟;
過濾,過濾掉低質量的頁面內容;
索引,只有合格的頁面才會被存儲;
處理,對搜索詞進行處理,如中文特有的分詞處理,去除停止詞,判斷是否需要啟動整合搜索,判斷是否有拼寫錯誤或錯別字等情況。
排名,將高質量的頁面展現給用戶;
搜尋引擎的優化規則是什麼
蜘蛛(Spider):
被搜尋引擎派出能在網上發現新網頁並抓取的程序稱為蜘蛛,其從已知的資料庫出發,像正常用戶的瀏覽器一樣訪問這些網頁,並跟蹤網頁中的連結,訪問更多的網頁,這個過程就叫爬行;
蜘蛛對一個站點的遍歷抓取策略分深度優先和廣度優先兩種。
搜尋引擎的優化規則是什麼
spider抓取的基本過程:
根據爬取目標和範圍,可分為 批量性爬蟲:明確的抓取目標和範圍,達到即停止; 增量型爬蟲:應對網頁不斷更新的狀態,爬蟲需要及時反應,通用商業引擎一般都是這類; 垂直型爬蟲:只針對某個特定領域的爬蟲,根據主題過濾;
百度官方 spider抓取過程中的策略
1、抓取友好性,同一個站點在一段時間內的抓取頻率和一段時間內的抓取流量都不同,即錯開正常用戶訪問高峰不斷的調整,避免程度過大影響被抓網站的正常用戶訪問行為。
2、常用抓取返回碼,如503,404,403,301等;
3、多種url重定向的識別,如http 30x、meta refresh重定向和js重定向,Canonical標籤也可看做變相的重定向;
4、抓取優先級調配,如深度優先遍歷策略、寬度優先遍歷策略、pr優先策略、反鏈策略、大站優先策略等;
5、重複url的過濾,包括url歸一化識別,例如一個url中包含大量無效參數而實際是同一個頁面;
6、暗網數據的獲取,搜尋引擎暫時無法抓取到的數據,如存在於網絡資料庫中,或由於網絡環境、網站本身不符合規範、孤島等問題而造成的無法被抓取,如百度的「阿拉丁」計劃;
7、抓取反作弊,抓取過程中往往會遇到所謂抓取黑洞或者面臨大量低質量頁面的困擾,這就要求抓取系統中同樣需要設計一套完善的抓取反作弊系統。如分析url特徵、分析頁面大小及內容、分析站點規模對應抓取規模等;
spider感興趣的頁面有3類:
1.從未抓取過的新頁面。
2.抓取過但內容有改動的頁面。
3.抓取過但現在已刪除的頁面。
搜尋引擎的優化規則是什麼
蜘蛛不能/不喜歡抓取的內容:
1.被robot屏蔽的頁面;
2.圖片、視頻和flash裡的內容;
3.Js、iframe框架、table嵌套;
4.蜘蛛被伺服器端屏蔽;
5.孤島頁面(無任何導入連結);
6.登錄後才能獲取的內容;
四種近似重複網頁類型:
1.完全重複頁面:在內容和布局格式上毫無區別;
2.內容重複頁面:內容相同,但布局格式不同;
3.布局重複頁面:有部分重要的內容相同,並且布局格式相同;
4.部分重複頁面有部分重要內容相同,但布局格式不同;
典型的網頁去重算法:特徵抽取、文檔指紋生成、相似性計算
低質量的內容頁面:
1.多個URL地址指向同一網頁以及鏡像站點,如帶www和不帶www的同時解析到一個網站;
2.網頁內容重複或近似重複,如採集內容,文不對題或垃圾信息;
沒有豐富的內容,如純圖片頁面或頁面內容搜尋引擎識別不了;
過濾-重複文檔的處理方式:
1.低質量內容予以刪除
2.高質量重複文檔分組並優先展示(重複性高表示受歡迎)