現在位置:主頁 > SEO基礎教程 > 搜索引擎的工作原理

搜索引擎的工作原理

阿里瑞SEO2017年05月07日SEO基礎教程

簡介1. 第一階段:爬行和抓取 這個階段是搜索引擎工作的基礎,搜索引擎蜘蛛通過網頁的鏈接來訪問網頁,將頁面的代碼放入臨時數據庫中。當然蜘蛛并不會是整個網頁多去抓取,他會先去...

1.第一階段:爬行和抓取
     這個階段是搜索引擎工作的基礎,搜索引擎蜘蛛通過網頁的鏈接來訪問網頁,將頁面的代碼放入臨時數據庫中。當然蜘蛛并不會是整個網頁多去抓取,他會先去網站根目錄下的robots.txt文件。這個文件是用來告訴哪些頁面可以抓取,哪些是不能抓取的,因此蜘蛛要嚴格按照這個規則來工作
2,第二階段:預處理【過濾】
     這個階段是搜索引擎工作的加工方面,因為第一步按照robots.txt文件并不是所有都是有用的。其中一些欺騙用戶的網頁,死鏈接,空白內容頁面等,這些垃圾網頁對于用戶的體驗和百度來說,完全沒有利用價值,因此為了不給用戶帶來體驗的下降,百度會對這些內容進行過濾,從臨時數據庫中刪除
3.第三階段:建立索引【分類,歸檔,評分,排名】
這個階段是搜索引擎工作至關重要的一部,也是決定是否展示給用戶的評審階段,蜘蛛會對這些網頁進行一系類復雜的分析,并根據分析的結論在索引庫中尋找與之最為匹配的一系列網站,按照用戶輸入的關鍵詞中體現的需求強烈和網頁的優劣進行打分,并按照最終的分數進行排列,展現給用戶
總結:通過對搜索引擎工作原理的分析,可以看出,內容永遠是你制勝的關鍵,因此我們要對我們自己的網站進行科學性,可讀性的建設。

評論

說點什么吧
  • 全部評論(0
    還沒有評論,快來搶沙發吧!