搜索引擎的工作過程大致可以分為三個階段:
(1)爬行:搜索引擎蜘蛛通過跟蹤鏈接來查找和訪問頁面,讀取頁面的HTML代碼,并將其保存在數據庫中。
(2)預處理:索引程序對捕獲的頁面數據進行文本提取、中文分詞、索引、倒排索引等處理,調用排名程序。
(3)排名:用戶輸入查詢詞(關鍵字)后,排名程序調用索引數據,計算相關性,然后按一定格式生成搜索結果頁面。
爬行是搜索引擎工作的首步,完成數據采集任務。搜索引擎用來抓取頁面的程序叫做蜘蛛
一個合格的SEOER,為了讓自己的頁面更多的被收錄,我們必須盡量吸引蜘蛛來抓取。
蜘蛛抓取頁面有幾個因素:
(1)網站和頁面的權重。高質量、長時間的網站通常被認為是具有高權重、高爬行深度和更多包含頁面的網站。
(2)頁面的更新頻率。每次蜘蛛爬行,它都會存儲頁面數據。如果第二次和第三次與初次相同,則表示沒有更新。隨著時間的推移,蜘蛛不需要經常抓取你的頁面。如果內容經常更新,蜘蛛會頻繁訪問頁面以獲取新頁面。
(3)導入鏈接,無論是內部鏈接還是外部鏈接,都要被蜘蛛抓取,必須有導入鏈接進入頁面,否則蜘蛛就不會知道頁面的存在。
(4)與主頁的點擊距離一般是網站上權重較高的主頁,而且大部分外部鏈接都會指向主頁,所以蜘蛛比較常訪問的頁面就是主頁。與主頁的單擊距離越近,頁面權重越高,被爬網的機會就越大。
堅持網站內容更新的頻率,較好的是高質量的原創內容。
主動把我們的新頁面提供給搜索引擎,讓蜘蛛更快地找到它們,比如百度的鏈接提交、抓取診斷等。
要建立外部鏈接,可以與相關網站交換鏈接,也可以轉到其他平臺,發布指向自己頁面、包含相關內容的高質量文章。
要制作網站地圖,每個網站都應該有一個網站地圖。網站的所有頁面都在網站地圖中,方便蜘蛛抓取。