你要找的是肇慶網站推廣哪家好?中外商貿為你提供服務:肇慶網站推廣價格、肇慶網站推廣公司,歡迎瀏覽:肇慶網站推廣
肇慶網站推廣 |
蜘蛛爬行、抓取網頁 搜索引擎的基礎是有大量網頁的信息數據庫,這是決定搜索引擎整體質量的一個重要指標。如果搜索引擎的網頁信息量小,那么供用戶選擇的搜索結果就會少,而大量的網頁信息能更好地滿足用戶的搜索需求。 要獲得大量網頁信息的數據庫,搜索引擎就必須收集網絡資源,可以通過搜索引擎的網絡漫游器(Crawler)在互聯網中各個網頁爬行并抓取信息。這是一種爬行并收集信息的 程序,通常搜索引擎稱為蜘蛛(Spider)或者機器人(Bot)。
每個搜索引擎的蜘蛛或者機器人都有不同的IP,并有自己的代理名稱。通常在網絡日志中可以看到不同IP及代理名稱的搜索引擎蜘蛛。在如下代碼中,220.181.108.89就是搜索引擎蜘蛛的IP,BaiduSpider、Sogou+Web+Spider、Googlebot、SosoSpider、bingbot分別表示百度蜘蛛、搜狗蜘蛛、谷歌機器人、搜搜蜘蛛、Bing機器人。這些都是各個搜索引擎蜘蛛的代理名稱,是區分搜索引擎的重要標志。 220.181.108.89 Mozilla/5.0+(compatible;+BaiduSpider/2.0;++http://www.baidu.com/search/Spider.html) 220.181.89.182 Sogou+Web+Spider/4.0(+http://www,sogou.com/docs/help/Webmasters.htm#07) 66.249.73.103 Mozilla/5.0+(compatible;+Googlebot/2.1;++http://www.Google.com/bot.html) 124.115.0.108 Mozilla/5.0(compatible;+SosoSpider/2.0;++http://help.soso.com/WebSpider .htm) 65.55.52.97 Mozilla/5.0+(compatible;+bingbot/2.0;++http://www.bing.com/bingbot.htm) 110.75.172.113 Yahoo!+Slurp+China 搜索引擎蜘蛛雖然名稱不同,但是其爬行和抓取的規則大致相同。 (1)搜索引擎在抓取網頁時會同時運行很多蜘蛛程序,根據搜索引擎地址庫中的網址對網站進行瀏覽抓取。地址庫中的網址包含用戶提交的網址、大型導航站的網址、人工收錄的網址、蜘蛛爬行到的新網址等。
(2)搜索引擎蜘蛛爬行到網站,首先會檢查網站的根目錄下是否有Robots.txt文件,若有Robots文件,則根據其中的約定不抓取被禁止的網頁。如果網站整體禁止某搜索引象 抓取,那么該搜索引擎將不再抓取網站內容,如果不小心把Robots文件設置錯誤,就可會造成網站內容不能被收錄。(3)進入允許抓取的網站,搜索引整蜘蛛一般會采取深度優先、寬度優先和最佳優先 三種策略進行爬行遍歷,以有序地抓取到網站的更多內容。 深度優先的爬行策略是搜索引擎蜘蛛在一個網頁發現一個鏈接,順著這個鏈接爬到下一個網頁,在這個網頁中又沿一個鏈接爬下去,直到沒有未爬行的鏈接,然后回到第一個網頁,沿另一個鏈接一直爬下去。深度優先的爬行策略,搜索引擎蜘蛛進入網站首頁,沿著鏈接爬行到網頁A1,在A1中找到鏈接爬行到網頁A2,再沿著A2中的鏈接爬行到A3,然后依次爬行到A4、A5……直到沒有滿足爬行條件的網頁時,搜索引擎蜘蛛再回到首頁;氐绞醉摰闹┲氚凑胀瑯拥姆绞嚼^續爬行網頁B1及更深層的網頁,爬行完同樣再回到首頁爬行下一個鏈接,最后爬行完所有的頁面。
寬度優先的爬行策略是搜索引擎蜘蛛來到一個網頁后不會沿著一個鏈接一直爬行下去,而是每層的鏈接爬行完后再爬行下一層網頁的鏈接。寬度優先的爬行策略。搜索引擎蜘蛛來到網站首頁,在首頁中發現第一層網頁A、B、C的鏈接并爬行完,再依次爬行網頁A、B、C的下一層網頁A1、A2、A3、B1、B2、B3……爬行完第二層的網頁后,再爬行第三層網頁A4、A5、A6……,最后爬行完所有的網頁層。最佳優先爬行策略是按照一定的算法劃分網頁的重要等級,主要通過PageRank、網站規模、反應速度等來判斷網頁重要等級,搜索引擎對等級較高的進行優先爬行和抓取。PageRank 等級達到一定程度時才能被爬行和抓取。實際蜘蛛在爬行網頁時會將頁面所有的鏈接收集到地址庫中,并對其進行分析,篩選出PR較高的鏈接進行爬行抓取。在網站規模方面,通常大網站能獲得搜索引擎更多的信任,而且大網站更新頻率快,蜘蛛會優先爬行。網站的反應速度也是影響蜘蛛爬行的重要因素,在最佳優先爬行策略中,網站的反應速度快,能提高蜘蛛的工作效率,因此蜘蛛也會優先爬行反應快的網站。
這三種爬行策略都有優點,也有一定的缺點。例如,深度優先一般會選擇一個合適的深度,以避免陷入巨大數據量中,也就使得抓取的網頁量受到了限制;寬度優先隨著抓取網頁的增多,搜索引擎要排除大量的無關網頁鏈接,爬行的效率將變低;最佳優先會忽視很多小網站的網頁,影響了互聯網信息差異化的發展,流量幾乎進入大網站,小網站難以發展。
在搜索引擎蜘蛛的實際爬行中,一般同時利用這三種爬行策略,經過一段時間的爬行,搜索引擎蜘蛛能爬行完互聯網的所有網頁。但是由于互聯網資源龐大,搜索引擎的資源有限,通常只爬行抓取互聯網中的一部分網頁。 (4)蜘蛛爬行了網頁后,會進行一個檢測,以判斷網頁的價值是否達到抓取標準。搜索引擎爬行到網頁后,會判斷網頁中的信息是否是垃圾信息,如大量重復文字的內容、亂碼、與已收錄內容高度重復等。這些垃圾信息蜘蛛不會抓取,僅僅是爬行而已。 (5)搜索引擎判斷完網頁的價值后,會對有價值的網頁進行收錄。這個收錄過程就是將網頁的抓取信息存入到信息數據庫中,并按一定的特征對網頁信息分類,以URL為單位存儲。搜索引擎的爬行和抓取是提供搜索服務的基礎條件,有了大量的網頁數據,搜索引擎才能更好地滿足用戶的查詢需求。
|