新聞中心
SEO基礎教程:蜘蛛的抓取和爬行
作者 / 無憂主機 時間 2011-11-22 05:05:46
搜索引擎依靠蜘蛛來實行對頁面的爬行和抓取,當由一個導入鏈接進入一個新站的時候,要做的第一件事就是進行訪問robots.txt文件,這個文件準確清晰的給蜘蛛以本站的指引,站長可以規(guī)定搜索引擎訪問哪些頁面和不允許訪問哪些頁面。一般來說有道德的搜索引擎都會嚴格的按照規(guī)矩去執(zhí)行。2010年淘寶robots,txt封鎖了全站拒絕百度收錄。時至今日我們依然可以通過百度搜索到淘寶的頁面。為了可以獲得更多的網(wǎng)站信息,蜘蛛會按照頁面上的鏈接一個緊接著一個去爬行頁面。從理論上來說蜘蛛可以爬行和抓取玩整個網(wǎng)站,但是由于有的頁面結構過于復雜蜘蛛一般需要采用一些手段才可以更好的爬行,而這種手段一般來說有兩種一種是廣度爬行,一種是深度爬行。所謂深度爬行就是蜘蛛按照一個目錄一直往下爬行一直按照這目錄或者欄目往下走,走到最后在重新返回初始鏈接,在從第二個目錄爬行。而廣度爬行咋恰恰相反,是按照目錄層次爬行,先爬完一級目錄在爬行二級目錄,如此往下。 純Linux環(huán)境下高端免備案[香港獨立IP地址]?php空間,僅僅只需199元一年起。商務中國域名核心代理直銷50元注冊國際頂級域名
本文地址:http://www.love62.cn/seo/4615.html
上一篇: SEO基礎教程:什么是全站鏈接與迷你全站鏈接?
下一篇: SEO基礎教程:取頁面和蜘蛛爬行的因素