从事SEO优化工作长期要跟搜索引擎打交道,那么一定要了解搜索引擎的一些工作原理,比如是怎样通过蜘蛛程序对网页进行抓取和收集,其实这是搜索引擎工作的第一步,将抓取到的页面存在了原始数据库中,今天学习小辰分享的网页抓取机制,相信可以更好的做网站优化。

徐州seo顾问:搜索引擎对网页的抓取机制是什么

那么什么是搜索引擎蜘蛛,是指按照指定的规则,在网络上对网站的页面内容进行自动抓取工作。我们如果没有对代码中的链接进行屏蔽,那么baiduspider(爬虫)就可以通过该链接对站内或站外进行爬行和抓取。

由于网站的页面链接结构多样化,蜘蛛需要通过制定的爬行规则才能抓到更多页面,比如深度抓取还有广度抓取。深度是蜘蛛从当前页开始,逐个链接的爬行下去,处理完后再进下一个页面的爬行;广度是蜘蛛会先将这个页面中链接的所有网页全部抓取,再选择其中的一个网页链接继续抓取,这个方法可以使蜘蛛并行处理,增加了抓取的速度,所以是比较常用的方式。

而为了照顾到更多的网站,通常深度与广度是混合使用的,在抓取中也会考虑网站的权重、规模、外链、内容更新等因素,另外为了提高抓取的速度,正常是多个蜘蛛并发分布去爬行页面。根据小辰讲的这个原理,建议进行网站优化时要合理做内链优化,方便蜘蛛的顺利爬行。

另外为什么我们要在高权重的网站做外链,原因是这些网站蜘蛛多质量高,带有导航性我们称为种子站点,蜘蛛会将这些站做为起始站点,所以我们在这些高权网站添加了链接,会增加抓取的入口。

最后小辰讲下搜索引擎的收集机制,当网站有定期定量在更新内容时,蜘蛛也会有规律的来网站抓取,所以这个抓取的频率会受到更新周期的影响,也就是如果网站长期不更新,那么蜘蛛就不会经常来抓取,因为蜘蛛每次爬行会将页面数据存储起来,当多次爬行时发现页面与之前收录的完全一样,没有内容更新,那么就不会频繁的来访问,所以我们要保持定期定量的更新,并且内容要有质量,这样当页面有新的链接时也会被更快抓取。