株洲网站建设

株洲网站建设
当前位置: 首 页 >> 新闻中心 >> 行业新闻

爬行抓取之蜘蛛

爬行抓取之蜘蛛

发布日期:2022-12-30 作者: 点击:

所谓的爬行和抓取,是搜索引擎工作的第一步。搜索引擎要向用户提供信息,自己的数据库里面就必须有庞大的数据量。所以,在网络上搜寻有一定质量的内容放入自己数据库是很重要的事情。

搜索引擎用来爬行和访问页面的程序被称为蜘蛛(spider)。

1

robots协议

蜘蛛访问网站页面时,类似用户访问。不同的是,蜘蛛在访问一个网站的时候,都会先访问网站根目录下的robots.txt文件。这个文件是网站和搜索引擎的一个协议,蜘蛛会遵守协议,不抓取被禁止的网址。


2

各搜索引擎蜘蛛

从访问日志当中,可以看到各搜索引擎的蜘蛛命名方式不一样:

Baiduspider百度蜘蛛

360spider 360蜘蛛

熟悉各家蜘蛛的名称,对后期优化中,分析爬行日志有很大作用。

蜘蛛爬行的时候,怎么判断某个网站深度深一点?

3

爬行原则

蜘蛛爬行有两种原则:广度原则和深度原则。如下图:

蜘蛛爬行有两种原则:广度原则和深度原则


深度原则的爬行方式:A-B-D-C-E-F

广度原则的爬行方式:A-B-C-D-E-F

两种方式各有优劣势,分别影响的是爬行网站数量多少和内页内容深度。

从理论上说,不管是深度优先还是广度优先,只要时间够,蜘蛛都能爬整个网络。但是在实际情况下,由于资源、时间的限制,搜索引擎需要一个科学的爬行规则。

所以搜索引擎往往是深度、广度通常是混合使用的,这样既客户照顾尽量多的网站,也能增加网站内页收录。

PS思考:蜘蛛爬行的时候,怎么判断某个网站深度深一点?

本文网址:http://www.wubadu.com/news/767.html

关键词:株洲网站建设,醴陵网站建设,长沙网站建设

最近浏览:

  • 在线客服
  • 联系电话
    13142235680
  • 在线留言
  • 手机网站
  • 在线咨询
    欢迎给我们留言
    请在此输入留言内容,我们会尽快与您联系。
    姓名
    联系人
    电话
    座机/手机号码
    邮箱
    邮箱
    地址
    地址