网络爬虫基本原理Word格式.docx
- 文档编号:18531633
- 上传时间:2022-12-19
- 格式:DOCX
- 页数:9
- 大小:594.93KB
网络爬虫基本原理Word格式.docx
《网络爬虫基本原理Word格式.docx》由会员分享,可在线阅读,更多相关《网络爬虫基本原理Word格式.docx(9页珍藏版)》请在冰豆网上搜索。
重点在于对html页面源码结构的分析,不同的html需要不同的解析方法;
还有就是长时间爬取可能对IP有影响,有时需要获取代理IP,甚至需要伪装浏览器爬取。
(主要是针对像新浪等这些具有反扒功能的网站,新闻网站一般不会有这样的情况)。
对于微博,通常情况下是必须登录才能看到微博信息数据(比如腾讯微博),但是有的微博有搜索机制,在非登录的情况下可以直接通过搜索话题来查找相关信息(如新浪微博、网易微博)。
考虑到某些反爬虫机制,如果一个账号总是爬取信息可能会有些影响(比如被封号),所以本文采用的爬虫都是非登录、直接进入微博搜索页面爬取。
这里关键是初始url地址。
网络爬虫是搜索引擎抓取系统的重要组成部分。
爬虫的主要目的是是将互联网上的网页下载到本地形成一个活互联网内容的镜像备份。
这篇博客主要对爬虫及抓取系统进行一个简单的概述。
一、网络爬虫的基本结构及工作流程
通用的网络爬虫的框架如图所示:
网络爬虫框架图
网络爬虫的基本工作流程如下:
1.首先选取一部分精心挑选的种子URL;
2.将这些URL放入待抓取URL队列
3.从待抓取URL队列中取出待抓取URL,解析DNS,并且得到主机的ip,并将URL对应的网页下载下来,存储进已下载网页库中。
此外,将这些URL放进已抓取URL队列。
4.分析已抓取URL队列中的URL,分析其中的其他URL,并且将URL放入待抓取URL队列,从而进行下一个循环。
二、从爬虫角度对互联网进行划分
可将互联网所有页面分为五个部分:
1.已下载未过期网页
2.已下载已过期网页:
抓取到的网页实际上是互联网内容的一个镜像与备份,互联网是动态变化的,一部分互联网上的内容已经发生了变化,这时,这部分抓取到的网页就已经过期了。
3.待下载网页:
也就是带抓取URL队列中的那些页面
4.克制网页:
还没抓取下来,也没有在待抓取URL队列中,但是可以通过对已抓取页面或者待抓取URL对应页面进行分析获取到的URL,认为是可知网页
5.还有一部分网页,爬虫是无法抓取下载的,称为不可知网页
三、抓取策略
在爬虫系统中,待抓取URL队列是很重要的一部分。
待抓取URL队列中的URL以什么样的顺序排列也是一个很重要的问题,因为这涉及到先抓取那个页面,后抓取哪个页面,这也是所谓的抓取策略问题。
下面重点介绍几种常见的抓取策略
1.深度优先遍历策略
深度优先遍历策略是指网络爬虫会从起始页开始,一个链接一个链接跟踪下去,处理完这条线路之后再转入下一个起始页,继续跟踪链接。
遍历的路径:
A-F-GE-H-IBCD
1.宽度优先遍历策略
宽度优先遍历策略的基本思路是将新下载网页中发现的链接直接插入待抓取URL队列的末尾,也就是指网络爬虫会先抓取起始网页中链接的所有网页,然后再选择其中的一个链接网页,继续抓取在此网页中链接的所有网页,以上图为例:
遍历路径为:
A-B-C-D-E-FGHI
2.反向链接数策略
反向链接数是指一个网页被其他网页链接指向的数量,反向链接数表示的是一个网页的内容受到其他人的推荐的程度。
因此,很多时候搜索引擎的抓取系统会使用这个指标来评价网页的重要程度,从而决定不同网页的抓取先后顺序。
在真实的网络环境中,由于广告链接、作弊链接的存在,反向链接数不能完全可靠,因此搜索引擎往往考虑一些可靠的反向链接数
4.PartialPageRank策略
PartialPageRank算法借鉴了PageRank算法的思想:
对于已经下载的网页,连同待爬取URL队列中的URL,形成网页集合,计算每个页面的PageRank值,计算完之后,将待抓取URL队列中的URL按照PageRank值的大小排列,并按照该顺序爬取页面。
如果每次抓取一个页面,就重新计算PageRank值,一种折中方案是:
没抓取K个页面后,重新计算一次PageRank值。
但是这种情况还会有一个问题:
对于已经下载下来的页面中分析出的链接,也就是我们之前提到的未知网页那一部分,暂时是没有PageRank值的。
为了解决这个问题,会给这些页面一个临时的pageRank值:
将这个网页所以入链传递进来的PageRank值进行汇总,这样就形成了该未知页面的PageRank值,从而参与排序。
下面举例说明:
策略
该算法实际上也是对页面进行一个重要性打分。
在算法开始前,给所以页面一个相同的初始现今,当瞎子了某个页面P之后,将P的现今分摊给所有从P中分析出的链接,并且将P的现金清空。
对于带抓取的URL,队列中的所有页面按照现金数进行排序。
1.大站优先策略
对于待抓取URL队列中的所有网页,根据所属的网站进行分类,对于待下载页面数多的网站,优先下载。
这个策略也因此叫做大站优先策略。
四.更新策略
互联网是实时变化的,具有很强的动态性,网页更新写了主要决定于何时更新之前已经下载过的页面。
1.历史参考策略
根据页面以往的历史更新数据,预测该页面未来何时会发生变化,一般是通过泊松分布进行建模预测
2.用户体验策略
尽管搜索引擎针对于某个查询条件能够返回数量巨大的结果,但是用户往往只关注前几页的结果。
因此抓取系统可以优先更新那些现实在现实查询结果前几页中的网页,而后再更新那些后面的网页,这种更新策略也是需要历史信息的。
用户体验策略暴力网页的多个历史版本,并且根据过去每次内容变化对搜索质量的影响,得出一个平均值,用这个平局值作为决定何时重新抓取的依据。
3.聚类抽样策略
前两种方法都有一个前提:
需要网页的历史信息,这样就存在两个问题,第一,系统要是为每个系统保存多个版本的历史信息,五一增加了很多的系统负担,第二,要是新的网页完全没有历史信息,就无法确定更新策略。
聚类抽样策略认为,网页具有很多属性,类似属性的网页,可以认为其更新频率也是类似的,要计算某一个类别网页的更新频率,只需要对这一类网页抽样,以他们的跟新周期作为整个类别的更新周期。
思路如下图:
五.分布式抓取系统结构
一般而言,抓取系统需要面对的是整个互联网上数以亿计的网页。
单个抓取程序不可能完成这样的任务。
往往需要多个抓取程序一起来处理。
进而出现了分布式抓取策略。
对于主从式而言,有一台专门的Master服务器来维护待抓取URL队列,它负责每次将URL分布到不同的Slave服务器,而Slave服务器则负责将实际的网页下载工作。
Master服务器处理维护待抓取URL队列以及分发URL之外,还要负责调解各个Slave服务器的负载情况,一面发生Slave服务器过劳或过剩。
1.对等式(Peertopeer)
最下层是分布在不同地理位置的数据中心,在每个数据中心里有若干台抓取服务器,而每台抓取服务器上可能部署了若干套爬虫程序,这就构成了一个基本的分布式抓取系统。
对于数据中心内的不同抓取服务器,协同工作的方式有几种
1.主从式(Master-Slave)
此种模式下,各个服务器的分工没有不同,每台抓取服务器都可以从待抓取的URL队列中获得URL,然后对该URL的主域名的hash值H,计算Hmodm(其中m是服务器的数量),计算得到的数就是处理该URL的主机编号。
举例:
假设对于URL,计算器hash值H=8,m=3,则Hmodm=2,因此由编号为2的服务器进行该链接的抓取。
假设这时候是0号服务器拿到这个URL,那么它将该URL转给服务器2,由服务器2进行抓取。
这种模式有一个问题,当有一台服务器死机或者添加新的服务器,那么所有URL的哈希求余的结果就都要变化。
也就是说,这种方式的扩展性不佳。
针对这种情况,又有一种改进方案被提出来。
这种改进的方案是一致性哈希法来确定服务器分工。
其基本结构如图所示:
一致性哈希将URL的主域名进行哈希运算,映射为一个范围在0-232之间的某个数。
而将这个范围平均的分配给m台服务器,根据URL主域名哈希运算的值所处的范围判断是哪台服务器来进行抓取。
如果某一台服务器出现问题,那么本该由该服务器负责的网页则按照顺时针顺延,由下一台服务器进行抓取。
这样的话,及时某台服务器出现问题,也不会影响其他的工作。
参考书目:
1.《这就是搜索引擎-核心技术详解》张俊林电子工业出版社
2.《搜索引擎技术基础》刘奕群等侵害大学出版社
06/18
- 配套讲稿:
如PPT文件的首页显示word图标,表示该PPT已包含配套word讲稿。双击word图标可打开word文档。
- 特殊限制:
部分文档作品中含有的国旗、国徽等图片,仅作为作品整体效果示例展示,禁止商用。设计者仅对作品中独创性部分享有著作权。
- 关 键 词:
- 网络 爬虫 基本原理