python手工制作_纯手工打造简单分布式爬虫(Python)

https://www.cnblogs.com/qiyeboy/p/7016540.html

本章讲的依旧是实战项目,实战内容是打造分布式爬虫,这对初学者来说,是一个不小的挑战,也是一次有意义的尝试。这次打造的分布式爬虫采用比较简单的主从模式,完全手工打造,不使用成熟框架,基本上涵盖了前六章的主要知识点,其中涉及分布式的知识点是分布式进程和进程间通信的内容,算是对Python爬虫基础篇的总结。

现在大型的爬虫系统都是采取分布式爬取结构,通过此次实战项目,让大家对分布式爬虫有一个比较清晰地了解,为之后系统的讲解分布式爬虫打下基础,其实它并没有多么困难。实战目标:爬取2000个百度百科网络爬虫词条以及相关词条的标题、摘要和链接等信息,采用分布式结构改写第六章的基础爬虫,使功能更加强大。爬取页面请看图6.1。

7.1简单分布式爬虫结构

本次分布式爬虫采用主从模式。主从模式是指由一台主机作为控制节点负责所有运行网络爬虫的主机进行管理,爬虫只需要从控制节点那里接收任务,并把新生成任务提交给控制节点就可以了,在这个过程中不必与其他爬虫通信,这种方式实现简单利于管理。而控制节点则需要与所有爬虫进行通信,因此可以看到主从模式是有缺陷的,控制节点会成为整个系统的瓶颈,容易导致整个分布式网络爬虫系统性能下降。

此次使用三台主机进行分布式爬取,一台主机作为控制节点,另外两台主机作为爬虫节点。爬虫结构如图7.1所示:

图7.1 主从爬虫结构

7.2 控制节点ControlNode

控制节点主要分为URL管理器、数据存储器和控制调度器。控制调度器通过三个进程来协调URL管理器和数据存储器的工作,一个是URL管理进程,负责URL的管理和将URL传递给爬虫节点,一个是数据提取进程,负责读取爬虫节点返回的数据,将返回数据中的URL交给URL管理进程,将标题和摘要等数据交给数据存储进程,最后一个是数据存储进程,负责将数据提取进程中提交的数据进行本地存储。执行流程如图7.2所示:

图7.2 控制节点执行流程

7.2.1 URL管理器

URL管理器查考第六章的代码,做了一些优化修改。由于我们采用set内存去重的方式,如果直接存储大量的URL链接,尤其是URL链接很长的时候,很容易造成内存溢出,所以我们采用将爬取过的URL进行MD5处理,由于字符串经过MD5处理后的信息摘要长度可以128bit,将生成的MD5摘要存储到set后,可以减少好几倍的内存消耗,Python中的MD5算法生成的是32位的字符串,由于我们爬取的url较少,md5冲突不大,完全可以取中间的16位字符串,即16位MD5加密。同时添加了save_progress和load_progress方法进行序列化的操作,将未爬取URL集合和已爬取的URL集合序列化到本地,保存当前的进度,以便下次恢复状态。URL管理器URLManager.py代码如下:

1 #coding:utf-8

2 importcPickle3 importhashlib4 classUrlManager(object):5 def __init__(self):6 self.new_urls = self.load_progress('new_urls.txt')#未爬取URL集合

7 self.old_urls = self.load_progress('old_urls.txt')#已爬取URL集合

8 defhas_new_url(self):9 '''

10 判断是否有未爬取的URL11 :return:12 '''

13 return self.new_url_size()!=014

15 defget_new_url(self):16 '''

17 获取一个未爬取的URL18 :return:19 '''

20 new_url =self.new_urls.pop()21 m =hashlib.md5()22 m.update(new_url)23 self.old_urls.add(m.hexdigest()[8:-8])24 returnnew_url25

26 defadd_new_url(self,url):27 '''

28 将新的URL添加到未爬取的URL集合中29 :param url:单个URL30 :return:31 '''

32 if url isNone:33 return

34 m =hashlib.md5()35 m.update(url)36 url_md5 = m.hexdigest()[8:-8]37 if url not in self.new_urls and url_md5 not inself.old_urls:38 self.new_urls.add(url)39

40 defadd_new_urls(self,urls):41 '''

42 将新的URLS添加到未爬取的URL集合中43 :param urls:url集合44 :return:45 '''

46 if urls is None or len(urls)==0:47 return

48 for url inurls:49 self.add_new_url(url)50

51 defnew_url_size(self):52 '''

53 获取未爬取URL集合的s大小54 :return:55 '''

56 returnlen(self.new_urls)57

58 defold_url_size(self):59 '''

60 获取已经爬取URL集合的大小61 :return:62 '''

63 returnlen(self.old_urls)64

65 defsave_progress(self,path,data):66 '''

67 保存进度68 :param path:文件路径69 :param data:数据70 :return:71 '''

72 with open(path, 'wb') as f:73 cPickle.dump(data, f)74

75 defload_progress(self,path):76 '''

77 从本地文件加载进度78 :param path:文件路径79 :return:返回set集合80 '''

81 print '[+] 从文件加载进度: %s' %path82 try:83 with open(path, 'rb') as f:84 tmp =cPickle.load(f)85 returntmp86 except:87 print '[!] 无进度文件, 创建: %s' %path88 return set()

7.2.2数据存储器

数据存储器的内容基本上和第六章的一样,不过生成文件按照当前时间进行命名避免重复,同时对文件进行缓存写入。代码如下:

1 #coding:utf-8

2 importcodecs3 importtime4 classDataOutput(object):5 def __init__(self):6 self.filepath='baike_%s.html'%(time.strftime("%Y_%m_%d_%H_%M_%S", time.localtime()) )7 self.output_head(self.filepath)8 self.datas=[]9 defstore_data(self,data):10 if data isNone:11 return

12 self.datas.append(data)13 if len(self.datas)>10:14 self.output_html(self.filepath)15

16

17 defoutput_head(self,path):18 '''

19 将HTML头写进去20 :return:21 '''

22 fout=codecs.open(path,'w',encoding='utf-8')23 fout.write("")24 fout.write("

")25 fout.write("

28 defoutput_html(self,path):29 '''

30 将数据写入HTML文件中31 :param path: 文件路径32 :return:33 '''

34 fout=codecs.open(path,'a',encoding='utf-8')35 for data inself.datas:36 fout.write("

")37 fout.write("%s"%data['url'])38 fout.write("%s"%data['title'])39 fout.write("%s"%data['summary'])40 fout.write("")41 self.datas.remove(data)42 fout.close()43

44 defouput_end(self,path):45 '''

46 输出HTML结束47 :param path: 文件存储路径48 :return:49 '''

50 fout=codecs.open(path,'a',encoding='utf-8')51 fout.write("

")52 fout.write("")53 fout.write("")54 fout.close()

7.2.3控制调度器

控制调度器主要是产生并启动URL管理进程、数据提取进程和数据存储进程,同时维护4个队列保持进程间的通信,分别为url_queue,result_queue, conn_q,store_q。4个队列说明如下:

url_q队列是URL管理进程将URL传递给爬虫节点的通道

result_q队列是爬虫节点将数据返回给数据提取进程的通道

conn_q队列是数据提取进程将新的URL数据提交给URL管理进程的通道

store_q队列是数据提取进程将获取到的数据交给数据存储进程的通道

因为要和工作节点进行通信,所以分布式进程必不可少。参考1.4.4小节分布式进程中服务进程中的代码(linux版),创建一个分布式管理器,定义为start_manager方法。方法代码如下:

1 defstart_Manager(self,url_q,result_q):2 '''

3 创建一个分布式管理器4 :param url_q: url队列5 :param result_q: 结果队列6 :return:7 '''

8 #把创建的两个队列注册在网络上,利用register方法,callable参数关联了Queue对象,

9 #将Queue对象在网络中暴露

10 BaseManager.register('get_task_queue',callable=lambda:url_q)11 BaseManager.register('get_result_queue',callable=lambda:result_q)12 #绑定端口8001,设置验证口令‘baike’。这个相当于对象的初始化

13 manager=BaseManager(address=('',8001),authkey='baike')14 #返回manager对象

15 return manager

URL管理进程将从conn_q队列获取到的新URL提交给URL管理器,经过去重之后,取出URL放入url_queue队列中传递给爬虫节点,代码如下:

defurl_manager_proc(self,url_q,conn_q,root_url):

url_manager=UrlManager()

url_manager.add_new_url(root_url)whileTrue:while(url_manager.has_new_url()):#从URL管理器获取新的url

new_url =url_manager.get_new_url()#将新的URL发给工作节点

url_q.put(new_url)print 'old_url=',url_manager.old_url_size()#加一个判断条件,当爬去2000个链接后就关闭,并保存进度

if(url_manager.old_url_size()>2000):#通知爬行节点工作结束

url_q.put('end')print '控制节点发起结束通知!'

#关闭管理节点,同时存储set状态

url_manager.save_progress('new_urls.txt',url_manager.new_urls)

url_manager.save_progress('old_urls.txt',url_manager.old_urls)return

#将从result_solve_proc获取到的urls添加到URL管理器之间

try:if notconn_q.empty():

urls=conn_q.get()

url_manager.add_new_urls(urls)exceptBaseException,e:

time.sleep(0.1)#延时休息

数据提取进程从result_queue队列读取返回的数据,并将数据中的URL添加到conn_q队列交给URL管理进程,将数据中的文章标题和摘要添加到store_q队列交给数据存储进程。代码如下:

defresult_solve_proc(self,result_q,conn_q,store_q):while(True):try:if notresult_q.empty():

content=result_q.get(True)if content['new_urls']=='end':#结果分析进程接受通知然后结束

print '结果分析进程接受通知然后结束!'store_q.put('end')returnconn_q.put(content['new_urls'])#url为set类型

store_q.put(content['data'])#解析出来的数据为dict类型

else:

time.sleep(0.1)#延时休息

exceptBaseException,e:

time.sleep(0.1)#延时休息

数据存储进程从store_q队列中读取数据,并调用数据存储器进行数据存储。代码如下:

1 defstore_proc(self,store_q):2 output =DataOutput()3 whileTrue:4 if notstore_q.empty():5 data =store_q.get()6 if data=='end':7 print '存储进程接受通知然后结束!'

8 output.ouput_end(output.filepath)9

10 return

11 output.store_data(data)12 else:13 time.sleep(0.1)

最后将分布式管理器、URL管理进程、 数据提取进程和数据存储进程进行启动,并初始化4个队列。代码如下:

1 if __name__=='__main__':2 #初始化4个队列

3 url_q =Queue()4 result_q =Queue()5 store_q =Queue()6 conn_q =Queue()7 #创建分布式管理器

8 node =NodeManager()9 manager =node.start_Manager(url_q,result_q)10 #创建URL管理进程、 数据提取进程和数据存储进程

11 url_manager_proc = Process(target=node.url_manager_proc, args=(url_q,conn_q,'http://baike.baidu.com/view/284853.htm',))12 result_solve_proc = Process(target=node.result_solve_proc, args=(result_q,conn_q,store_q,))13 store_proc = Process(target=node.store_proc, args=(store_q,))14 #启动3个进程和分布式管理器

15 url_manager_proc.start()16 result_solve_proc.start()17 store_proc.start()18 manager.get_server().serve_forever()

7.3 爬虫节点SpiderNode

爬虫节点相对简单,主要包含HTML下载器、HTML解析器和爬虫调度器。执行流程如下:

爬虫调度器从控制节点中的url_q队列读取URL

爬虫调度器调用HTML下载器、HTML解析器获取网页中新的URL和标题摘要

最后爬虫调度器将新的URL和标题摘要传入result_q队列交给控制节点

7.3.1 HTML下载器

HTML下载器的代码和第六章的一致,只要注意网页编码即可。代码如下:

1 #coding:utf-8

2 importrequests3 classHtmlDownloader(object):4

5 defdownload(self,url):6 if url isNone:7 returnNone8 user_agent = 'Mozilla/4.0 (compatible; MSIE 5.5; Windows NT)'

9 headers={'User-Agent':user_agent}10 r = requests.get(url,headers=headers)11 if r.status_code==200:12 r.encoding='utf-8'

13 returnr.text14 return None

7.3.2 HTML解析器

HTML解析器的代码和第六章的一致,详细的网页分析过程可以回顾第六章。代码如下:

1 #coding:utf-8

2 importre3 importurlparse4 from bs4 importBeautifulSoup5

6

7 classHtmlParser(object):8

9 defparser(self,page_url,html_cont):10 '''

11 用于解析网页内容抽取URL和数据12 :param page_url: 下载页面的URL13 :param html_cont: 下载的网页内容14 :return:返回URL和数据15 '''

16 if page_url is None or html_cont isNone:17 return

18 soup = BeautifulSoup(html_cont,'html.parser',from_encoding='utf-8')19 new_urls =self._get_new_urls(page_url,soup)20 new_data =self._get_new_data(page_url,soup)21 returnnew_urls,new_data22

23

24 def_get_new_urls(self,page_url,soup):25 '''

26 抽取新的URL集合27 :param page_url: 下载页面的URL28 :param soup:soup29 :return: 返回新的URL集合30 '''

31 new_urls =set()32 #抽取符合要求的a标签

33 links = soup.find_all('a',href=re.compile(r'/view/\d+\.htm'))34 for link inlinks:35 #提取href属性

36 new_url = link['href']37 #拼接成完整网址

38 new_full_url =urlparse.urljoin(page_url,new_url)39 new_urls.add(new_full_url)40 returnnew_urls41 def_get_new_data(self,page_url,soup):42 '''

43 抽取有效数据44 :param page_url:下载页面的URL45 :param soup:46 :return:返回有效数据47 '''

48 data={}49 data['url']=page_url50 title = soup.find('dd',class_='lemmaWgt-lemmaTitle-title').find('h1')51 data['title']=title.get_text()52 summary = soup.find('div',class_='lemma-summary')53 #获取tag中包含的所有文版内容包括子孙tag中的内容,并将结果作为Unicode字符串返回

54 data['summary']=summary.get_text()55 return data

7.3.3 爬虫调度器

爬虫调度器需要用到分布式进程中工作进程的代码,具体内容可以参考第一章的分布式进程章节。爬虫调度器需要先连接上控制节点,然后依次完成从url_q队列中获取URL,下载并解析网页,将获取的数据交给result_q队列,返回给控制节点等各项任务,代码如下:

1 classSpiderWork(object):2 def __init__(self):3 #初始化分布式进程中的工作节点的连接工作

4 #实现第一步:使用BaseManager注册获取Queue的方法名称

5 BaseManager.register('get_task_queue')6 BaseManager.register('get_result_queue')7 #实现第二步:连接到服务器:

8 server_addr = '127.0.0.1'

9 print('Connect to server %s...' %server_addr)10 #端口和验证口令注意保持与服务进程设置的完全一致:

11 self.m = BaseManager(address=(server_addr, 8001), authkey='baike')12 #从网络连接:

13 self.m.connect()14 #实现第三步:获取Queue的对象:

15 self.task =self.m.get_task_queue()16 self.result =self.m.get_result_queue()17 #初始化网页下载器和解析器

18 self.downloader =HtmlDownloader()19 self.parser =HtmlParser()20 print 'init finish'

21

22 defcrawl(self):23 while(True):24 try:25 if notself.task.empty():26 url =self.task.get()27

28 if url =='end':29 print '控制节点通知爬虫节点停止工作...'

30 #接着通知其它节点停止工作

31 self.result.put({'new_urls':'end','data':'end'})32 return

33 print '爬虫节点正在解析:%s'%url.encode('utf-8')34 content =self.downloader.download(url)35 new_urls,data =self.parser.parser(url,content)36 self.result.put({"new_urls":new_urls,"data":data})37 exceptEOFError,e:38 print "连接工作节点失败"

39 return

40 exceptException,e:41 printe42 print 'Crawl fali'

43

44 if __name__=="__main__":45 spider =SpiderWork()46 spider.crawl()

在爬虫调度器设置了一个本地IP:127.0.0.1,大家可以将在一台机器上测试代码的正确性。当然也可以使用三台VPS服务器,两台运行爬虫节点程序,将IP改为控制节点主机的公网IP,一台运行控制节点程序,进行分布式爬取,这样更贴近真实的爬取环境。下面图7.3为最终爬取的数据,图7.4为new_urls.txt内容,图7.5为old_urls.txt内容,大家可以进行对比测试,这个简单的分布式爬虫还有很大发挥的空间,希望大家发挥自己的聪明才智进一步完善。

图7.3 最终爬取的数据

图7.4 new_urls.txt

图7.5 old_urls.txt

7.4小结

本章讲解了一个简单的分布式爬虫结构,主要目的是帮助大家将Python爬虫基础篇的知识进行总结和强化,开拓大家的思维,同时也让大家知道分布式爬虫并不是这么高不可攀。不过当你亲手打造一个分布式爬虫后,就会知道分布式爬虫的难点在于节点的调度,什么样的结构能让各个节点稳定高效的运作才是分布式爬虫要考虑的核心内容。到本章为止,Python爬虫基础篇已经结束,这个时候大家基本上可以编写简单的爬虫,爬取一些静态网站的内容,但是Python爬虫开发不仅如此,大家接着往下学习吧。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
提供的源码资源涵盖了安卓应用、小程序、Python应用和Java应用等多个领域,每个领域都包含了丰富的实例和项目。这些源码都是基于各自平台的最新技术和标准编写,确保了在对应环境下能够无缝运行。同时,源码中配备了详细的注释和文档,帮助用户快速理解代码结构和实现逻辑。 适用人群: 这些源码资源特别适合大学生群体。无论你是计算机相关专业的学生,还是对其他领域编程感兴趣的学生,这些资源都能为你提供宝贵的学习和实践机会。通过学习和运行这些源码,你可以掌握各平台开发的基础知识,提升编程能力和项目实战经验。 使用场景及目标: 在学习阶段,你可以利用这些源码资源进行课程实践、课外项目或毕业设计。通过分析和运行源码,你将深入了解各平台开发的技术细节和最佳实践,逐步培养起自己的项目开发和问题解决能力。此外,在求职或创业过程中,具备跨平台开发能力的大学生将更具竞争力。 其他说明: 为了确保源码资源的可运行性和易用性,特别注意了以下几点:首先,每份源码都提供了详细的运行环境和依赖说明,确保用户能够轻松搭建起开发环境;其次,源码中的注释和文档都非常完善,方便用户快速上手和理解代码;最后,我会定期更新这些源码资源,以适应各平台技术的最新发展和市场需求。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值