![](https://i-blog.csdnimg.cn/direct/6f47365941d240f5aec777f948f66cc2.png)
这次爬取的网址是 http://seputu.com/。之前也经常在上面在线看盗墓笔记。
![](https://img-blog.csdnimg.cn/img_convert/d4240c0e6fb4775c189ea0c628c4a206.jpeg)
按照咱们之前的学习爬虫的做法,使用firebug审查元素,查看如何解析html。
这次咱们要把书的名称,章节,章节名称,章节链接抽取出来,存储到数据库中,同时将文章的内容提取出来存成txt文件。
![](https://img-blog.csdnimg.cn/img_convert/f2b0a0b7e1317115996f63ad56c25b90.jpeg)
看一下html结构就会发现这个页面结构非常分明,标题的html节点是 div class = ''mulu-title",章节的节点是 div class= "box" ,每一章的节点是 div class= "box"中的<li>标签。
然后咱们将第一章的链接 http://seputu.com/biji1/1.html打开,上面就是文章的内容。
![](https://img-blog.csdnimg.cn/img_convert/01c277afaed4193d6f288cb4fb679416.jpeg)
可以看到文章的内容是使用 div class ="content-body"中的<p>标签包裹起来的,总体来说提取难度挺小。
打开cmd,输入scrapy startproject daomubiji,这时候会生成一个工程,然后我把整个工程复制到pycharm中
![](https://img-blog.csdnimg.cn/img_convert/99dc8aa6a63203286dcc1061cff690b5.jpeg)
上图就是工程的结构。
DaomubijiSpider.py ------Spider 蜘蛛
items.py -----------------对要爬取数据的模型定义
pipelines.py-------------处理要存储的数据(存到数据库和写到文件)
settings.py----------------对Scrapy的配置
main.py -------------------启动爬虫
test.py -------------------- 测试程序(不参与整体运行)
下面将解析和存储的代码贴一下,完整代码已上传到github:https://github.com/qiyeboy/daomuSpider。
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 | DaomubijiSpider.py (解析html) #coding:utf-8 import scrapy from scrapy.selector import Selector from daomubiji.items import DaomubijiItem class daomuSpider(scrapy.Spider): name = "daomu" allowed_domains = [ "seputu.com" ] start_urls = [ "http://seputu.com/" ] ''.split() def parse( self , response): selector = Selector(response) mulus = selector.xpath( "//div[@class='mulu']/div[@class='mulu-title']/center/h2/text()" ).extract() #将目录提取出来 boxs = selector.xpath( "//div[@class='mulu']/div[@class='box']" ) #.extract() for i in range ( len (mulus)): mulu = mulus[i] #提取出来一个目录 box = boxs[i] #提取出来一个box texts = box.xpath( ".//ul/li/a/text()" ).extract() #将文本提取出来 urls = box.xpath( ".//ul/li/a/@href" ).extract() #将链接提取出来 for j in range ( len (urls)): item = DaomubijiItem() item[ 'bookName' ] = mulu try : item[ 'bookTitle' ] = texts[j].split( ' ' )[ 0 ] item[ 'chapterNum' ] = texts[j].split( ' ' )[ 1 ] item[ 'chapterName' ] = texts[j].split( ' ' )[ 2 ] item[ 'chapterUrl' ] = urls[j] request = scrapy.Request(urls[j],callback = self .parseBody) request.meta[ 'item' ] = item yield request except Exception,e: print 'excepiton' ,e continue def parseBody( self ,response): ''' 解析小说章节中的内容 :param response: :return: ''' item = response.meta[ 'item' ] selector = Selector(response) item[ 'chapterContent' ] = '\r\n' .join(selector.xpath( "//div[@class='content-body']/p/text()" ).extract()) yield item |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 | pipelines.py:(处理要存储的数据) # -*- coding: utf-8 -*- # Define your item pipelines here # # Don't forget to add your pipeline to the ITEM_PIPELINES setting # See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html import os from scrapy.pipelines.files import FilesPipeline from daomubiji import settings from pymongo import MongoClient class DaomubijiPipeline( object ): def process_item( self , item, spider): #将小说进行存储 dir_path = '%s/%s/%s' % (settings.FILE_STORE,spider.name,item[ 'bookName' ] + '_' + item[ 'bookTitle' ]) #存储路径 print 'dir_path' ,dir_path if not os.path.exists(dir_path): os.makedirs(dir_path) file_path = '%s/%s' % (dir_path,item[ 'chapterNum' ] + '_' + item[ 'chapterName' ] + '.txt' ) with open (file_path, 'w' ) as file_writer: file_writer.write(item[ 'chapterContent' ].encode( 'utf-8' )) file_writer.write( '\r\n' .encode( 'utf-8' )) file_writer.close() return item class DaomuSqlPipeline( object ): def __init__( self ): #连接mongo数据库,并把数据存储 client = MongoClient() #'mongodb://localhost:27017/'///'localhost', 27017///'mongodb://tanteng:123456@localhost:27017/' db = client.daomu self .books = db.books def process_item( self , item, spider): print 'spider_name' ,spider.name temp = { 'bookName' :item[ 'bookName' ], 'bookTitle' :item[ 'bookTitle' ], 'chapterNum' :item[ 'chapterNum' ], 'chapterName' :item[ 'chapterName' ], 'chapterUrl' :item[ 'chapterUrl' ] } self .books.insert(temp) return item |
接下来切换到main.py所在目录,运行python main.py启动爬虫。
![](https://img-blog.csdnimg.cn/img_convert/3924cde04519ac75edc2872c0f57b882.jpeg)
没过几分钟,爬虫就结束了,咱们看一下爬取的数据和文件。
![](https://img-blog.csdnimg.cn/img_convert/f6d613e5eacede6edc026ea576a2b4fd.jpeg)
数据库数据:
![](https://img-blog.csdnimg.cn/img_convert/1eeeee513e30f78b3bd12a5fde472077.jpeg)
今天的分享就到这里,如果大家觉得还可以呀,记得推荐呦。
最后这里给大家免费分享一份Python学习资料,包含了视频、源码、课件,希望能够帮助到那些不满现状,想提示自己却又没用方向的朋友,也可以和我一起来交流呀!
编辑资料、学习路线图、源代码、软件安装包等!【点击领取】!
一、Python所有方向的学习路线
Python所有方向路线就是把Python常用的技术点做整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。
![图片](https://img-blog.csdnimg.cn/img_convert/84a56021d8940c7a1806711a854963fe.png)
![图片](https://img-blog.csdnimg.cn/img_convert/16f8e6e7711ba706d4a94e7950d00cf1.png)
二、学习软件
工欲善其事必先利其器。学习Python常用的开发软件都在这里了,还有环境配置的教程,给大家节省了很多时间。
![图片](https://img-blog.csdnimg.cn/img_convert/ffb38571b0cab7fcebf69fc8a01b98fb.png)
三、全套PDF电子书
书籍的好处就在于权威和体系健全,刚开始学习的时候你可以只看视频或者听某个人讲课,但等你学完之后,你觉得你掌握了,这时候建议还是得去看一下书籍,看权威技术书籍也是每个程序员必经之路。
![图片](https://img-blog.csdnimg.cn/img_convert/5c4bf731b824b722b041b14f921654c7.png)
四、入门学习视频全套
我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了。
![图片](https://img-blog.csdnimg.cn/img_convert/4c5423d5a6c41a48215243461cbb03e6.png)
![图片](https://img-blog.csdnimg.cn/img_convert/6c7690068c3d892e37d6408681a48455.png)
五、实战案例
光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。
![图片](https://img-blog.csdnimg.cn/img_convert/f5116ed7172b5907b51e0c5c9a5955c3.png)
![图片](https://img-blog.csdnimg.cn/img_convert/ab966e2b549df0f190def81201c76c46.png)