Python爬虫:爬取盗墓笔记,零基础教程!

   

这次爬取的网址是  http://seputu.com/。之前也经常在上面在线看盗墓笔记。

    按照咱们之前的学习爬虫的做法,使用firebug审查元素,查看如何解析html。

       这次咱们要把书的名称,章节,章节名称,章节链接抽取出来,存储到数据库中,同时将文章的内容提取出来存成txt文件。

   看一下html结构就会发现这个页面结构非常分明,标题的html节点是  div class = ''mulu-title",章节的节点是 div class= "box" ,每一章的节点是 div class= "box"中的<li>标签。

        然后咱们将第一章的链接 http://seputu.com/biji1/1.html打开,上面就是文章的内容。

   可以看到文章的内容是使用 div class ="content-body"中的<p>标签包裹起来的,总体来说提取难度挺小。

        打开cmd,输入scrapy startproject daomubiji,这时候会生成一个工程,然后我把整个工程复制到pycharm中

  

上图就是工程的结构。

        DaomubijiSpider.py ------Spider 蜘蛛

        items.py -----------------对要爬取数据的模型定义

        pipelines.py-------------处理要存储的数据(存到数据库和写到文件)

        settings.py----------------对Scrapy的配置

        main.py -------------------启动爬虫

        test.py -------------------- 测试程序(不参与整体运行)

   下面将解析和存储的代码贴一下,完整代码已上传到github:https://github.com/qiyeboy/daomuSpider。

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

DaomubijiSpider.py (解析html)

#coding:utf-8

import scrapy

from scrapy.selector import Selector

from daomubiji.items import DaomubijiItem

class daomuSpider(scrapy.Spider):

    name = "daomu"

    allowed_domains = ["seputu.com"]

    start_urls = ["http://seputu.com/"]

    ''.split()

    def parse(self, response):

        selector = Selector(response)

        mulus= selector.xpath("//div[@class='mulu']/div[@class='mulu-title']/center/h2/text()").extract()#将目录提取出来

        boxs = selector.xpath("//div[@class='mulu']/div[@class='box']")#.extract()

        for in range(len(mulus)):

            mulu = mulus[i]#提取出来一个目录

            box = boxs[i]#提取出来一个box

            texts = box.xpath(".//ul/li/a/text()").extract()#将文本提取出来

            urls  = box.xpath(".//ul/li/a/@href").extract()#将链接提取出来

            for in range(len(urls)):

                item = DaomubijiItem()

                item['bookName'= mulu

                try:

                    item['bookTitle'= texts[j].split(' ')[0]

                    item['chapterNum'= texts[j].split(' ')[1]

                    item['chapterName'= texts[j].split(' ')[2]

                    item['chapterUrl'= urls[j]

                    request = scrapy.Request(urls[j],callback=self.parseBody)

                    request.meta['item'= item

                    yield request

                except Exception,e:

                    print 'excepiton',e

                    continue

    def parseBody(self,response):

        '''

        解析小说章节中的内容

        :param response:

        :return:

        '''

        item = response.meta['item']

        selector = Selector(response)

        item['chapterContent'='\r\n'.join(selector.xpath("//div[@class='content-body']/p/text()").extract())

        yield item

  

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

   pipelines.py:(处理要存储的数据)

# -*- coding: utf-8 -*-

# Define your item pipelines here

#

# Don't forget to add your pipeline to the ITEM_PIPELINES setting

# See: http://doc.scrapy.org/en/latest/topics/item-pipeline.html

import os

from scrapy.pipelines.files import FilesPipeline

from daomubiji import settings

from pymongo import MongoClient

class DaomubijiPipeline(object):

    def process_item(self, item, spider):#将小说进行存储

        dir_path = '%s/%s/%s'%(settings.FILE_STORE,spider.name,item['bookName']+'_'+item['bookTitle'])#存储路径

        print 'dir_path',dir_path

        if not os.path.exists(dir_path):

            os.makedirs(dir_path)

        file_path = '%s/%s'%(dir_path,item['chapterNum']+'_'+item['chapterName']+'.txt')

        with open(file_path,'w') as file_writer:

            file_writer.write(item['chapterContent'].encode('utf-8'))

            file_writer.write('\r\n'.encode('utf-8'))

        file_writer.close()

        return item

class DaomuSqlPipeline(object):

    def __init__(self):

    #连接mongo数据库,并把数据存储

        client = MongoClient()#'mongodb://localhost:27017/'///'localhost', 27017///'mongodb://tanteng:123456@localhost:27017/'

        db = client.daomu

        self.books = db.books

    def process_item(self, item, spider):

        print 'spider_name',spider.name

        temp ={'bookName':item['bookName'],

               'bookTitle':item['bookTitle'],

               'chapterNum':item['chapterNum'],

               'chapterName':item['chapterName'],

               'chapterUrl':item['chapterUrl']

               }

        self.books.insert(temp)

        return item

  

      接下来切换到main.py所在目录,运行python main.py启动爬虫。

         没过几分钟,爬虫就结束了,咱们看一下爬取的数据和文件。

    

         数据库数据:

  

  今天的分享就到这里,如果大家觉得还可以呀,记得推荐呦。

最后这里给大家免费分享一份Python学习资料,包含了视频、源码、课件,希望能够帮助到那些不满现状,想提示自己却又没用方向的朋友,也可以和我一起来交流呀!

编辑资料、学习路线图、源代码、软件安装包等!【点击领取】

一、Python所有方向的学习路线

Python所有方向路线就是把Python常用的技术点做整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。

图片

图片

二、学习软件

工欲善其事必先利其器。学习Python常用的开发软件都在这里了,还有环境配置的教程,给大家节省了很多时间。

图片

三、全套PDF电子书

书籍的好处就在于权威和体系健全,刚开始学习的时候你可以只看视频或者听某个人讲课,但等你学完之后,你觉得你掌握了,这时候建议还是得去看一下书籍,看权威技术书籍也是每个程序员必经之路。

图片

四、入门学习视频全套

我们在看视频学习的时候,不能光动眼动脑不动手,比较科学的学习方法是在理解之后运用它们,这时候练手项目就很适合了。

图片

图片

五、实战案例

光学理论是没用的,要学会跟着一起敲,要动手实操,才能将自己的所学运用到实际当中去,这时候可以搞点实战案例来学习。

图片

图片

 

  • 11
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值