爬虫爬取小说内容

PS:我使用的环境是Spyder(python3.6)

大概思路:小说,章节,逐层爬取信息,在以小说名建立文件夹,以章节名为名建立.tex文件,将小说内容保存到文件中。

import requests
from lxml import etree
import os

#设计模式---面向对象,继承,封装
class Spider(object):
    
    #函数功能:请求小说网站,拿到小说名字和相应打开链接,并建立以小说名为名字的文件夹
    def start_request(self):
        #请求网站拿到数据
        response=requests.get("https://www.qidian.com/all")
        print(response.text) #打印请求网址拿到的界面内容,用于验证
        html=etree.HTML(response.text) #结构化数据
        bigtil_list=html.xpath('//div[@class="book-mid-info"]/h4/a/text()') #指定爬取得内容,这里是小说名
        bigsrc_list=html.xpath('//div[@class="book-mid-info"]/h4/a/@href')#相应小说名的链接
        print(bigtil_list,bigsrc_list)
        for bigtil,bigsrc in zip(bigtil_list,bigsrc_list):#爬取到的数据并不是对应的,我用zip让他们一一对应
            print(bigtil,bigsrc)
            if os.path.exists(bigtil)==False:#如果以该小说名为名字的文件夹不存在
                os.mkdir(bigtil) #则新建以该小说名为名的文件夹
            self.file_data(bigtil,bigsrc) #调用函数file_data
            
    
    #函数功能:    
    def file_data(self,bigtil,bigsrc):
        response=requests.get("https:"+bigsrc)#得到的数据bigsrc为不加http:的网址,需要访问,得先加上
        print(response)
        html=etree.HTML(response.text)
        littil_list=html.xpath('//ul[@class="cf"]/li/a/text()')#爬取章节名
        litsrc_list=html.xpath('//ul[@class="cf"]/li/a/@href')#相应的章节名链接
        for littil,litsrc in zip(littil_list,litsrc_list):
            print(littil,litsrc)
            self.final_data(bigtil,littil,litsrc)
            
    def final_data(self,bigtil,littil,litsrc):
        response=requests.get("https:"+litsrc)#打开网址链接,得到小说章节内容
        html=etree.HTML(response.text)
        content="\n".join(html.xpath('//div[@class="read-content j_readContent"]/p/text()'))
        file_name=bigtil+"\\"+littil+".txt" #小说名,先存在小说文件夹中,再以章节取名,存为.txt文件。
        print("正在存储文件:"+file_name)
        with open(file_name,"a",encoding="utf-8") as f: #打开文件
            f.write(content) #写入小说内容
            #这里需要注意的是:写入文件内容时只能以字符串的形式写入,但爬取的内容是以list的形式呈现的,所以这里
            #使用 content="\n".join()使它变为字符串。
            
spider=Spider() #构造实体
spider.start_request() #调用函数

运行结果:
在这里插入图片描述

  • 3
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值