爬小说

from bs4 import BeautifulSoup
import requests,sys

class downloader(object): #定义一个downloader类

    def __init__(self):   #当前类的实例
        self.server = 'http://www.biqukan.com/'
        self.target = 'http://www.biqukan.com/39_39591/'
        self.names = []     #章节名
        self.urls = []      #链接名
        self.nums = 0       #章节数

    def get_download_url(self):     #获取下载链接
        req = requests.get(url = self.target)
        html = req.text     #为什么有.text??
        div_df = BeautifulSoup(html)
        div = div_df.find_all('div',class_ = 'listmain')
        a_bf = BeautifulSoup(str(div[0]))   #为什么要用str()??
        a = a_bf.find_all('a')
        self.nums = len(a[12:])
        for each in a[12:]:
            self.names.append(each.string)
            self.urls.append(self.server + each.get('href'))

    def get_contents(self,target):      #获取章节内容
        req = requests.get(url = target)
        html = req.text
        bf = BeautifulSoup(html)
        texts = bf.find_all('div',class_ = 'showtxt')
        texts = texts[0].text.replace('\xa0' * 8, '\n\n')
        return texts

    def writer(self,name,path,text):  #将爬取的文章内容写入文件
        write_flag = True
        with open(path,'a',encoding = 'utf-8') as f:
            f.write(name + '\n')  #章节名
            f.writelines(text)    #章节内容
            f.write('\n\n')

if __name__ == '__main__':
    d1 = downloader()   #调用类
    d1.get_download_url()  #调用类中的方法
    print('《终鄢》开始下载:')
    for i in range(d1.nums):
        d1.writer(d1.names[i],'终鄢.txt',d1.get_contents(d1.urls[i]))
        sys.stdout.write(' 已下载:%.3f%%' % float(i/d1.nums) + '\r')
        sys.stdout.flush()
    print('《终鄢》下载完成')
  • 0
    点赞
  • 3
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值