学习python3爬虫爬取静态小说网站

主要使用BeautifulSoup和requests

爬取静态网站的时候比较简单

from bs4 import BeautifulSoup

import requests,sys
class downloader(object):
    def __init__(self):
        self.server='http://www.biqukan.com/'
        self.target='http://www.biqukan.com/17_17957/'
        self.names=[]
        self.urls=[]
        self.nums=0
    def get_downlode_url(self):
        req=requests.get(url=self.target)
        html=req.text
        div_bf=BeautifulSoup(html)
        texts=div_bf.find_all('div',class_='listmain')
        a_bf=BeautifulSoup(str(texts[0]))
        a=a_bf.find_all('a')
        self.nums=len(a[12:])
        
#texts=texts[0].text.replace('\xa0'*8,'\n\n')
        for each in a[12:]:
           self.names.append(each.string)
           self.urls.append(self.server + each.get('href'))
    def get_content(self,target):
        req=requests.get(url=target)
        html=req.text
        bf=BeautifulSoup(html)
        texts=bf.find_all('div',class_='showtxt')
        texts=texts[0].text.replace('\xa0'*8,'\n\n')
        return texts
    
    
    def writer(self, name, path, text):
        write_flag = True
        with open(path, 'a', encoding='utf-8') as f:
            f.write(name + '\n')
            f.writelines(text)
            f.write('\n\n')
if __name__ == "__main__":
          dl = downloader()
          dl.get_downlode_url()
          print('开始下载:')
          for i in range(dl.nums):
              dl.writer(dl.names[i], '天道图书馆.txt', dl.get_content(dl.urls[i]))
              sys.stdout.write("  已下载:%.3f%%" %  float(i/dl.nums) + '\r')
              sys.stdout.flush()
          print('下载完成')
  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值