python 3 爬虫 小说

# -*- coding:utf-8 -*-
# 爬起笔趣网http://www.biquw.com/
# 都市阴阳师小说
# 作者:筑梦之路 QQ434754018
from bs4 import BeautifulSoup
import requests, sys

class downStore(object):
	def __init__(self):
		self.server = 'http://www.biquw.com/'  #要爬取的网站
		self.target = 'http://www.biquw.com/book/67821/'  #爬取的小说
		self.names = []  #存放目录
		self.urls = []  #存放链接
		self.nums = 0  #章节数

	def getDownUrls(self):
		request = requests.get(url = self.target)  #发送请求
		html = request.text  #获取网页源码
		bs = BeautifulSoup(html, 'html.parser')  #创建对象
		content = bs.find_all('div', class_ = 'book_list')
		bf = BeautifulSoup(str(content[0]), 'html.parser')
		a = bf.find_all('a')
		self.nums = len(a)

		#循环遍历
		for each in a:
			self.names.append(each.string)
			self.urls.append(self.target + each.get('href'))

	def getConents(self, target):
		req = requests.get(url = target)
		html = req.text
		bs = BeautifulSoup(html, 'html.parser')
		texts = bs.find_all('div', id = 'htmlContent')
		#print('-------------------------------------------')
		#print(len(texts))
		txt = texts[0].text.replace('\xa0'*8,'\n\n')
		return txt

	def save_file(self, name, path, text):
		write_flag = True
		with open(path, 'a', encoding = 'utf-8') as f:
			f.write(name + '\n')
			f.writelines(text)
			f.write('\n\n')

if __name__ == '__main__':
	d1 = downStore()
	d1.getDownUrls()
	print('都市阴阳师小说开始下载:')
	'''
	print(d1.nums)
	print(d1.names)
	print(d1.urls)
	'''
	for i in range(d1.nums):
		d1.save_file(d1.names[i], '都市阴阳师.txt', d1.getConents(d1.urls[i]))
		sys.stdout.write("  已下载:%.3f%%" %  float(i/d1.nums) + '\r')
		sys.stdout.flush()
	print("都市阴阳师小说下载完成!")

 

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值