python小小爬虫(二)——爬取小说

本教程仅用作练习

文章目录

分析

某小说网站:https://www.qq717.com
选一部你们喜欢的小说,就拿博主比较喜欢看的一部小说——剑来作为示范(请大家支持正版小说,本文只作为爬虫练习使用
在这里插入图片描述
原理比较简单,直接上代码

代码

import requests  
from bs4 import BeautifulSoup
import re  #正则表达式的库
novel_url = "https://www.qq717.com/html/143/143749/"
header_dic = {'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/80.0.3987.149 Safari/537.36'}

respon = requests.get(novel_url)
respon.encoding = 'utf-8'				#编码格式

soup = BeautifulSoup(respon.text,'lxml')#解析器 
urls = soup.find_all('dd') #获取每个章节

lst_url=re.findall('<a href="(.*?)">',str(urls),re.S)	#获取章节的链接href  (.*?)表示匹配任何字符 非贪婪模式 lst_url里面的是(.*?)里面的东西 是一个列表
#遍历每一个链接地址
for i in range(len(lst_url)):
    tmp_url = 'https://www.qq717.com'+lst_url[i]#组合得到章节链接
    respon = requests.get(tmp_url)
    respon.encoding = 'utf-8'
    soup = BeautifulSoup(respon.text,'lxml')#解析器
    content = soup.find('div',{'id':'content'}).get_text()#获取章节题目
    title = soup.find('div',{'class':'bookname'}).find('h1').get_text()#获取章节内容
    print('正在下载……'+title)
   # print(content) 
    with open('剑来.txt','a',encoding='utf-8') as filename:# a 为往file后追加内容
        filename.write(title)
        filename.write('\n')
        filename.write(content)

效果

在这里插入图片描述

  • 3
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

薛定猫

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值