Python爬虫入门:爬取某个网页的小说内容

导入必要的包

import requests
import re

要爬的网页

url = 'http://www.shujy.com/5200/244309/'

模拟浏览器发送http请求

response = requests.get(url)

改变编码方式

response.encoding = 'utf-8'

获取目标小说的网页源码

html = response.text

获取小说的名字

title = re.findall(r'<meta property="og:novel:book_name" content="(.*?)"/>', html)[0]

新建文本文件保存爬取内容

fb = open('%s.txt' % title, 'w', encoding='utf-8')

爬取小说的每个章节及网页链接

dl = re.findall(r'<div id="list">.*?</div>', html, re.S)[0]
chapter_info_list = re.findall(r'<a href="(.*?)">(.*?)</a>', dl)

循环每一章节,分别下载,先把章节的链接,章节名提取出来

for chapter_info in chapter_info_list:
    chapter_url, chapter_title = chapter_info
    chapter_url = "http://www.shujy.com/5200/244309/%s " % chapter_url
    chapter_url = chapter_url.replace(' ', '')

下载小说内容

    chapter_response = requests.get(chapter_url)
    chapter_response.encoding = 'utf-8'
    chapter_html = chapter_response.text
    chapter_content = re.findall(r'<div id="content">(.*?)</div>', chapter_html, re.S)[0]

数据清洗

    chapter_content = chapter_content.replace('&nbsp;', '')
    chapter_content = chapter_content.replace('<br />', '')
    chapter_content = chapter_content.replace('&amp;t;', '')
    chapter_content = chapter_content.replace('&t;;', '')

小说保存到本地

    fb.write(chapter_title)
    fb.write('\n')
    fb.write(chapter_content)
    fb.write('\n')
    print(chapter_url, chapter_title)
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Faith_xzc

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值