Python爬取小说网站总推荐排行榜所有小说~


前言

本文的文字及图片来源于网络,仅供学习、交流使用,不具有任何商业用途,如有问题请及时联系我们以作处理。

PS:如有需要Python学习资料的小伙伴可以加点击下方链接自行获取

python免费学习资料以及群交流解答点击即可加入

提示:以下是本篇文章正文内容,下面案例可供参考

一、相关环境配置

  • python 3.6
  • pycharm
  • requests
  • parsel

相关模块 pip 安装即可

二、使用步骤

1.引入库

代码如下(示例):

import requests
import parsel

2.获取网页数据

代码如下(示例):

url = 'https://www.tianyabook.com/top/allvote/'

headers = {
    'User-Agent': 'Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/81.0.4044.138 Safari/537.36'
}
response = requests.get(url=url, headers=headers)
response.encoding = response.apparent_encoding

运行返回结果:

在这里插入图片描述


3.解析数据

代码如下(示例):

selector = parsel.Selector(response.text)
urls = selector.css('table tr td:nth-child(1) a::attr(href)').getall()
titles = selector.css('table tr td:nth-child(1) a::attr(title)').getall()
data = zip(urls, titles)
for i in data:
    book_id = i[0].replace('.html', '').split('/')[-1]
    title = i[1]
    print(book_id, title)

运行返回结果:

在这里插入图片描述


4.保存数据

def download(title, book_id):
    filename = 'D:\\python\\demo\\电子书下载\\小说\\' + title + '.txt'
    download_url = 'http://www.tianyabook.com/modules/article/txtarticle.php?id={}'.format(book_id)
    response_2 = requests.get(url=download_url, headers=headers)
    with open(filename, mode='a', encoding='utf-8') as f:
        f.write(response_2.text)

在这里插入图片描述

总结

提示:这里对文章进行总结:
以上就是全部的内容,本文仅仅简单爬取小说网站,这里是直接访问小说下载的地址。

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值