scrapy爬虫-爬取wattpad外网小说网站

本文介绍了一个使用Python的Scrapy框架爬取Wattpad外网小说网站的初步尝试。目前实现了基本内容的抓取,但仍有三个功能未完成:一是将parse1和parse2的抓取内容整合;二是未能根据阅读量获取作者信息;三是内容未保存到数据库。作者期待有经验的大佬提供指导。
摘要由CSDN通过智能技术生成

目前还在学习爬虫scrapy框架,尝试爬取外网的小说网站:https://www.wattpad.com/stories/adventure
目前只是实现了一部分非常简单的内容爬取
还未实现的功能
‘’‘

1、将parse1和parse2 的内容结合到一起

2、没有实现根据阅读量去提取作者信息

3、没有实现将内容保存到数据库中

‘’‘’
有大佬看了可以指点一下吗?
代码如下:

import scrapy
import re
import urllib.response as ur
import lxml.etree as le



# 1、将parse1和parse2 的内容结合到一起
# 2、没有实现根据阅读量去提取作者信息
# 3、没有实现将内容保存到数据库中




class WpSpider(scrapy.Spider):
    name = 'wp'
    # allowed_domains = ['wattpad']

    def start_requests(self):
        # yield scrapy.Request(
        
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值