初级使用Scrapy

本文详细指导如何在Scrapy框架下创建一个针对lufei小说的爬虫,包括设置模板、修改URL、配置settings.py和启动爬虫的过程。
摘要由CSDN通过智能技术生成

创建Scrapy项目:测试项目为lufei小说

创建爬虫模版:要先切换到刚刚创建的lufei路径下面,名称为lufeishuo,域名为b.faloo.com

模版创建好之后修改stat_url为自己要爬取的url

import scrapy


class LufeishuoSpider(scrapy.Spider):
    name = "lufeishuo"
    allowed_domains = ["b.faloo.com"]
    start_urls = ["https://b.faloo.com/html_1404_1404547/"]

    def parse(self, response):
        print(response.text)

然后修改设置settings.py,改成不接受协议False

解开注释并添加自己的User_Agent伪装一下

在scrapy.cfg的同级目录下面创建start.py文件

在start文件中写入启动程序

右键运行至此结束

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值