scrapy 爬豆瓣返回403错误的解决方法

       用scrapy爬豆瓣的某些页面返回403错误:


      解决方法:

      在setting.py文件中增加USER_AGENT配置:

USER_AGENT = 'Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/55.0.2883.87 Safari/537.36'


Scrapy是一个强大的Python网络爬虫框架,用于从网站上抓取数据。如果你想用它豆瓣Top250电影排行榜的数据,可以按照以下步骤操作: 1. **安装Scrapy**:首先需要确保已经安装了Python以及Scrapy框架,如果没有,可通过`pip install scrapy`命令安装。 2. **创建项目**:运行`scrapy startproject douban_tops` 创建一个新的Scrapy项目,选择一个合适的名称。 3. **定义Spider**:在spiders文件夹下新建一个Python文件,如'doubantop.py',并定义一个继承自`DjangoSpider`或`BaseSpider`的爬虫类。设置起始URL(通常是豆瓣电影Top250的页面地址)和解析规则。 ```python import scrapy class DoubanTopSpider(scrapy.Spider): name = 'doubantop' allowed_domains = ['movie.douban.com'] start_urls = ['https://movie.douban.com/top250'] def parse(self, response): # 使用XPath 或 CSS选择器找到你需要的数据(比如电影标题、评分等) titles = response.css('div.item .title a::text').getall() ratings = response.css('span.rating_num::text').getall() for title, rating in zip(titles, ratings): yield { 'title': title, 'rating': rating, } # 如果有分页链接,继续请求下一页 next_page = response.css('a.next::attr(href)').get() if next_page is not None: yield response.follow(next_page, self.parse) ``` 4. **运行爬虫**:在项目的根目录下,通过`scrapy crawl doubantop` 命令运行爬虫Scrapy会开始下载网页并处理数据。 5. **保存数据**:默认情况下,Scrapy将数据存储为JSON或其他标准格式,你可以根据需求配置其保存位置或使用中间件处理数据。
评论 7
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值