利用scrapy抓取豆瓣top250数据并进行分析学习笔记

本文记录了使用scrapy框架爬取豆瓣Top250电影数据的过程,包括创建爬虫项目、配置items和settings文件、启动爬虫,以及后续用Python对数据进行处理,如生成词云,展示了电影、世界等高频词汇。
摘要由CSDN通过智能技术生成

        上一篇爬虫文章记录了利用scrapy爬去西安天气数据,本文主要是记录在学习中利用scrapy爬去豆瓣top250的电影并进行分析数据过程。

 

1.建立一个爬虫项目

scrapy startproject douban

2.在spider中建立douban爬虫文件

3.配置items.py文件

4.配置settings.py文件

USER_AGENT换成自己的电脑信息

5.开始爬虫

这是会在屏幕出现如图所示:说明爬虫成功

7.利用python进行数据处理

1.读数据

</

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值