新浪微博爬虫(Scrapy、Redis)环境搭建

本文介绍了如何搭建一个基于Scrapy和Redis的新浪微博爬虫环境。主要内容包括MongoDB的安装和启动,Python环境配置,特别是安装Scrapy及其依赖模块如pymongo、json、base64和requests。同时,需要将微博账号信息存入cookies.py文件,并调整Scrapy的设置。在Python模块安装过程中,可能会遇到版本不对应的问题,需要手动下载并安装相应版本的模块。
摘要由CSDN通过智能技术生成

Git源码地址

需要以下环境配置:
1、MongoDB安装好 能启动即可,不需要配置。
2、Python需要安装好scrapy(64位的Python尽量使用64位的依赖模块)
另外用到的python模块还有:pymongo、json、base64、requests。
3、将你用来登录的微博账号和密码加入到 cookies.py 文件中,里面已经有两个账号作为格式参考了。
4、另外一些scrapy的设置(如间隔时间、日志级别、Request线程数等)可自行在setting里面调。

MongoDB的环境配置

见我的前一篇文章MongoDB环境配置

python需要的其他模块

pip下载安装的包,导致版本不对应,出现错误,需要手动下载scrapy,以及它需要依赖的包,记得选择对应的python版本。
参考文章
pywin32
zope.interface

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值