python cookies池_Python爬虫scrapy框架Cookie池(微博Cookie池)的使用

下载代码Cookie池(这里主要是微博登录,也可以自己配置置其他的站点网址)

下载代码GitHub:https://github.com/Python3WebSpider/CookiesPool

1ba5a08aa3d79fd748dcb308c0624b9b.png

下载安装过后注意看网页下面的相关基础配置和操作!!!!!!!!!!!!!

自己的设置主要有下面几步:

1、配置其他设置

8591bf7e23e5eb77f0c575f0a9d36257.png

2、设置使用的浏览器

8ed722901732f6e76f73738903777047.png

56a8f5e24d4e0d33685cd5657158befb.png

3、设置模拟登陆

e4a93d844553b8b36b0a87facfbb7857.png

源码cookies.py的修改(以下两处不修改可能会产生bug):

7f7bbd9d4e9727291aeb08d227376be2.png

d49d0bb5504f77472a9a4b4a148ab14b.png

4、获取cookie

随机获取Cookies: http://localhost:5000/weibo/random(注意:cookie使用时是需要后期处理的!!)

04decbbb8bbd26fc6a63c5ef75f26640.png

简单的处理方式,如下代码(偶尔需要对获取的cookie处理):

def get_cookie(self):

return requests.get('http://127.0.0.1:5000/weibo/random').text

def stringToDict(self,cookie):

itemDict = {}

items = cookie.replace(':', '=').split(',')

for item in items:

key = item.split('=')[0].replace(' ', '').strip(' "')

value = item.split('=')[1].strip(' "')

itemDict[key] = value

return itemDict

scrapy爬虫的使用示例(爬取微博):

middlewares.py中自定义请求中间件

def start_requests(self):

ua = UserAgent()

headers = {

'User-Agent': ua.random,

}

cookies = self.stringToDict(str(self.get_cookie().strip('{|}')))

yield scrapy.Request(url=self.start_urls[0], headers=headers,

cookies=cookies, callback=self.parse)

cookies = self.stringToDict(str(self.get_cookie().strip('{|}')))

yield scrapy.Request(url=self.start_urls[0], headers=headers,

cookies=cookies, callback=self.parse)

settings.py 中的配置:

96e192bae8ee3e485b7cbc42d2945475.png

5、录入账号和密码:

1aa0a9e74068b4e2e3edb96ab4f4ea61.png

格式规定(账号----密码)

9365a6985fb687f22f9a2da08b271b1b.png

6、验证:(注意:使用cmd)

48c3eec893e8f1d39ad5b9ba34684b3f.png

7、使用时注意保持cmd打开运行!!

使用时一定要打开cmd,并运行如第6步。

得到Cookie是判断是否处理处理Cookie(几乎都需要!!)类比第4步!!!

到此这篇关于Python爬虫scrapy框架Cookie池(微博Cookie池)的使用的文章就介绍到这了,更多相关scrapy Cookie池内容请搜索脚本之家以前的文章或继续浏览下面的相关文章希望大家以后多多支持脚本之家!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值