python爬虫

scrapy工作机制:
通过spider将url通过初始化Request对象进入引擎,然后放入调度器进行优先级的等待,到此任务是进入下载器进行源码的下载提交给spider,然后spider进行数据的提取,如果有需要的url就再次的进行上述步骤,通过item管道进行数据的存储,中间件是为了给scrapy框架添加别的功能
对于验证码的处理思路:
1,通过cookie登陆
2,通过运用orc的库Tesract
3,滑动验证码:例如b站
4,打码平台:超级鹰
5,点触验证码的识别(超级鹰也可以)
模拟登陆开发 selenium
scrapy使用代理ip:
在settings中设置下载中间件,然后在下载中间件中编写使用代理ip的代码

pandas和numpy进行数据清洗:
科学计算工具:numpy
开发环境:jupyter notebook
画图工具:matplotlib
基于numpy对于数据进行处理:pandas

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值