【基础教程】Python 爬虫所需要的库有哪些?

通用:​​​​​​​

  • urllib -网络库(stdlib)。

  • requests -网络库。

  • grab – 网络库(基于pycurl)。

  • pycurl – 网络库(绑定libcurl)。

  • urllib3 – Python HTTP库,安全连接池、支持文件post、可用性高。

  • httplib2 – 网络库。

  • RoboBrowser – 一个简单的、极具Python风格的Python库,无需独立的浏览器即可浏览网页。

  • MechanicalSoup -一个与网站自动交互Python库。

  • mechanize -有状态、可编程的Web浏览库。

  • socket – 底层网络接口(stdlib)。

  • Unirest for Python – Unirest是一套可用于多种语言的轻量级的HTTP库。

  • hyper – Python的HTTP/2客户端。

  • PySocks – SocksiPy更新并积极维护的版本,包括错误修复和一些其他的特征。作为socket模块的直接替换。

网络爬虫框架

  • 功能齐全的爬虫

    • grab – 网络爬虫框架(基于pycurl/multicur)。

    • scrapy – 网络爬虫框架(基于twisted),不支持Python3。

    • pyspider – 一个强大的爬虫系统。

    • col

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值