【Python爬虫】_01抓包工具和伪装UA

本文介绍了Python爬虫的基本概念、通用爬虫与聚焦爬虫的区别,详细讲解了HTTP协议,包括请求头和响应头的关键信息,并提到了抓包工具如Fiddler的使用。此外,文章还探讨了Python的urllib库,特别是request模块的运用,以及如何构建请求头部信息来伪装UA,以应对反爬策略。
摘要由CSDN通过智能技术生成

一、爬虫概念

1.什么是爬虫?
​ 程序猿:写程序,然后去互联网上抓取数据的过程
​ 互联网:网,有好多的a链接组成的,网的节点就是每一个a链接 url(统一资源定位符)
2.哪些语言可以实现爬虫?
​ (1)php,可以做,号称世界上最优美的语言,多进程、多线程支持的不好
​ (2)java,也可以做爬虫,人家做的很好,最主要的竞争对手,代码臃肿,重构成本大
​ (3)c、c++,是你能力的体现,不是良好的选择
​ (4)python,语法简单、代码优美,学习成本低,支持的模块多,非常强大的框架 scrapy

二、爬虫分类:通用爬虫、聚焦爬虫

1.通用爬虫:

​ 例如:百度、360、搜狐、谷歌、必应等
​ 原理:
​ (1)抓取网页
​ (2&#

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

清平乐的技术博客

你的鼓励是我最大创作动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值