4)urllib.request.Request
上面的urllib是可对网页发起请求,在我们实际的爬虫应用中,如果频繁的访问一个网页,网站就会识别我们是不是爬虫,这个时候我们就要利用Request来伪装我们的请求头。
urllib.request.Request(url, data=None, headers={}, origin_req_host=None, unverifiable=False, method=None)
推荐使用request()来进行访问的,因为使用request()来进行访问有两点好处:
- 可以直接进行post请求,不需要将 data参数转换成JSON格式
- 直接进行GET请求,不需要自己拼接url参数
如果只进行基本的爬虫网页抓取,那么urllib足够用了。
Requests库
requests库是一个常用于http请求的模块,可以方便的对网页进行爬取,是学习python爬虫比较好的http请求模块,比urllib库更加简洁,并且自带json解析器。
掌握了它,Cookies、登录验证、代理设置等操作都不是事儿。
1)request提供的方法
get(url,params,**kwargs)
- url: 需要爬取的网站地址。
- params: url中的额外参数,字典或者字节流格式,可选。
- **kwargs : 控制访问的参数
post(url, data=None, json=None, **kwargs):
- url: 需要爬取的网站地址。
- data:传递的内容。
- json:json格式传递的内容
- **kwargs : 控制访问的参数
request(method, url, **kwargs):
- method:需要使用的方法
- url:爬行的路径
- **kwargs : 控制访问的参数
2)控制访问的参数
通过上面方法返回的是一个Response对象,该对象有以下这些属性和方法:
requests的优势在于使用简单,相同一个功能,用requests实现起来代码量要少很多。
戳这里可获取相关的Python基础学习资料哦↓↓↓
下面的所有资料我全部打包好了并且上传至CSDN官方,需要的点击👇获取!
三、开发工具的掌握
- PyCharm – 交互很好的Python一款IDE;
- Fiddler – 网页请求监控工具,我们可以使用它来了解用户触发网页请求后发生的详细步骤;
(1)PyCharm
PyCharm是一款著名的Python IDE开发工具,拥有一整套可以帮助用户在使用Python语言开发时提高其效率的工具。
具备基本的调试、语法高亮、Project管理、代码跳转、智能提示、自动完成、单元测试、版本控制。
此外,该IDE提供了一些高级功能,以用于支持Django框架下的专业Web开发。
pycharm官网分为两个版本:
第一个版本是Professional(专业版本),这个版本功能更加强大,主要是为Python和web开发者而准备,是需要付费的。
第二个版本是社区版,一个专业版的阉割版,比较轻量级,主要是为Python和数据专家而准备的。
一般我们做开发,下载专业版本比较合适。
(2)Fiddler
Fiddler是一个http调试代理,它能够记录所有的你电脑和互联网之间的http通讯。
Fiddler 可以也可以让你检查所有的http通讯,设置断点,以及Fiddle 所有的“进出”的数据(指cookie,html,js,css等文件,这些都可以让你胡乱修改的意思)。
要比其他的网络调试器要更加简单,因为它仅仅暴露http通讯还有提供一个用户友好的格式。
1)基本工作原理
会话的概念:一次请求和一次响应就是一个会话。
2)fiddler主界面
工具栏
- 1:给会话添加备注信息
- 2:重新加载当前会话
- 3:删除会话选项
- 4:放行,和断点对应
- 5:响应模式。也即是,当Fiddler拿到远程的response后是缓存起来一次响应给客户端还是以stream的方式直接响应。
- 6:解码,有些请求是被编码的,点击这个按钮后可以根据响应的编码格式自动解码。
- 7:查找会话
- 8:保存会话
- 9:截屏。截屏后,会以会话的方式返回一个截图
判断get和post请求
会话列表属性说明
查看请求头和请求体
3)Fiddler设置过滤(抓取指定服务器地址的数据)
填写服务器地址多个ip之间需要用;隔开,或者每个ip或域名单独写一行;
Hosts 第二个下拉选说明:
No Host Filter 不设置hosts过滤
Hide The Following Hosts 隐藏过滤到的域名
Show Only The Following Hosts 只显示过滤到的域名
Flag The Following Hosts 标记过滤到的域名
类型过滤:图片、CSS、JS这类的静态素材也不需要看的情况下,直接全部过滤掉
.*\.(bmp|css|js|gif|ico|jp?g|png|swf|woff)
4)开启 Https 抓包监听
Fiddler 默认下,Fiddler不会捕获HTTPS会话,需要你设置下。
from all processes : 抓取所有的 https 程序, 包括 本机 和 手机
from browsers only : 只抓取浏览器中的 https 请求
from non-browsers only : 只抓取除了浏览器之外的所有 https 请求
from remote clients only : 抓取远程的客户端的 https ,可以代表手机
Fiddler是最好用的Web调试工具之一,它能记录所有客户端和服务器的http和https请求,允许你监视,设置断点,甚至修改输入输出数据。
Fiddler包含了一个强大的基于事件脚本的子系统,并且能使用.net语言进行扩展。
你对HTTP 协议越了解, 你就能越掌握Fiddler的使用方法,你越使用Fiddler,就越能帮助你了解HTTP协议。
四、网页爬取案例
案例1:爬取百度翻译接口
python
import requests
base_url = 'https://fanyi.baidu.com/sug'
kw = input('请输入要翻译的英文单词:')
data = {
'kw': kw
}
headers = {
# 由于百度翻译没有反扒措施,因此可以不写请求头
'content-length': str(len(data)),
'content-type': 'application/x-www-form-urlencoded; charset=UTF-8',
'referer': '百度翻译-200种语言互译、沟通全世界!',
'x-requested-with': 'XMLHttpRequest'
}
response = requests.post(base_url, headers=headers, data=data)
# print(response.json())
#结果:{'errno': 0, 'data': [{'k': 'python', 'v': 'n. 蟒; 蚺蛇;'}, {'k': 'pythons', 'v': 'n. 蟒; 蚺蛇; python的复数;'}]}
#-----------------------------把他变成一行一行
result=''
for i in response.json()['data']:
result+=i['v']+'\n'
print(kw+'的翻译结果为:')
print(result)
案例2:爬取百度产品列表
# 1.导包
import requests
# 2.确定url
base_url = '百度产品大全'
# 3.发送请求,获取响应
response = requests.get(base_url)
# 4.查看页面内容,可能出现 乱码
# print(response.text)
# print(response.encoding)
# 5.解决乱码
# 方法一:转换成utf-8格式
# response.encoding='utf-8'
# print(response.text)
#方法二:解码为utf-8
with open('index.html', 'w', encoding='utf-8') as fp:
fp.write(response.content.decode('utf-8'))
print(response.status_code)
print(response.headers)
print(type(response.text))
print(type(response.content))
案例3:爬取百度贴吧前十页(get请求)
# _--------------------爬取百度贴吧搜索某个贴吧的前十页
import requests, os
base_url = '登录_百度贴吧
headers = {
'User-Agent': 'Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/77.0.3865.90 Safari/537.36',
}
dirname = './tieba/woman/'
if not os.path.exists(dirname):
os.makedirs(dirname)
for i in range(0, 10):
params = {
'ie': 'utf-8',
'kw': '美女',
'pn': str(i * 50)
}
response = requests.get(base_url, headers=headers, params=params)
with open(dirname + '美女第%s页.html' % (i+1), 'w', encoding='utf-8') as file:
file.write(response.content.decode('utf-8'))
关于Python技术储备
学好 Python 不论是就业还是做副业赚钱都不错,但要学会 Python 还是要有一个学习规划。最后大家分享一份全套的 Python 学习资料,给那些想学习 Python 的小伙伴们一点帮助!
包括:Python激活码+安装包、Python web开发,Python爬虫,Python数据分析,Python自动化测试学习等教程。带你从零基础系统性的学好Python!
一、Python学习大纲
Python所有方向的技术点做的整理,形成各个领域的知识点汇总,它的用处就在于,你可以按照上面的知识点去找对应的学习资源,保证自己学得较为全面。
现在能在网上找到很多很多的学习资源,有免费的也有收费的,当我拿到1套比较全的学习资源之前,我并没着急去看第1节,我而是去审视这套资源是否值得学习,有时候也会去问一些学长的意见,如果可以之后,我会对这套学习资源做1个学习计划,我的学习计划主要包括规划图和学习进度表。
分享给大家这份我薅到的免费视频资料,质量还不错,大家可以跟着学习
网上学习资料一大堆,但如果学到的知识不成体系,遇到问题时只是浅尝辄止,不再深入研究,那么很难做到真正的技术提升。
一个人可以走的很快,但一群人才能走的更远!不论你是正从事IT行业的老鸟或是对IT行业感兴趣的新人,都欢迎加入我们的的圈子(技术交流、学习资源、职场吐槽、大厂内推、面试辅导),让我们一起学习成长!