- 博客(1)
- 收藏
- 关注
原创 Python学习笔记
一、爬虫学习 网络爬虫:是指按照一定的规则,自动抓取互联网信息的程序或者脚本。 1.requests的使用: (1) requests的作用:请求页面,并获取页面的内容 代码如下: url = ' #请求网页地址# ' r = requests.get(url) (2) 发送headers的请求: ①为什么要发送带headers的请求? 发送带headers的请求的目的就为了模仿浏览器访问网页,获取和浏览器一致的内容。 ②那headers从何而来呢? 在浏览器上面...
2021-10-19 21:50:24 58 1
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人