requests库是我学习爬虫认识的第一个库,真的太喜欢这个库了应用很方便,它有许多的方法,比如get,post,del,等等。其中get方法是用的最多的,get方法可以直接请求,也可以添加参数到url里面只要找到关键字的接口,比如向百度提交csdn关键字,网址后面出现了一个s?wd=csdn,那么关键字接口就是wd,csdn是我们提交的关键字。在代码里面关键字接口和搜索词需要以键值对的形式提交到URL中。百度安全验证
https://www.baidu.com/s?wd=csdn实例1:向百度提交python关键字
import requests
#实例1:带参数的请求,向百度提交关键字PYTHON进行搜索
try:
kv={"wd":"Python"}#构建可选参数的键值对,增加到网址中
r=requests.get("http://www.baidu.com",params=kv)
print(r.status_code)
print(r.request.url)#查看request发给百度的请求网址,已经符合百度接口
print(len(r.text))#查看内容的长度
except:
print("失败")
实例2:向菜鸟教程提交两个参数,关键字和页面
#实例2:向菜鸟教程提交两个参数,关键字和页面
try:
url = "https://www.runoob.com"
km={"s":"python","page":"1"}
r=requests.get(url,params=km)
print(r.status_code)
print(requests.url)
except:
print("爬取失败")

216

被折叠的 条评论
为什么被折叠?



