需要用到库文件:requests
安装requests:pip install requests
写一个简单爬虫代码:
from fake_useragent import UserAgent
import requests
query = input("输入搜索内容:")
url=f"https://www.baidu.com/s?wd={query}"
headers= {'User-Agent':str(UserAgent().random)}
resp = requests.get(url, headers=headers)
print(resp)
print(resp.text) # 拿到页面源代码
200说明访问成功
resp.text会输出html代码
在百度翻译获取到值到json中:
F12打开Network,输入c时Network对应会出现
点Headers,在From Data中看到
而点Preview会看内容:
我们可以通过代码尝试去获取:
import requests
from fake_useragent import UserAgent
headers= {'User-Agent':str(UserAgent().random)}
url = "https://fanyi.baidu.com/sug"
s = input("请输入你要翻译的英文单词")
dat = {
"kw": s
}
# 发送post请求, 发送的数据必须放在字典中, 通过data参数进行传递
resp = requests.post(url, data=dat)
print(resp.json()) # 将服务器返回的内容直接处理成json() => dict
结果如下: