python网络爬虫之urllib请求百度翻译

本文介绍了如何使用Python的urllib库来请求百度翻译的接口。首先,讲解了寻找接口并注意反爬策略,接着详细阐述了Request的使用以及如何模拟浏览器向服务器发送带有post数据的请求。
摘要由CSDN通过智能技术生成

python网络爬虫之urllib请求百度翻译

一、找接口(注意反爬):单击鼠标右键检查,找到Network、找到我们的post接口RU和UA。

二、请求对象的定制

1.Request的使用

url = 'https://fanyi.baidu.com/sug'#RU(post接口的查找)
#反爬UA
headers = {
   
'User-Agent': '这里是我的UA,涉及电脑的版本、网络信息,自己的copy自己的就可以了'
}
data = {
   'kw':'boys'}#post接口的执行,以及解决编码问题

import urllib.parse
#post的请求参数为字节,所以必须编码encode('utf-8')
data = urllib.parse.urlencode
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值