python爬虫有道词典_Python爬取有道词典,有道的反爬很难吗?也就这样啊!

打开后摁F12打开开发者模式,找Network选项卡,点击Network选项卡,然后刷新一下网页

然后翻译一段文字,随便啥都行(我用的程序员的传统:hello world),然后点击翻译

在选项卡中找到以translate开头的post文件

箭头的地方才是真正的提交地址

记住他,写代码时要用

这个是提交电脑的基本信息,记住他,等会儿要用,等会儿伪装成电脑时可以用,因为电脑会有基本信息,而如果是python的话会显示成python3.8.4(因为我的版本是3.8.4),从而容易被服务器禁入

等会儿还要用

好,准备工作做完了,接下来开始干正事了

开始编写爬虫代码

下面是我写的代码,具体我就不细说了

#导入urllib库

import urllib.request

import urllib.parse

import json

while True: #无限循环

content = input("请输入您要翻译的内容(输入 !!! 退出程序): ")

#设置退出条件

if content == '!!!':

break

url = 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule' #选择要爬取的网页,上面找过了

#加上一个帽子,减少被发现的概率(下面head列表的内容就是上面找的)

head = {}

head['User - Agent'] = '请替换'

#伪装计算机提交翻译申请(下面的内容也在在上面有过,最好根据自己的进行修改)

data = {}

data['type'] = 'AUTO'

data['i'] = content

data['doctype'] = 'json'

data['version'] = '2.1'

data['keyfrom:'] = 'fanyi.web'

data['ue'] = 'UTF-8'

data['typoResult'] = 'true'

data = urllib.parse.urlencode(data).encode('utf-8')

response = urllib.request.urlopen(url, data)

#解码

html = response.read().decode('utf-8')

paper = json.loads(html)

#打印翻译结果

print("翻译结果: %s" % (paper['translateResult'][0][0]['tgt']))

运行结果

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值