爬虫案例之有道翻译

本文介绍了如何使用Python爬虫实现有道翻译,通过获取URL,发出请求,提取并保存翻译数据。讨论了基础的爬虫思路,包括使用urllib库,理解GET和POST方法,以及处理服务器的响应。还解决了爬虫可能遇到的User-Agent问题,以避免被服务器识别为爬虫并屏蔽。
摘要由CSDN通过智能技术生成

通过有道翻译爬虫可以在python中进行翻译,得到翻译结果,在爬虫初学阶段,有道翻译是比较简单易于尝试。
爬虫的思路
1、获取url(网址)。2、发出请求,获得响应。3、提取数据。4、保存数据。

具体代码及步骤:

  • 导入需要使用的库,通过import导入库,就可以使用库里的函数
import urllib.request
import urllib.parse
import json

urllib库:是python的内置请求库,常用于网页的请求访问。
包括以下模块:
urllib.request 请求模块
urllib.error 异常处理模块
urllib.parse url解析模块

  • 在网页中获取需要的数据
    1.打开有道翻译 - 尝试输入一个词 - 右键检查 - network

在这里插入图片描述
可以看到有post和get,这是客户端和服务器进行请求和响应最常用的两种方法。post是提交数据,get是获得数据。

2.进入一个post - Headers
在这里插入图片描述
找到url就可以向服务器发送请求

  • 获得响应

核心语句就是

response=urllib.request.urlopen(url,data) 

接着在网页中找到From Data和URL的内容复制进去

import urllib.request
import urllib.parse
url='http://fanyi.youdao.com/translate'

data={
   }
data['i'] = 'hello'
data['type'] = 'AUTO'
data['smartresult'] = 'dict'
data['client'] = 'fanyideskweb'
data['salt'] = '15954759572511'
data['sign'] = '7d532782c7fa6f7846a42d0e7cfae962'
data['ts'] = '1595475957251'
data['bv'] = '901200199a98c590144a961dac532964'
data
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值