Python爬虫入门--连接有道翻译

import urllib.request as r
import urllib.parse as p
import json
import time



def translate():
    while 1:
        content = input('请输入需翻译的英文(输入q退出):')
        if content=='q':
            break
        url = 'http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule&smartresult=ugc&sessionFrom=http://www.youdao.com/'

       # 伪装成浏览器方式一,设置head头,传入urllib.request.Request()中
       # head = {
       #     'User-Agent':'Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0'
       # }
       # 方式二.Request()对象使用add_header()方法

        # form表单内容
        data = {
            'i':content,
            'from':'AUTO',
            'to':'AUTO',
            'smartresult':'dict',
            'client':'fanyideskweb',
            'salt':'1530531375538',
            'sign':'77aef11f1358ae73d2f1589b4a1118c3',
            'doctype':'json',
            'version':2.1,
            'keyfrom':'fanyi.web',
            'action':'FY_BY_CLICKBUTTION',
            'typoResult':'false'
        }
        # 格式化表单数据
        data = p.urlencode(data).encode('utf-8')
        print('data:',data)
        # 访问网站并以post方式提交
        reg = r.Request(url,data)
        reg.add_header('User_Agent','Mozilla/5.0 (Windows NT 6.1; Win64; x64; rv:61.0) Gecko/20100101 Firefox/61.0')
        response= r.urlopen(reg)
        # 获得str类型的结果
        html = response.read().decode('utf-8')
        print('html的类型:',type(html))
        # 转换为json类型
        target = json.loads(html)
        print('target的类型:',type(target))
        print(html)
        print(target['translateResult'])
        # 去掉外部的2层
        print(target['translateResult'][0][0]['tgt'])
        #延迟提交
        time.sleep(5)
    return response
x=translate()


  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值