python——爬取有道翻译制作一个翻译软件

用tkinter创建两个text和一个button,在输入的text中输入待翻译的内容,点击按钮,程序获取输入的内容,提交表单并爬取有道翻译,获取翻译结果,显示在另一个text内

附上菜鸟工具  HTML取色器:https://c.runoob.com/front-end/5449

效果图:

程序代码:

import requests
from bs4 import BeautifulSoup
import json
import tkinter as tk
from tkinter import scrolledtext
from datetime import datetime
def trs():
    word = src.get("0.0","end")#获取编辑框数据
    word = word.lstrip()
    word = word.rstrip()#去掉两端的空格
    if len(word) == 0: #判断输入框内容是否为空
        return -1
    html = get_html(word)#获取有道翻译返回html
    res = parser_data(html)#处理数据,返回翻译结果
    tgt.delete("0.0","end")#清空原来的显示
    tgt.insert(tk.INSERT,res)#显示新翻译内容

def get_html(word):
    url = "http://fanyi.youdao.com/translate?smartresult=dict&smartresult=rule"
    head = {"User-Agent":"Mozilla/5.0 (Windows NT 6.1; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/73.0.3683.75 Safari/537.36"}
    form = {  #提交表单-> network -> XHR
        "i":word,
        "from":"AUTO",
        "to":"AUTO",
        "smartresult":"dict",
        "client":"fanyideskweb",
        "salt":"15550368029030",
        "sign":"1a07b4fe5d7cc90cec2aefb87b5cd17f",
        "ts":"1555036802903",
        "bv":"d39271655f6b7da338c7d58f74b0fad8",
        "doctype":"json",
        "version":"2.1",
        "keyfrom":"fanyi.web",
        "action":"FY_BY_REALTlME"
    }
    res = requests.post(url,headers=head,data=form)
    return res.text

def parser_data(html):
    res = json.loads(html)
    res = res["translateResult"]
    length = len(res)
    trs = ""
    for x in range(length):
        trs = trs + res[x][0]["tgt"] +"\n"
    return trs

mainWindow = tk.Tk()
mainWindow.minsize(800,540)
mainWindow.title("翻译官")
font_text = "Calibri"
font_size = 16
src = scrolledtext.ScrolledText(mainWindow,font=(font_text,font_size),bg="#0B3B39",fg="white")
src.place(x=0,y=0,width=400,height=500)
translation = tk.Button(mainWindow,font=(font_text,font_size),text="翻译",
                        bg="orange",fg="white",command=lambda:trs())
translation.place(x=0,y=500,width=800,height=40)
tgt = scrolledtext.ScrolledText(mainWindow,font=(font_text,font_size),bg="#292A0A",fg="white")
tgt.place(x=400,y=0,width=400,height=500)
mainWindow.mainloop()

 

Scrapy是一个强大的Python开源网络爬虫框架,可以用来快速、高效地爬取网页信息。下面我将以使用Scrapy框架爬取有道翻译为例,简要介绍如何进行爬取。 首先,我们需要创建一个Scrapy项目。打开命令行工具,输入以下命令: scrapy startproject youdao_translate 这将在当前目录下创建一个名为"youdao_translate"的Scrapy项目。接下来,进入项目目录并创建一个名为"translator"的爬虫,命令如下: cd youdao_translate scrapy genspider translator www.youdao.com 这将在项目目录下的spiders文件夹中生成一个名为"translator.py"的文件,我们可以在文件中编写爬虫代码。 打开"translator.py"文件,我们需要设置爬虫的起始URL和解析方法。首先,在文件的开头添加以下代码: start_urls = ['http://www.youdao.com/'] 然后,找到"def parse(self, response):"这一行,在该方法中编写解析页面的代码,如下所示: def parse(self, response): result = response.xpath('//div[@id="inputTranslation"]/ul/li/text()').extract_first() yield { 'translation': result, } 在这个示例中,我们使用XPath语法来提取翻译结果所在的标签,并将结果存储在一个字典中。通过使用yield关键字,我们将字典作为爬取结果返回。 接下来,保存文件并返回命令行工具。在命令行中输入以下命令即可启动爬虫: scrapy crawl translator Scrapy将会开始爬取并显示爬取过程的日志信息。当爬取完成后,结果将保存在默认的JSON文件中,您可以在项目目录下找到该文件。 以上就是使用Scrapy框架爬取有道翻译的简要流程。当然,具体的爬取过程可能因网站的结构和数据布局而有所不同,您可以根据实际情况进行调整和改进。希望对您有所帮助!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值