【Python 48小时速成 13】利用网络接口翻译英文

学习编程其实是有捷径的,并非像网上那样给你一大堆资料,一大堆书籍,一大堆视频,或者给你定个什么学习路线,我们总以为按照别人指定的路线学习就能轻松上岸,可事实并非如此。不是因为内容枯燥早早的放弃,就是毫无兴趣根本就坚持不下去。我们回想下我们是如何学会说话的,基本上父母先教一些最最基本的词汇,然后我们在利用这些最基本的词汇再去学习新的词汇,而不是一口气学完几千个汉字,更不是一口气去学完几万个词语。我们只需要学一下最最简单的编程语言语法,然后找一些非常感兴趣的简短代码,尝试读懂它,在尝试修改它。要知道兴趣的力量是无穷大的,一个人要持续的、长久的做一件事要么靠兴趣,要么靠金钱,别无其他。
下面看一段别人写的Python代码,功能是通过一个翻译接口,翻译词语。

# 引入requess库
import requests
from requests.exceptions import JSONDecodeError

# 定义一个翻译函数,有参数(第二个,第三个参数有默认值),有返回值
def translate_text(text, source_lang='', target_lang=''):
    # 拼接网址 (这里使用了f-string格式化字符串)
    url = f"https://findmyip.net/api/translate.php?text={text}&source_lang={source_lang}&target_lang={target_lang}"
    # Get请求,结果存入response
    response = requests.get(url)
    try:
        # 返回response的 JSON 对象
        data = response.json()
        print(data)
        # 网页正常打开
        if response.status_code == 200:
            if data['code'] == 200:
                # 取data中的translate_result数据
                translation = data['data']['translate_result']
                # 返回数据
                return translation
            elif data['code'] == 400:
                return data['error']
            else:
                return "内部接口错误,请联系开发者"
        else:
            return "内部接口错误,请联系开发者"
    except JSONDecodeError as e:
        return f"JSON decoding error: {e}"
    except requests.RequestException as e:
        return f"Request error: {e}"


text_to_translate = input()
translation_result = translate_text(text_to_translate)
print("翻译结果:", translation_result)

主要的代码都做了注释,我们发现,通过前面的学习再来阅读这段代码已经很容易了,当然也有有新的知识点比如f-string格式化、data[‘data’][‘translate_result’]取数据,这些知识可以遇到的时候在去查资料,查完之后印象就会很深刻,比一开始就把所有语法知识点全部看一遍(没多久就全忘了)强太多了。
最后来个小作业:你会将上面的代码改成可以一直不停的翻译,而不是翻译一次就退出吗?

  • 1
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
数据太大 网盘下载 01 1.01爬虫说明.mp4 02 1.02爬虫技术库及反爬说明.mp4 03 1.03百度搜索及文件下载.mp4 04 1.04百度翻译之urllib的POST请求.mp4 05 1.05复杂的GET请求多页数据.mp4 06 1.06urllib的build_opener及handlers.mp4 07 1.07上下文扩展和Dao设计.mp4 08 2.01回顾知识点.mp4 09 2.02requests各方法及参数讲解.mp4 10 2.03requests的请求实战及Response对象.mp4 11 2.04xpath解析的应用.mp4 12 2.05古诗文网的爬虫.mp4 13 2.06request的session及图片验证码处理.mp4 14 3.01回顾知识点.mp4 15 3.02封装ElasticSearch操作的SDK.mp4 16 3.03re正则解析站长之家数据.mp4 17 3.04设计多任务爬虫框架.mp4 18 3.05进程_线程实现多任务爬虫.mp4 19 3.06bs4爬虫meinv网.mp4 20 4.01回顾知识点.mp4 21 4.02Flask实现文件上传服务.mp4 22 4.03设计协程的爬虫框架.mp4 23 4.04协程实现的美女网爬虫.mp4 24 4.05解析zhaopin网的所有城市和初始使用selenium.mp4 25 4.06Selenium爬取zhaopin.mp4 26 4.07说明window_handlers.mp4 27 4.08Selenium爬取百聘网.mp4 28 5.01回顾知识点.mp4 29 5.02chrome-headleass应用.mp4 30 5.03docker启动splash服务.mp4 31 5.04扩展Docker搭建私有仓库.mp4 32 5.05扩展VM安装ubuntu-server.mp4 33 5.06扩展远程连接server及免密登录.mp4 34 5.07单元测试及测试套件.mp4 35 6.01回顾与总结上周知识点.mp4 36 6.02日志模块的应用.mp4 37 6.03安装scrapy的说明.mp4 38 6.04scrapy架构说明.mp4 39 6.05scrapy指令.mp4 40 6.06scrapy的Response及数据解析.mp4 41 7.01回顾知识点.mp4 42 7.02Item应用.mp4 43 7.03pipeline处理_1.mp4 44 7.04定量爬虫及中间件说明.mp4 45 7.05下载中间件的方法说明.mp4 46 7.06下载中间件的Cookies.mp4 47 7.07crawlspider规则爬虫.mp4 48 8.01回顾知识点.mp4 49 8.02强化规则爬虫.mp4 50 8.03图片管道的应用.mp4 51 8.04说明自定义图片管道.mp4 52 8.05scrapy中日志记录器.mp4 53 8.06扩展解释器的excepthook.mp4 54 8.07自定义Selenium下载中间件.mp4 55 9.01回顾知识点.mp4 56 9.02分布式爬虫.mp4 57 9.03爬虫项目完整调试.mp4 58 9.04Linux云服务器部署爬虫.mp4 59 9.05scrapyd部署爬虫.mp4 60 9.06docker部署爬虫项目.mp4 61 9.07crontab.mp4 62 10.01回顾知识点.mp4 63 10.02MongoDB的基本操作.mp4 64 10.03总结mongodb.mp4 65 10.04Mongo数据存储及Shell自动部署.mp4 课件+代码 .zip

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

南通DXZ

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值