英文阅读必备——说说那些翻译软件

 

 


背景

本人全日制工科专业研二在读,日常需要看各种论文,奈何英文不够强悍,每次阅读都需要依赖翻译软件。

个人认为阅读论文不能完全依赖整篇翻译,毕竟很多专有名词在不同领域有特殊含义,这点翻译软件是很难识别的。所以建议能直接读懂的就直接读,觉得不是很重要的段落或者一时半会儿读不懂的,尝试各个软件的翻译。

百度翻译

百度翻译没有桌面版,我更推荐它作为你写英文论文时候,一些表达方法和单词使用的查询词典。

对于英文单词的理解,看他的例句和英文解释是最合理的。英文能更好地解释单词,牛津词典上的英文解释用的都是很简单的词汇,高中英语水平便可看懂(更何况我们这些研究生呢)。查阅牛津词典较为繁琐,百度翻译可以直接展示各类优秀词典的翻译:免费且全,非常适合

欧路词典&有道翻译

翻译讲究“信达雅”,有道翻译在翻译时的润色程度(“雅”)要好于欧路词典,读起来更符合中文阅读习惯。但是对于英文论文的阅读,翻译意思的明确更显重要,所以我个人会更加偏好直译而表述清晰的欧路词典,直译往往更能让我明确一些词的含义。

翻译对比

为了让大家可以更清晰地了解,我截取了自己正在阅读的一篇论文(计算机方面)的摘要部分,进行了逐句翻译对比。希望可以帮助大家更好地进行工具的选择。【防止先入为主的思想,我在最后才给出了每个翻译对应的翻译软件

原文——翻译1——翻译二:

We address the challenging problem of efficient inference across many devices and resource constraints, especially on edge devices.

(1)我们解决了在许多设备和资源限制(尤其是在边缘设备)上进行有效推理的难题。

(2)我们解决了跨许多设备和资源约束进行有效推理的难题,尤其是在边缘设备上。

Conventional approaches either manually design or use neural architecture search (NAS) to find a specialized neural network and train it from scratch for each case, which is computationally prohibitive (causing CO 2 emission as much as 5 cars’ lifetime Strubell et al. (2019)) thus unscalable.

(1)常规方法是手动设计或使用神经体系结构搜索(NAS)来找到专门的神经网络并针对每种情况从头开始对其进行训练,这在计算上是禁止的(导致CO 2排放量多达5辆汽车的使用寿命Strubell等人。(2019))无法缩放。

(2)传统的方法要么手工设计,要么使用神经结构搜索(NAS)来找到一个专门的神经网络,然后针对每种情况从头开始训练它,这在计算上是禁止的(导致多达5辆车的co2排放史特贝尔等人(2019)),因此不可伸缩。

In this work, we propose to train a once-for-all (OFA) network that supports diverse architectural settings by decoupling training and search, to reduce the cost.We can quickly get a specialized sub-network by selecting from the OFA network without additional training.

(1)在这项工作中,我们建议通过分离训练和搜索来训练一个支持所有人的(OFA)网络,以支持多种架构设置,以降低成本。通过从OFA网络中进行选择,我们可以快速获得专门的子网,而无需额外的培训。

(2)在这项工作中,我们建议通过解耦培训和搜索来培训一个一次性的(OFA)网络来支持不同的架构设置,以降低成本。通过从OFA网络中进行选择,不需要进行额外的训练,就可以快速地得到一个专门的子网络。

To efficiently train OFA networks, we also propose a novel progressive shrinking algorithm, a generalized pruning method that reduces the model size across many more dimensions than pruning (depth, width, kernel size, and resolution).

(1)为了有效地训练OFA网络,我们还提出了一种新颖的渐进式收缩算法,这是一种通用的修剪方法,与修剪(深度,宽度,内核大小和分辨率)相比,该方法可以在更多维度上减小模型大小。

(2)为了有效地训练OFA网络,我们还提出了一种新的渐进缩减算法,这是一种广义剪枝方法,它在比剪枝(深度、宽度、核大小和分辨率)更大的维度上减少了模型的大小。

 

It can obtain a surprisingly large number of sub-networks ( > 10 19 ) that can fit different hardware platforms and latency constraints while maintaining the same level of accuracy as training independently.

(1)它可以获得数量惊人的子网(> 10 19),可以适应不同的硬件平台和延迟约束,同时保持与独立训练相同的准确性。

(2)它可以获得数量惊人的子网络(>10 19)可以适应不同的硬件平台和延迟约束,同时保持与独立训练相同的精度水平。

On diverse edge devices, OFA consistently outperforms state-of-the-art (SOTA) NAS methods (up to 4.0% ImageNet top1 accuracy improvement over MobileNetV3, or same accuracy but 1.5 × faster than MobileNetV3, 2.6 × faster than EfficientNet w.r.t measured latency) while reducing many orders of magnitude GPU hours and CO 2 emission.

(1)在各种边缘设备上,OFA始终优于最先进的(SOTA)NAS方法(与MobileNetV3相比,ImageNet top1精度提高了4.0%,或相同的精度,但比MobileNetV3快1.5倍,比EfficientNet快2.6倍,测量的延迟时间) ),同时减少了多个数量级的GPU小时和CO 2排放。

(2)在不同的边缘设备上,OFA始终优于最先进的(SOTA) NAS方法(与MobileNetV3相比,ImageNet top1精度提高了4.0%,或精度相同,但比MobileNetV3快1.5,比有效网w.r快2.6。t测量延迟),同时减少许多数量级GPU小时和二氧化碳排放。

对应软件

(1)——欧路词典——

(2)——有道词典——

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值