android 内存检测开源库 翻译,开源 | 哈佛大学NLP组开源神经机器翻译工具包OpenNMT:已达到生产可用水平...

哈佛大学自然语言处理研究组发布OpenNMT,这是一个基于Torch的神经机器翻译系统,达到生产级别。该系统易于使用,可扩展,并保持高效和高精度翻译。特性包括简单接口、GPU优化、预训练模型和序列生成任务的支持。预训练模型、Docker容器和使用指南可供下载。OpenNMT基于多项翻译研究,并提供了多种模型选项和扩展功能。
摘要由CSDN通过智能技术生成

选自OpenNMT机器之心编译参与:吴攀

神经机器翻译是近段时间以来推动机器翻译发展的主要推动力。今天,哈佛大学自然语言处理研究组(Harvard NLP)宣布开源了其研发的神经机器翻译系统 OpenNMT,该系统使用了 Torch 数学工具包。该研究组在官网上表示该系统已经达到生产可用的水平(industrial-strength)。

官网:http://opennmt.net代码:https://github.com/opennmt/opennmt演示:https://demo-pnmt.systran.netDocker 容器:https://hub.docker.com/r/harvardnlp/opennmt

33afc0feac347c62b88275154bf2028e.png

OpenNMT 可以像主要的翻译服务提供商的已投入生产的系统那样使用。该系统简单易用,易于扩展,同时也能维持效率和当前最佳的翻译准确度。

其特性包括:

简单的通用型接口,仅需要源文件和目标文件;为高性能 GPU 训练进行了速度和内存优化;可以提升翻译性能的最新研究的特性;有多个语言对的预训练好的模型(即将到来);允许其它序列生成任务的扩展,比如归纳总结和图像到文本生成。

安装

OpenNMT 仅需要一次 vanilla torch/cutorch 安装。它要使用 nn、nngraph 和 cunn。有(CUDA)Docker 容器可选。

快速启动

OpenNMT 包含三条指令:

1)预处理数据

th preprocess.lua -train_src data/src-train.txt -train_tgt data/tgt-train.txt -valid_src data/src-val.txt -valid_tgt data/tgt-val.txt -save_data data/demo

2)训练模型

th train.lua -data data/demo-train.t7 -save_model model

3)翻译句子

th translate.lua -model model_final.t7 -src data/src-test.txt -output pred.txt

查看指南了解更多:http://opennmt.github.io/Guide

研究

其中主要的模型基于论文 Neural Machine Translation by Jointly Learning to Align and Translate Bahdanau et al. ICLR 2015 和 Effective Approaches to Attention-based Neural Machine Translation, Luong et al. EMNLP 2015。

在基本模型上,还有大量可选项,这都要感谢 SYSTRAN(http://www.systransoft.com/)的出色工作。特别地,下面是一些实现的功能:

Effective Approaches to Attention-based Neural Machine Translation . Luong et al., EMNLP 2015.Character-based Neural Machine Translation. Costa-Jussa and Fonollosa, ACL 2016.Compression of Neural Machine Translation Models via Pruning . See et al., COLING 2016.Sequence-Level Knowledge Distillation . Kim and Rush., EMNLP 2016.Deep Recurrent Models with Fast Forward Connections for Neural Machine Translation . Zhou et al, TACL 2016.Guided Alignment Training for Topic-Aware Neural Machine Translation . Chen et al., arXiv:1607.01628.Linguistic Input Features Improve Neural Machine Translation . Senrich et al., arXiv:1606.02892

声明

OpenNMT 的实现使用了以下项目的代码:

Andrej Karpathy 的 char-rnn:https://github.com/karpathy/char-rnnWojciech Zaremba 的 LSTM:https://github.com/wojzaremba/lstmElement RNN 库:https://github.com/Element-Research/rnn

证书

MIT

举报/反馈

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值