自然语言推理入门:ESIM

Enhanced LSTM for Natural Language Inference

ESIM是ACL2017的一篇论文,在当时成为各个NLP比赛的杀器,直到现在仍是入门自然语言推理值得一读的文章。

本文根据ESIM原文以及pytorch代码实现对ESIM模型进行总结,有些地方的叙述保持了与代码一致而和原文不一致,比如在embedding处与原文就不完全一致,原论文只使用了我下面所写的initial embedding,不过在代码性能上应该是不会比原文的更差的,因为代码过长,仅放一些伪代码帮助理解。

介绍 Introduction

自然语言推断 NLI

NLI任务主要是关于给定前提premise和假设hypothesis,要求判断p和h的关系,二者的关系有三种:1.不相干 neural,2.冲突 contradiction,即p和h有矛盾,3.蕴含 entailment,即能从p推断出h或两者表达的是一个意思。

为什么要研究自然语言推理呢?简单来讲,机器学习的整个系统可以分为两块,输入,输出。输入要求我们能够输入一个机器能理解的东西,并且能够很好的表现出数据的特点,输出就是根据需要,生成我们需要的结果。也可以说整个机器学习可以分为Input Representation和Output Generation。因此,如何全面的表示输入就变得非常重要了。而自然语言推理是一个分类任务,使用准确率就可以客观有效的评价模型的好坏;这样我们就可以专注于语义理解和语义表示。并且如果这部分做得好的话,例如可以生成很好的句子表示的向量,那么我们就可以将这部分成果轻易迁移到其他任务中,例如对话,问答等。这一切都说明了研究自然语言推理是一个非常重要而且非常有意义的事情。

下面从Stanford Natural Language Inference (SNLI) corpus数据集里举几个例子:

A woman with a green headscarf , blue shirt and a very big grin(咧嘴笑).

The woman is very happy .

上面两个句子就是entailment(蕴含),因为女人在笑着,所以说她happy是可以推断出来的。

A woman with a green headscarf , blue shirt and a very big grin .

The woman is young .

neutral

冲突矛盾(contradiction)的例子

A woman with a green headscarf , blue shirt and a very big grin.

The woman has been shot .

contradiction

她中枪了怎么可能还咧嘴笑呢?

模型架构 Models

输入编码 Input Encoding

输入两个句子,从one-hot经过embedding层,有两个embedding层,分别是initial embedding(ie) 和 pretrained embedding(pe),都使用预训练好的词向量初始化,词向量维度为 l l l,不同的是 ie 的词表规模是训练集语料的单词个数,pe 的词表规模就是预训练文件所包含的单词数,且 pe 参数被冻结,ie中没被包含在预训练文件的OOV单词使用高斯分布随机生成,且所有embedding的方差都被normalize到1,得到 p r e m i s e = a = ( a 1 , . . . , a l a ) premise = a = (a_{1}, ..., a_{l_{a}}) premise=a=(a1,...,ala) h y p o t h e s i s = b = ( b 1 , . . . , b l b ) hypothesis = b = (b_{1},...,b_{l_{b}}) hypothesis=b=(b1,...,blb),每个单词的表示是一个 R 2 l R^{2l} R2l 的向量,由其在 ie 和 pe 中对应的词向量 concat 得到, l l l 为预训练词向量维度,

src_words, src_extwords_embed, src_lens, src_masks,
tgt_words, tgt_extwords_embed, tgt_lens, tgt_masks = tinputs
src_dyn_embed = self.word_embed(src_words)
tgt_dyn_embed = self.word_embed(tgt_words)
src_embed = torch.cat([src_dyn_embed, src_extwords_embed], dim=-1)
tgt_embed = torch.cat([tgt_dyn_embed, tgt_extwords_embed], dim=-1)

之后使用双向LSTM分别对a和b进行encoding,得到两个句子的隐层状态表示,论文中隐层向量的维度等于预训练词向量的维度,因为是bidirectional = True,所以 a i ‾ , b j ‾ ∈ R 2 l \overline{\mathbf{a}_{i}},\overline{\mathbf{b}_{j}} \in R^{2l} ai,bjR2l
a ‾ i = BiLSTM ⁡ ( a , i ) , ∀ i ∈ [ 1 , … , ℓ a ] b ‾ j = BiLSTM ⁡ ( b , j ) , ∀ j ∈ [ 1 , … , ℓ b ] \begin{array}{l}\overline{\mathbf{a}}_{i}=\operatorname{BiLSTM}(\mathbf{a}, i), \forall i \in\left[1, \ldots, \ell_{a}\right] \\ \overline{\mathbf{b}}_{j}=\operatorname{BiLSTM}(\mathbf{b}, j), \forall j \in\left[1, \ldots, \ell_{b}\right] \end{array} ai=BiLSTM(a,i),i[1,,a]bj=

  • 0
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
好的,这是一个带参数的命令行程序。以下是一个简单的实现: ```c++ #include <iostream> #include <string> #include <vector> #include <algorithm> int main(int argc, char* argv[]) { // 定义参数变量 std::string model_file; std::string input_file; std::string output_file; std::string infer_order; std::string dump_dir; // 解析命令行参数 for (int i = 1; i < argc; i++) { std::string arg = argv[i]; if (arg.substr(0, 8) == "--model=") { model_file = arg.substr(8); } else if (arg.substr(0, 8) == "--input=") { input_file = arg.substr(8); } else if (arg.substr(0, 9) == "--output=") { output_file = arg.substr(9); } else if (arg.substr(0, 14) == "--infer_order=") { infer_order = arg.substr(14); } else if (arg.substr(0, 7) == "--dump=") { dump_dir = arg.substr(7); } } // 检查必要参数是否存在 if (model_file.empty() || input_file.empty() || output_file.empty() || infer_order.empty()) { std::cerr << "Usage: esim_tool --model=<model.bin> --input=<ifmap.bin> --output=<ofmap.bin> --infer_order=<depthfirst|breadthfirst|random|parallel> [--dump=dump_dir]\n"; return 1; } // 执行模型推理 std::cout << "Model file: " << model_file << "\n"; std::cout << "Input file: " << input_file << "\n"; std::cout << "Output file: " << output_file << "\n"; std::cout << "Infer order: " << infer_order << "\n"; if (!dump_dir.empty()) { std::cout << "Dump directory: " << dump_dir << "\n"; } // 检查infer_order是否合法 std::vector<std::string> valid_orders = {"depthfirst", "breadthfirst", "random", "parallel"}; if (std::find(valid_orders.begin(), valid_orders.end(), infer_order) == valid_orders.end()) { std::cerr << "Invalid infer_order: " << infer_order << "\n"; return 1; } // 执行模型推理... return 0; } ``` 该程序使用 `argc` 和 `argv[]` 从命令行获取参数,并检查必要参数是否存在。如果参数不正确,程序将显示用法信息并退出。否则,程序将显示参数信息并执行模型推理(注意:这里只是一个示例,实际上需要编写更多的代码实现模型推理)。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值