自然语言处理(NLP)-3.4 孪生神经网络与单样本学习(Siamese Networks)

1.孪生神经网络(Siamese Networks)

1.1 基本概念

    同义与歧义:

        同义:两个完全不同的句子可能有相同的意思

        歧义:两个基本相同的句子可能有完全不同的意思

        

    定义:由左右两个神经网络构成,两个网络共享权值

       

    功能:用于衡量相似程度;在NLP中常用于衡量两个句子是否同义

       

    应用:

        签名检测、歧义检测、询问...

           

1.2 网络结构与计算流程

    结构:两个网络共用一组参数,因此只需要训练一次

       

    流程:输入->词嵌入层->LSTM->向量结果->余弦相似度

        


2.损失函数

2.1 余弦相似度

    定义:通过计算两向量间夹角,直观衡量两个输入的相似程度

       

    问题:只考虑了角度关系,没考虑距离关系,缺失了一定信息

2.2 triplet loss

2.2.1 基本概念

        定义:一种深度学习损失函数,主要用于比较差异很小的样本

        构成:

            参考点(A,Anchor):比较的基准

            正例(P):与A同一类别的样本;即同义句

            反例(N):与A不同类别的样本;即不同义句

            

        原理:

            正例应与参考点距离更近,负例应与参考点距离更远,因此正例与参考点越近损失越小、负例与参考点越远损失越小

            

2.2.2 计算方法

    (1)Simple loss:

        定义:直接用差作为损失值,实现简单,但会出现损失值为负数的情况

       

    (2)Non linearity:

        定义:修正负值,使损失值不为负数,但使得训练效果变差

       

    (3)Alpha margin:

        定义:引入margin(α),使损失值不为负且保证了训练效果

        问题:

            若α过大,会使损失值很大,导致模型难以收敛

            若α过小,会使损失值容易趋于0,虽然模型能快速收敛但效果不好

           

2.2.3 样本类型

    (1)easy triplets

        无需优化,天然满足A与P的距离近,A与N的距离远

       

    (2)hard triplets:

        A与P远,A与N近,此处损失值最大,需要优化

       

    (3)semi-hard triplets

        虽然A与P较近,但A与N不够远,也需要优化

       

2.2.4 样本选择方法

    (1)随机选择:容易实现,但效果不好

    (2)选择hard triplets:虽然更难训练,但能使模型学到更多,效果更好

        

2.3 计算损失函数

    数据准备:使用hard triplets选择法,将不同含义的句子放到一列,相同含义的句子放到一行

        

    计算向量:通过网络计算分别得到两个向量v_1v_2

        

    计算损失函数:使用Alpha margin法计算损失

        

2.4 改良技巧

    损失函数改良技巧:

        (1)mean negative:

            方法:将一行中的非对角线元素求均值,能减少噪音,加速训练

            例:如第一行中非对角线元素均值为(-0.8 + 0.3 - 0.5)/3;

        (2)closest negative:

            方法:取一行中与对角线元素最接近的值,加速训练

            例:如第一行中与对角线元素0.9最接近的值为0.3

        

    改良后损失函数的计算:

        

            


3.单样本学习(One Shot Learning)

3.1 基本概念

    定义:只针对一类样本进行学习,然后通过比较相似度的方法判断输入样本与训练样本是否属于同一类

        

    优点:因为只需要比较输入样本与原样本是否一致,因此有新数据加入也不需要重新训练

       

3.2 训练

    (1)构建训练数据集:

        

    (2)构建批数据:

        

    (3)使用孪生神经网络训练:

        

3.3 测试

    测试流程:

        (1)将输入句子转化为数字索引

        (2)输入模型中计算,得到两结果向量

        (3)比较两结果向量的余弦相似度

        (4)相似度与阈值\tau比较,大于则认为是同类别

        


项目代码:https://github.com/Ogmx/Natural-Language-Processing-Specialization

可将代码与数据下载至本地,使用jupyter notebook打开

  • 3
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
### 回答1: 自然语言处理(Natural Language Processing,简称NLP)是计算机科学与人工智能领域的一个重要研究方向,目的是让计算机能够理解、处理和生成人类的自然语言。NLP-100例是一份经典的NLP问题集合,包含了各种与自然语言处理相关的问题和挑战。 这份NLP-100例涵盖了从基础的文本处理到更高级的自然语言理解和生成的问题。例如,其中包括了文本预处理、词频统计、语法分析、词性标注、实体识别、情感分析、机器翻译等任务。 NLP-100例的目的是帮助研究者和开发者更好地理解NLP领域的核心问题和技术,同时提供一些典型的案例和数据集供实践和研究使用。通过完成这些例题,可以锻炼自己在NLP领域的能力和技术,提高对自然语言的处理和理解能力。 此外,NLP-100例也为研究者提供了一个可以与其他人交流和探讨的平台。研究者可以使用相同的数据集和问题进行实验和评估,从而更好地了解NLP技术的优劣和进展。 总之,NLP-100例是一个对NLP进行实践和研究的重要资源。通过解决这些例题,可以深入理解自然语言处理的基础和技术,掌握各种NLP任务的方法和技巧。同时,它也是一个促进交流和合作的平台,为NLP研究者提供了一个共同的基础和语言。 ### 回答2: 自然语言处理(Natural Language Processing,简称NLP)是研究计算机与人类自然语言之间的交互的一门学科。NLP-100例指的是日本的一个NLP入门教程,包含了100个常见的NLP问题和对应的解答。 NLP-100例涵盖了从文本处理到语义理解等多个方面的问题。其中,一些例子包括:文本的分词、词性标注、句法分析、语义角色标注和文本分类等。 以分词为例,分词是将一段连续的文本分割成词语的过程。在NLP-100例中,可以通过使用Python中的分词工具NLTK(Natural Language Toolkit)来实现分词功能。 另外,对于文本的词性标注,NLP-100例提供了使用POS(Part-Of-Speech)标记对文本中的每个词进行词性标注的方法。可以使用NLTK提供的POS标注工具来实现。 此外,NLP-100例还包括了语义角色标注的问题,语义角色标注是为了确定句子中的谓语动词所承担的语义角色,如施事者、受事者、时间等。可以使用Stanford CoreNLP工具包来实现语义角色标注。 最后,NLP-100例还介绍了文本分类的问题,文本分类是将文本划分到预定义的类别中。可以使用机器学习算法,如朴素贝叶斯或支持向量机(SVM)等来进行文本分类。 通过学习NLP-100例,我们可以了解到自然语言处理的基本方法和技术,并且可以利用这些技术来解决相关的自然语言处理问题。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

Ogmx

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值