自然语言处理
-
是什么:主要研究自然语言的形式,包括语音、语法、语义和语用等方面。
-
认识:对自然语言进行数学建模
-
应用:主要被应用文本和语音方面
在文本方面 用法 好处 语言自动翻译 很好的处理翻译中的多意现象和歧义问题 提升了翻译的效率和准确性 字符识别 对采用词义或语料库等对识别结果进行合理验证 对多个识别结果进行快速、准确的识别 文本检索 快速分析用户输入信息并进行准确理解;对搜索到的信息进行处理 不仅仅局限于文本输入;缩小答案范围 提高准确率 在语音方面 用法 好处 同声传译 对语言翻译的音拟问题进行效验 提高转换效果、质量和准确性 机器人聊天系统 意义理解、逻辑推理和知识应用等方面进行快速回答 提高应答速度和回复准确性,提高聊天系统的应用性 语音挖掘与多媒体挖掘 准确获取语音所包含意义 为搜集信息提供基础;有利于数据挖掘中对相关信息的检索和归纳 特定人群智能辅助系统 自动场景解说系统;帮助盲人识别物体;工厂的智能控制和管理 实现对场景的自动描述;节约成本 4.意义:自然语言处理技术能对文本处理与语音处理在建模、识别、理解方面将产生极大作用,甚至可以预测随着该技术的进一步发展,将多媒体技术及应用起到重大作用。
自然语言是什么
人类用来进行沟通和交流的语言系统。
序列标注
1.是什么:是一种深度学习技术,主要用于处理输入序列并为其每个元素分配一个标签。
2.认识:是给定一个序列(通常是一个句子),对序列中的每个元素(通常是句子中的每个词)做一个标记或标签。这个过程可以看作是序列到序列的过程,其中输入序列通过模型后,输出每个位置上相应的标签。
3.使用方法:BIO标注法和BIOES标注法
3-1:BIO标注法: 是一种用于标注文本中词语在句子中的句法角色的方法,它将词语标注为“B-X”“I-X”或者“O”,其中“B-X”表示词语所在的句子片段属于X类型并且是句子的起始词语,“I-X”表示词语所在的句子片段属于X类型并且是句子的起始词语之后的词语,“O”表示该词语不属于事先定义的任何句子片段类型。
3-2:BIOES标注法:BIOES近似于BIO的改进,主要将多元实体X标注为B-X,I-X,E-X的格式,B-表示实体的起始位置,I-表示实体的中间或结尾;一元实体则标记为S-X,;O-X表示X不属于实体。
简易版:
BIO标注法:
B-begin,代表实体的开头
l-inside,代表实体的中间或结尾
O-outside,代表不属于实体BIOES标注法:
B-begin,代表实体的开头
I-inside,代表实体的中间
O-outside,代表非实体,用于标记无关字符
E-end,代表实体的结尾
S-single,代表单个字符,本身就是一个实体多目标算法
1.是什么:是一种能够同时优化多个目标函数的算法。
2.与单目标对比:单目标优化就是求解某一个目标的最大值或者最小值,多目标优化表示的是要确保多个目标(大于等于2)同时最大或者同时最小。
lstm(长短期记忆网络)
1.是什么:LSTM是一种RNN模型。RNN和CNN可以是DL的两种重要模型。CNN主要处理空间结构数据,RNN主要处理时间序列数据。
2.RNN是什么:RNN(Recurrent neural network,循环神经网络)是一系列能够处理序列数据的神经网络的总称。RNN特性是隐单元间的连接是循环的;如果输入是一个时间序列,可以将其展开。其中的每一个单元,除了处理当前时间点的输入数据外,还要处理前一个单元的输出,最终输出单一的预测。
3.CNN是什么:卷积神经网络(Convolutional Neural Networks, CNN)是深度学习中非常常见的算法(模型),其在图像处理中应用广泛,基于CNN的专利申请近些年也增长迅速。
4.DL是什么:汇编中DL是一种html语言,标签定义了定义列表,用于结合定义列表中的项目和描述列表中的项目,在中断输出到控制台中,通常用于存放待输出的字符。DL的作用是可在计算的仪器,如计算机,或者可用在视觉方式显示信息的装置,如显示器。
5.应用:自然语言处理、语音识别、时间序列预测等领域,能够处理任意长度的输入序列,并且具有高度可扩展性和可解释性。
6.LSTM模型是为了解决RNN神经网络中的梯度爆炸问题。
7.模型思路:
RNNQ是想把所有信息都记住,不管是有用的信息还是没用的信息。LSTM:设计一个记忆细胞(具备选择性记忆的功能),可以选择记忆重要信息,过滤掉噪声信息,减轻记忆负担。transformer模型
1.是什么:是一种基于[自注意力机制的神经网络模型,旨在处理序列数据,特别是在自然语言处理领域得到了广泛应用。
2.核心:是自注意力机制(Self-Attention Mechanism),它允许模型关注序列中每个元素之间的关系。这种机制通过计算注意力权重来为序列中的每个位置分配权重,然后将加权的位置向量作为输出。
3.模型结构:Transformer由一个编码器堆栈和一个解码器堆栈组成,它们都由多个编码器和解码器组成。编码器主要由多头自注意力(Multi-Head Self-Attention)和前馈神经网络组成,而解码器在此基础上加入了编码器-解码器注意力模块。
4.与传统的循环神经网络(RNN)相比:Transformer在处理序列数据时具有更好的并行性能和更短的训练时间,因为它能够并行计算序列中的每个元素,而不是像RNN那样串行计算。此外,Transformer还使用了残差连接和层归一化等技术,以加速模型收敛并提高性能。
5.应用:
-
自然语言处理(NLP)。Transformer模型在NLP领域已经成为一种新范式,广泛应用于文本分类、机器翻译、命名实体识别、情感分析等任务。这些模型通过自注意力机制和位置编码来刻画文本数据中的语义和语法信息,从而提高了预测的准确性。
-
计算机视觉(CV)。Transformer模型在CV领域也显示出强大的能力,可以用于图像分类、目标检测、图像生成等任务。它们能够处理多模态数据,如视频、图像和文本,在视频分类、社交媒体分析、医学图像分析等领域有着广泛的应用。
-
生物医药。在生物医药领域,Transformer模型被用于预测药物和蛋白质分子之间的相互作用,这对于药物研发至关重要。例如,MolTrans模型就是一个利用Transformer进行药物研发的应用例子。
-
语音识别。在语音识别领域,Transformer模型可以用于语音识别、语音合成、说话人识别和声纹识别等任务。
-
强化学习。在强化学习领域,Transformer模型可以用于策略学习和值函数近似。
此外,Transformer模型还被应用于时间序列预测、文本摘要、聊天机器人等多个领域。
-