NLP自然语言处理
文章平均质量分 81
NLP自然语言处理
MatpyMaster
有问题夹魏,评论及私聊不回!
展开
-
KAN网络最全解析——比肩MLP和Transformer?
如果你想要进一步了解更多的相关知识,原创 2024-05-11 21:28:29 · 1879 阅读 · 0 评论 -
CLIP大模型图文检索——原理解读及代码实现
例如,对于ImageNet的类别,可以将其转化为类似"A photo of a {object}"这样的句子,对于ImageNet的1000个类别,就可以生成1000个这样的句子。推理时,将需要分类的图像送入图像编码器以获取特征,然后计算图像特征与1000个文本特征的余弦相似度,选择最相似的文本特征对应的句子,从而完成分类任务。在推理过程中,给定一张图片,通过图像编码器可得到该图片的特征。CLIP的训练过程是基于图像和文字配对的数据,其中图像输入经过图像编码器得到特征,而文本输入则经过文本编码器得到特征。原创 2024-04-13 08:03:02 · 1127 阅读 · 0 评论 -
BERT中文文本分类项目实战合集(含完整代码)
如果你想要进一步了解更多的相关知识,建议复制关键词回复,不出错哦~~建议复制关键词回复,不出错哦~~建议复制关键词回复,不出错哦~~建议复制关键词回复,不出错哦~~建议复制关键词回复,不出错哦~~建议复制关键词回复,不出错哦~~建议复制关键词回复,不出错哦~~建议复制关键词回复,不出错哦~~建议复制关键词回复,不出错哦~~】即可免费领取安装包。】即可免费领取安装包。】即可免费领取安装包。】即可免费领取安装包。】即可免费领取安装包。】即可免费领取安装包。】即可免费领取安装包。】即可免费领取安装包。原创 2024-02-27 17:15:09 · 723 阅读 · 0 评论 -
多模态情感分析——多模态联邦学习UTMP源码(2023ArXiv)
设计了HA-Fedformer,这是一种基于变压器的新型模型,可以在客户端仅使用单模态数据集进行单模态训练,并通过聚合多个客户端的知识来进行多模态测试,以提高准确性。均方误差(MSE)、平均绝对误差(MAE)、Pearson相关性(Corr)、二元精度(Acc-2)、F-Score(F1)和多级精度(Acc-7)范围从-3到3。第二种,负类和正类的范围分别为[-3,0)和(0,3]。CMU-MOSI数据集和CMU-MOSEI数据集的模态有3种(语言,视觉,声音),数据集使用的是已对齐原始raw数据特征。原创 2024-01-09 09:03:03 · 945 阅读 · 0 评论 -
多模态情感分析早期融合——基于CMU-MOSI和CMU-MOSEI数据集(文末获取源码)
在第一种,负类的标注范围为[-3,0),而非负类的标注范围为[0,3]。情绪标注是包含高兴,悲伤,生气,恐惧,厌恶,惊讶六个方面的情绪标注。在AEFT方法中,同样使用使用三个编码器(encoders),并使用Transformer和MLP模型构建了头部,并使用直接拼接的方法进行融合。在AEF方法中,使用三个编码器(encoders),然后使用GRU和MLP模型构建了头部(head),并使用直接拼接的方法进行融合。模态有3种(语言,视觉,声音),数据集使用的是已对齐原始raw数据特征。原创 2024-01-05 17:59:57 · 1298 阅读 · 0 评论 -
多模态情感分析——基于CMU-MOSI和CMU-MOSEI数据集(文末获取源码)
而且在视频中,由于口语的易变性以及伴随的手势和和声音,容易导致的模态内的动态不稳定。首先,采用早融合策略 将各模态特征进行拼接,然后将拼接的特征输入分类器中,并且每个模态的特征也单独输入 分类器中,最终得到所有组合的分类结果,并将所有分类结果进行晚融合策略。提出了一种新的模型Tensor Fusion Network(张量融合网络,TFN),TFN能够端到端地学习模态内和模态间的动态,采用一种新的多模态融合方法(张量融合)对模态间动态进行建模,模态内动态则通过三个模态嵌入子网络进行建模。原创 2024-01-05 17:51:05 · 4362 阅读 · 7 评论 -
多模态情感分析——自注意力机制进行多模态融合
除了多模态处理外,该模型还支持单一模态的处理,即只有文本输入或只有图像输入。接下来,模型将文本和图像的隐藏状态进行拼接,构成共同的特征表示。通过设置attention_mask,模型实现了对文本中padding部分的处理,并使用self-attention机制进行多模态融合。介绍了一种基于BERT和ResNet的多模态模型,该模型在图像和文本信息上进行联合训练,实现了卓越的性能。最后,模型分别提取多模态融合后的图像和文本特征,并通过线性变换进行分类,得到最终的输出。(1)Twitter-15和17数据集。原创 2024-01-02 21:16:33 · 2595 阅读 · 0 评论 -
文本分类(情感分析)——中文数据集汇总
会不定期发布相关设计内容包括但不限于如下内容:信号处理、通信仿真、算法设计、matlab appdesigner,gui设计、simulink仿真......希望能帮到你!原创 2023-11-13 09:05:26 · 5518 阅读 · 0 评论 -
BERT文本分类——基于simplifyweibo_4_moods微博数据集
当truncation参数设置为True时,如果输入文本长度超过了max_length,将会进行截断操作;如果输入文本的长度超过了max_length,则会进行截断(truncation)以确保序列的长度不超过max_length。如果输入文本的长度不足max_length,将会进行填充(padding)以使序列长度一致。填充后的序列长度将与max_length参数指定的长度一致。对于不足max_length长度的序列,进行填充。t:填充后的序列长度将与最长的序列长度一致。,取得了较好的结果。原创 2023-11-10 16:51:46 · 1260 阅读 · 2 评论 -
BERT文本分类——基于toutiao今日头条新闻数据集
训练曲线和测试结果,并且得到了训练权重,喜欢的小伙伴可关注公众号回复“BERT美团”获取源代码和训练好的权重文件。_分割的个字段,从前往后分别是 新闻ID,分类code(见下文),分类名称(见下文),新闻字符串(仅含标题),新闻关键词。原始数据有382688条,需要训练时间很久,小编只选了1600条,需要的小伙伴自己用服务器去跑吧!经过10轮训练,训练结果如下,可以看到效果已经很不错了。然而当数据量骤增,分类目标较多的时候,上述模型就不再使用,这时就需要将数据放到。”,即可获取源代码和训练好的权重文件。原创 2023-11-09 20:40:02 · 1765 阅读 · 4 评论 -
BERT文本分类——基于美团外卖评论数据集
BERT的全称为Bidirectional Encoder Representation from Transformers,是一个预训练的语言表征模型。它强调了不再像以往一样采用传统的单向语言模型或者把两个单向语言模型进行浅层拼接的方法进行预训练,而是采用新的masked language model(MLM),以能生成深度的双向语言表征。BERT论文发表时提及在11个NLP(Natural Language Processing,自然语言处理)任务中获得了新的state-of-the-art的结果。原创 2023-11-08 19:05:48 · 4705 阅读 · 5 评论 -
多模态情感分析——MVSA数据集
删除 MVSA-Single 数据集中图片和文字标注情感的正负极性不同(存在positive和negative)的图文对,剩余的图文对中,如果图片或者文本的情感有一者为中性(neutral),则选择另一个积极或者消极的标签作为该图文对的情感标签,最终得到4511个图文对。采用投票机制,即统计情感极性标注出现次数最多的作为标签,如果出现两种标签各有三个的情况则进行删除,最终得到16779个图文对。,前者的每条图文对只有一个标注,后者的每条图文对由三个标注者给出。数据集包含 5,129 条图文对(原创 2023-11-06 13:27:36 · 1408 阅读 · 3 评论 -
多模态情感分析——Twitter15和Twitter17数据集
将原始的train、dev、test合并到一起,共计5338条,然后将第一列的index作为图片和文本的名字,标签从数字转换为字符串,最终得到了10676个图文对,以及一个train.txt用来保存文件名和标签。将原始的train、dev、test合并到一起,共计5972条,然后将第一列的index作为图片和文本的名字,标签从数字转换为字符串,最终得到了11944个图文对,以及一个train.txt用来保存文件名和标签。(2)第二列是情感标签(0表示负面,1表示中性,2表示正面);(1)第一列是索引;原创 2023-11-06 13:24:40 · 2879 阅读 · 0 评论 -
多模态特征融合——基于BERT和ResNet152模型
它强调了不再像以往一样采用传统的单向语言模型或者把两个单向语言模型进行浅层拼接的方法进行预训练,而是采用新的masked language model(MLM),以能生成深度的双向语言表征。等四名华人提出,通过使用ResNet Unit成功训练出了152层的神经网络,并在ILSVRC2015比赛中取得冠军,在top5上的错误率为3.57%,同时参数量比VGGNet低,效果非常突出。ResNet的结构可以极快加速神经网络的训练,模型的准确率也有比较大的提升。如果你想要进一步了解更多的相关知识,原创 2023-11-06 13:19:25 · 1556 阅读 · 0 评论 -
NLP笔记(9)——小白实现GPT中文对话系统
基于中文青云数据集的GPT聊天机器人!原创 2023-07-25 18:32:57 · 944 阅读 · 4 评论 -
NLP笔记(8)——轻松构建Seq2Seq模型,保姆级教学!
手把手构建Seq2Seq模型!!!原创 2023-07-25 18:25:48 · 1212 阅读 · 0 评论 -
NLP笔记(7)——循环神经网络实现文本情感分类模型
利用卷积神经网络实现文本情感分类原创 2023-07-25 12:06:18 · 1101 阅读 · 0 评论 -
NLP笔记(6)——文本情感分类模型的初级实现
IMDB数据集进行情感分类原创 2023-07-16 20:10:33 · 1103 阅读 · 5 评论 -
NLP笔记(5)——Pytorch实现手写数字识别
文末附完整代码!!!原创 2023-07-14 18:59:44 · 2026 阅读 · 0 评论 -
NLP笔记(4)——Pytorch基础模块
向前计算和梯度运算、PyTorch常用API、常见优化算法、如何在GPU上运行原创 2023-07-14 18:54:23 · 123 阅读 · 0 评论 -
NLP笔记(3)——PyTorch的基本使用
如果你想要进一步了解更多的相关知识,原创 2023-07-25 18:41:09 · 104 阅读 · 0 评论 -
NLP笔记(2)——PyTorch的详细安装
如果你想要进一步了解更多的相关知识,原创 2023-07-09 17:38:22 · 361 阅读 · 0 评论 -
NLP笔记(1)——深度学习和神经网络
在生物神经网络中,每个神经元与其他神经元相连,当它“兴奋”时,就会向相连的神经元发送化学物质,从而改变这些神经元内的电位;人工神经网络(Artificial Neural Network,ANN),简称神经网络(Neural Network)或类神经网络,是一种模仿生物神经网络(动物的中枢神经系统,特别是大脑)的结构和功能的数学模型,用于对函数进行估计或近似。由于每一个神经元都会产生一个标量结果,所以单层神经元的输出是一个向量,向量的维数等于神经元的数目。深度学习需要大量的训练数据集,会有更高的效果。原创 2023-07-09 17:30:02 · 323 阅读 · 0 评论