![](https://img-blog.csdnimg.cn/20201014180756757.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
NLP
文章平均质量分 78
up up up!
fighting!
展开
-
(2024 MM) MIND:Improving Multimodal Sentiment Analysis Via Multimodal Information Disentanglement
学习有效的联合表征一直是多模态情感分析的核心任务。以前的方法侧重于利用不同模态之间的相关性,并通过复杂的融合技术提高性能。然而,由于不同模态固有的异质性,可能导致分布差距,阻碍了对多模态信息的充分利用,并导致从特征中提取的信息冗余和不纯。为了解决这个问题,我们引入了多模态信息解纠缠(MInD)方法。MInD通过共享编码器和多个私有编码器将多模态输入分解为模态不变分量、模态特定分量和每个模态的残余噪声分量。共享编码器的目的是探索模态之间的共享信息和共性,而私有编码器的目的是捕获独特的信息和特征。原创 2024-05-07 20:48:16 · 1088 阅读 · 0 评论 -
Bert模型输出:last_hidden_state转换为pooler_output
在这个示例中,我们首先从预训练的BERT模型中加载了tokenizer和BERT模型。要使用预训练的BERT模型的权重来初始化线性层 pooler_layer,可以从预训练的BERT模型中加载权重,并将这些权重用作 pooler_layer`的初始权重。在BERT模型中,last_hidden_state是最后一个隐藏层的隐藏状态,而pooler_output是通过应用一个全连接层(通常是一个线性变换加上激活函数)到last_hidden_state中的特殊token([CLS] token)得到的。原创 2024-03-20 21:40:24 · 1545 阅读 · 0 评论 -
SUGRM(2023 ACL fingds)
在过去的几年中,多模态情感分析(MSA)得到了广泛的关注,但大多数研究的重点都局限于构建多模态表示,捕捉单个任务中不同模态之间的交互作用。这在很大程度上是因为。原创 2024-03-18 15:33:02 · 635 阅读 · 0 评论 -
(2021 AAAI) Self_MM
表征学习是多模态学习中一项重要而富有挑战性的任务。有效的模态表示应该包含两部分特征:一致性和差异性。原创 2024-03-12 18:37:43 · 1177 阅读 · 0 评论 -
ubuntu系统中的cuda cudnn cudatookit及pytorch使用
这篇讲的很详细转载 2023-08-01 15:19:55 · 120 阅读 · 0 评论