自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(27)
  • 收藏
  • 关注

原创 实验-MCAN 复现

优化:源码 optimizer 较差,考虑使用 adam 进行优化实验结果分析:由于使用了 CLEVR 数据集代替 VQA2.0 进行实验,受到数据集较小的影响,可能无法达到原文实验中的准确率。

2023-09-15 11:55:34 220

原创 MMCoQA

领域:对话QA本文解决了现存方法中,只利用单一模态源信息,比如的段落或知识图谱,来回答用户的问题,而忽略了重要视觉信息,更不用说多种形式的不同知识来源的信息。多模态会话问答任务,通过多轮对话,用多模态知识回答用户问题。MMCoQA,问题被充分注解,不仅有自然语言的答案,也有相应的证据和有价值的反文本化自包含的问题 | valuable decontextualized self-contained questions。MMCoQA数据集包含多个监督标签。

2023-09-11 19:30:25 170

原创 Plug-and-Play VQA

VQA 是视觉和语言推理的一个标志,是零样本设置下的一个具有挑战性的任务。我们提出了即插即用的 VQA 模型(PNP-VQA),这是一个零样本VQA 的模块化框架。与大多数现有工作相比,PNP-VQA 不需要对预训练模型(Pretrained Language Model)进行额外的训练。此外,我们建议使用自然语言和网络解释作为中间表示,将预训练模型联系在一起。

2023-09-11 19:26:37 236

原创 A Survey On Deep Learning for Multimodal Fusion

多模态数据融合式多模态数据挖掘的一种基本方法,旨在将不同分布、来源和类型的数据整合到一个能够以统一方式表示多模态和跨模态的全局空间中。可以利用特定的模态信息,提供比单一模态更丰富的信息。多模态数据融合深度学习模型中存在大量的自由权重,特别是冗余参数,这些参数对与感兴趣的任务的影响很有限。为了训练这些参数捕捉数据的特征结构,将大量的数据输入到基于反向传播的多模态数据融合深度学习模型中,计算量大且耗时长。为了提高加权学习的效率,反向传播算法的一些并行体已经在计算密集型架构上执行:CPU 集群、GPU 和云平台。

2023-09-11 19:25:08 153

原创 Scene Text VQA

目前 VQA 数据集没有考虑图像中文本传递的丰富语义信息。

2023-09-11 19:21:12 147

原创 transformers库使用实例

使用 transformers 库实现文本分类任务可以直接使用 transformers 中对应任务的 pipeline ,但是为了理解 transformers 中对应各个环节的细节,还是使用自己封装 pipeline 的方法实现。

2023-08-29 18:57:20 302

原创 论文阅读-GAN

提出了一个通过对抗过程估计生成模型的新框架,在这个框架中,我们同时训练两个模型:生成模型,判别模型而不是G的概率。G的训练过程是限度地提高D出错的概率。这个框架对应于一个极大极小的双人博弈。在任意函数G和D的空间中,存在一个唯一解,G恢复训练数据分布,D处处等于21​。在G和D由多层感知器定义的情况下,整个系统可以用反向传播进行训练。在样本的训练和生成过程中,。通过对生成的样本进行定性和定量评估,实验证明了该框架的潜力。

2023-08-01 22:39:36 83 2

原创 实验-GAN对抗生成图像

D = Discriminator() . to(device) G = Generator(latent_size) . to(device) criterion = nn . BCELoss() # 使用二元交叉熵损失函数 BCELoss d_optimizer = torch . optim . Adam(D . parameters() , lr = 0.0002) g_optimizer = torch . optim . Adam(G . parameters() , lr = 0.0002)

2023-07-29 19:06:02 56

原创 论文阅读-Adversarial Text-to-Image Synthesis: A Review

随着生成式对抗网络的出现,从文本描述中合成图像成为近年来研究的热点。这是一种灵活且直观的条件图像生成方法,在过去几年里,在视觉真实感、多样性和语义对齐方面取得了重大进展。然而该领域仍然面临一些挑战,需要进一步研究努力,比如使多目标生成高分辨率图像,以及开发与人类判断相关的,合适可靠的评估指标。这篇综述中,介绍了文本-图像对抗性合成模型的现状,自五年前开始的发展进行了概述,并提出了基于监督水平的分类方法。(创新点)本文以策略来评估文本-图像合成模型,突出缺点,并针对缺点确定新的研究领域。从。

2023-07-26 17:03:46 146 1

原创 论文阅读-面向深度学习的多模态融合技术研究综述

面向深度学习的多模态融合技术是指机器从文本、图像、语音和视频等领域获取信息实现转换与融合以提升模型性能。多模态融合技术发展前期,以提升深度学习模型分类与回归性能为出发点,阐述多模态融合架构、融合方法和对齐技术。重点分析联合、协同、解编码器三种融合架构在深度学习中的应用情况与优缺点,以及多核学习、图像模型和神经网络等具体融合方法与对齐技术,在此基础上归纳多模态融合研究的常用公开数据集,并对跨模态转移学习、模态语义冲突消解、多模态组合评价等下一步的研究方向进行展望。

2023-07-16 00:24:41 1404 1

原创 论文阅读-基于深度学习的多模态情感分析研究综述

深度学习完成多模态情感分析综述。主要介绍多模态情感分析的概念、背景、意义。总结了多模态融合技术和交互技术,讨论多模态情感分析未来发展。

2023-07-12 13:31:28 2541 1

原创 论文阅读-基于深度学习的图像文本匹配研究综述

仅对全局语义信息进行编码与处理,不涉及细粒度语义信息建模,所以匹配效率通常较高。其不能充分理解各模态内蕴含的丰富语义信息,甚至引入噪声为了有效解决图像-文本匹配的模态内语义理解与建模的挑战,基于局部特征的匹配方法设计不同的注意力机制以及图卷积网络,来挖掘各个模态内有用的细粒度实体信息以及实体间关联关系。为了提升模态间语义的对齐和匹配,许多基于注意力机制的模态间关联性关系建模策略提出。通过对关键性跨模态语义信息对进行对齐和聚集,以得到精准的图像-文本匹配的分数估计。

2023-07-11 23:11:26 1046 2

原创 CNN,Transformer,MLP三分天下

随着Transformer这个外来物种的入侵,CV领域逐渐形成了Transformer和CNN二分天下的情况。在原有机器学习模型多层感知机MLP中也逐渐产生了变革,MLP-Mixer就是其产物。在MLP-Mixer工作中,研究人员表明,尽管Conv和attention都足以获得良好的性能,但它们都不是必须的,纯MLP+非线性激活函数+Layer Normalization也能取得不错的性能,其预训练和推理成本可与最新模型相媲美。在MLP-Mixer为什么要使用全连接层,全连接的优点在哪。

2023-07-05 21:06:26 374 2

原创 Transformer in CV

最后,作者在未来将在以下几个方向完善VAN:继续改进它的结构。在本文中,只展示了一个简单的结构,还存在很多潜在的改进点,例如:应用大核、引入多尺度结构和使用多分支结构。大规模的自监督学习和迁移学习。VAN 自然地结合了CNN和ViT的优点。一方面VAN利用了图像的2D结构。另一方面 VAN可以基于输入图片动态的调整输出,它很适合自监督学习和迁移学习。结合了这两点,作者认为VAN可以在这两个领域有更好的性能。更多的应用场景。由于资源有限,作者只展示了它在视觉任务中的优秀性能。

2023-07-03 15:57:17 77 1

原创 BERT实现文本标签分类任务

(通过在bert模型中配置)导入数据集与分类类别名单。

2023-06-29 22:13:29 262 1

原创 BERT预训练模型

参考资料。

2023-06-26 00:09:26 2522 1

原创 Transformer模型

[seq2seq模型]]由两个主要部分组成:编码器Encoder和解码器DecoderEncoder将输入序列转换为一个固定长度的向量,而Decoder将该向量生成输出序列核心思想:将整个序列(输入)encode为一个向量,然后使用该向量来生成(decode)另一个序列(输出)整体上来说,seq2seq是一种先降维后升维的方法Encoder和Decoder通常使用循环神经网络RNN或变体,例如[[LSTM以及GRU模型]]Encoder的输入是一次性全部输入的,而Decoder的输入是。

2023-06-21 00:19:46 1300

原创 Attention模型

seq2seq在应对长序列下效果不明显,会出现Encoder层输出的语义向量c信号丢失严重。在长序列文本输入/输出场景下,RNN/LSTM模型很显然,在加入了Attention机制之后,记忆力缺陷被很好地弥补了。

2023-06-15 02:46:36 60 1

原创 Seq2Seq模型

end to end:已知input和output,去学习input到output 的映射关系,也就是求对应法则f的过程。Encoder层的输出语义向量c包含了输入序列X全部的语义信息,作为Decoder层的输入。可以作为初始化参数参与运算,也可以作为Decoder层每一个STEP的输入参与计算。neural models,也就是end-to-end的NLP文本任务流程。双向LSTM中,每层的输出经过归一化之后,输出各种可能结果的概率分布。Encoder的隐状态输出作为Decoder隐状态的输入。

2023-06-14 23:22:43 363

原创 Glove模型

基于矩阵分解的词表示方法:首先统计语料库中的“词-文档”或者“词-词”共现矩阵,然后通过矩阵分解的方法来获得一个低维词向量Cons:时间复杂度高、过度重视共现词频高的单词对(没有语义、语法信息)Pros:利用全局统计信息基于神经网络的词表示方法:通过神经网络使上下文窗口内频繁共现的单词对的表示接近Cons:没有充分利用全局统计信息、过度重视共现词频高的单词对,共现词频高的单词对不绝对是语义相关的Pros:效果较好且速度快。

2023-06-14 01:45:20 117

原创 word2vec模型

如果w1和w2两个单词词义相近,那么w1和w2两个单词的向量表达应该是类似或相近的。word2vec尝试去表达单词之间的关系。

2023-06-13 00:25:16 223 1

原创 RNN升级模型

LSTM模型、GRU模型以及简单介绍了Stacked RNN和BiRNN模型

2023-06-06 16:44:48 95 1

原创 循环神经网络RNN模型

rnn模型

2023-06-05 17:27:54 1254 2

原创 深度学习全连接神经网络优化算法

一、前置知识1.1 EMA指数移动平均EMA,是一种给予近期数据更高权重的平均方法。vt=βvt−1+(1−β)θtv_t=\beta v_{t-1}+(1-\beta )\theta_tvt​=βvt−1​+(1−β)θt​一般情况下计算截止时刻t的平均值st=θ1+θ2+⋅⋅⋅+θtts_t=\frac{\theta _1+\theta_2+···+\theta_t}{t}st​=tθ1​+θ2​+⋅⋅⋅+θt​​而这样的方法需要保存前面所有时刻的实际数值,会消耗额外的内存。但是指数平均移动不会,接

2023-05-31 16:46:45 202

原创 概率论与数理统计基础

机器学习,深度学习中的概率论数理统计基础,注意是基础!!!up阶段性学习整理自用,可能不是那么严谨,各位看个乐子。

2023-05-30 22:37:50 187 1

原创 统计学基础

深度学习,机器学习数学基础

2023-05-30 16:32:46 242 3

原创 any环境安装

conda install -c conda-forge xx包。

2023-05-02 00:33:05 41 1

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除