深度学习
文章平均质量分 75
乐事layz
这个作者很懒,什么都没留下…
展开
-
多模态大模型中的图片文本对齐
使用不同的编码器分别提取文本和图片的特征。将文本和图片特征投射到共同的语义空间中。通过对比学习损失函数使得相关的文本和图片对在共同空间中距离更近,而不相关的对距离更远。通过大规模数据集进行预训练,模型能够学习如何在不同模态间进行对齐。对齐的实现对于多模态模型的性能至关重要,特别是在视觉-语言任务中的应用,例如图像生成、描述生成、图像搜索等。原创 2024-09-13 15:48:12 · 1096 阅读 · 0 评论 -
模型训练与推理的过程
模型训练和推理之间的联系在于,训练是模型学习的过程,而推理是模型应用的过程。两者在整个机器学习工作流中相辅相成。原创 2024-09-13 14:55:37 · 363 阅读 · 0 评论 -
高光谱图像处理,使其适用于深度学习任务
高光谱图像的处理涉及从降维、归一化等基础步骤,到图像块切割、数据增强等操作,最终通过深度学习模型进行检测。选择适合的模型架构、输入格式和后处理方法可以有效提高高光谱图像在深度学习任务中的表现。原创 2024-09-10 16:41:19 · 1135 阅读 · 0 评论 -
大模型预训练
大模型预训练是深度学习领域的一项关键技术,通过在大规模数据上进行初步训练,让模型学习通用的特征表示,进而在下游任务中实现更高的性能。无论是自然语言处理还是计算机视觉,预训练模型都大大提高了模型的效率和泛化能力,同时减少了对标注数据的依赖。在未来,随着计算资源和数据集的进一步扩大,预训练技术将在更多领域中发挥重要作用。原创 2024-09-10 16:32:52 · 786 阅读 · 0 评论 -
Autoencoder自编码
自编码器是神经网络中的重要工具,能够通过学习数据的有效表示来实现降维、特征提取、去噪和异常检测等任务。它的结构简单,但可以通过不同的变种和扩展,适应各种复杂的应用场景,如变分自编码器(VAE)和去噪自编码器。原创 2024-09-10 15:59:10 · 373 阅读 · 0 评论 -
微调大模型基本方法
微调(fine-tuning)大模型是指在已经训练好的预训练模型上进行针对特定任务的再训练,以便让模型更好地适应该任务的需求。微调通常比从头开始训练模型更有效率,特别是对于需要大量数据和计算资源的大模型。原创 2024-09-09 08:02:55 · 392 阅读 · 0 评论 -
在模型训练过程中,如何保证每次训练完后初始参数是相同的
模型调参数训练中,为了确保每次训练的初始参数相同,我们通常需要设置随机数种子(random seed)。这是因为神经网络的初始权重通常是随机初始化的,这会导致每次训练的初始状态不同,从而影响模型的训练结果。通过设置随机数种子,我们可以使随机数生成器在每次运行时产生相同的随机数序列,从而确保神经网络的初始参数相同。通过设置随机数种子,我们可以确保每次训练的初始参数相同,从而使实验结果具有可重复性。请根据使用的深度学习框架选择合适的随机数种子设置方法。原创 2024-09-03 21:05:04 · 184 阅读 · 0 评论 -
深度学习----模型评估
首先我们需要清楚,如果你想要买一部手机或者买一部电脑,你会怎样挑选?难道只买贵的?当然,理性的消费往往是理性地综合产品各种性能的评估,比如:我们不仅要看手机的处理器性能如何,也要考虑手机的存储空间,手机的前置摄像头,后置摄像头像素如何,手机内部图像处理的功能如何等等。因此。原创 2024-09-02 14:05:39 · 494 阅读 · 0 评论 -
目标检测网络模型种类
目标检测是一种计算机视觉任务,其目标是识别和定位图像或视频中的对象。为了实现目标检测,研究人员开发了多种网络模型,这些模型可以大致分为两类:单阶段(single-stage)模型和两阶段(two-stage)模型。原创 2024-05-20 01:26:42 · 477 阅读 · 0 评论 -
transformer代码实现
对于输入句子,汉字之间需要加空格。原创 2024-05-08 13:11:04 · 1133 阅读 · 0 评论 -
self attention在单头转多头中,如何将q,k,v分裂
在单头转多头中,将Q(查询)、K(键)和V(值)分裂是实现self-attention的关键步骤之一。这个过程可以通过线性变换来完成。原创 2024-04-19 20:25:34 · 556 阅读 · 0 评论 -
信息熵,KL散度,JS散度与Wasserstein距离----GAN到WGAN的进化之路
因为生成器的初始参数是随机初始化的,所以它什么都没有学习到,输入一系列采样得到的向量给它,它的输出都是些随机、混乱的图片,然后我们根据真实的数据送入判别器与生成的数据做对比,我们把真正的图片标 1,生成器产生出来的图片都标 0。网络框架如下图所示。其实到这里我们不难看出,判别器的训练目标是看到真实数据就给它比较高的分数,看到生成的数据就给它比较低的分数,我们可以把它当做是一个优化问题,具体来说,我们要训练一个判别器,其可以最大化一个目标函数,当然如果我们最小化它就可以称它为。生成的事物是真实的还是生成的;原创 2024-07-16 18:24:47 · 1183 阅读 · 6 评论 -
自监督学习
在机器学习范畴中,可以分为有监督学习,无监督学习,有监督学习顾名思义就是有“监督者”–标签来“监督”学习的好坏;无监督学习,顾名思义就是没有“监督者”–标签,来“监督”学习的好坏,所以有监督学习和无监督学习最大的区别就是有无“监督者”–标签。Yann LeCun最初在2019年4月在FaceBook发帖第一次提出了自监督学习这个词,自监督学习无需要标签,主要利用代理任务(pretext)来从大规模的无监督数据中找到自身的监督数据。原创 2024-07-10 11:37:06 · 293 阅读 · 1 评论