深度学习
文章平均质量分 92
读书人不谈恋爱
酌贪泉而觉爽,处涸辙以犹欢。
展开
-
通过Hadarmard矩阵或采样伯努利分布来生成单标签数据集和多标签数据集的哈希中心
引用于论文:Central Similarity Quantization for Efficient Image and Video Retrieval 【CVPR2020】Hadarmard矩阵可作为哈希目标(哈希中心)使用在本教程中,我们将介绍如何使用Hadamard矩阵为图像和视频数据集生成哈希目标(哈希中心)。from scipy.special import comb, perm #calculate combinationfrom itertools import combina.原创 2022-04-11 15:17:56 · 910 阅读 · 0 评论 -
蒙特卡洛模拟近似拉普拉斯范数的理论推导(蒙特卡洛方法、蒙特卡洛模拟)
蒙特卡洛模拟近似拉普拉斯范数的理论推导蒙特卡洛方法蒙特卡洛模拟利用蒙特卡洛模拟近似求解圆周率布丰投针试验随机数实验拉普拉斯分布雅可比矩阵拉普拉斯范数蒙特卡洛模拟近似拉普拉斯范数代码分析参考文献蒙特卡洛方法蒙特卡洛模拟蒙特卡洛方法,也称统计模拟方法。是冯诺依曼和乌拉姆提出的一种以概率统计理论为指导的数值计算方法。与之相对应的有拉斯维加斯方法(没错,都是赌城的名字)。通常蒙特卡罗方法可以粗略地分成两类:一类是所求解的问题本身具有内在的随机性,借助计算机的运算能力可以直接模拟这种随机的过程。另一原创 2021-04-26 15:32:42 · 1176 阅读 · 0 评论 -
Transformer 详解(下) — 解码器【附pytorch代码实现】
Transformer 详解(下)解码器文本嵌入层位置编码层多头自注意力机制多头注意力机制规范化层前馈全连接层输出层代码实现Transformer论文: Attention is All You Need在上一篇博客,笔者简述了编码器部分的理论并用pytorch实现了编码器部分的代码。此篇博客便是承接上文,继续讲述Transformer模型中解码器的代码实现。其实编码器和解码器模型的部分层都是相同的,例如规范化层,多头注意力机制,前馈全连接层等。只是解码器比编码器子层连接结构中多了一个多头自注意力原创 2021-04-14 13:42:10 · 8356 阅读 · 2 评论 -
Transformer 详解(上) — 编码器【附pytorch代码实现】
Transformer 详解(上)编码器Transformer结构文本嵌入层位置编码注意力机制编码器之多头注意力机制层编码器之前馈全连接层规范化层和残差连接代码实现Transfomer参考文献Transformer结构论文: Attention is All You NeedTransformer模型是2017年Google公司在论文《Attention is All You Need》中提出的。自提出伊始,该模型便在NLP和CV界大杀四方,多次达到SOTA效果。2018年,Google公司再次发布论原创 2021-04-12 22:00:03 · 10962 阅读 · 2 评论 -
基于中心先验的深度贝叶斯哈希算法的多模态神经影像检索(CenterHash)
通过向医生提供以前的病例(视觉上相似的神经影像)和相应的诊断报告,多模态神经影像检索极大地促进了临床实践中决策的效率和准确性。然而,现有的图像检索方法在直接应用于多模态神经影像数据库时往往会失败,因为与自然图像相比,医学影像通常具有较小的类间差异和较大的模态差异。为此,我们提出了一个深度贝叶斯哈希学习框架,称为CenterHash,它可以将多模态数据映射到共享的海明空间,并从不平衡的多模态神经影像中学习判别哈希码。解决小类间差异和大模态差异的关键思想是为来自不同模态的相似的神经影像学习一个共同中心表示,并鼓原创 2021-02-16 15:25:31 · 1829 阅读 · 3 评论 -
一文总结经典卷积神经网络(AlexNet/VGGNet/ResNet/DenseNet 附代码)
随着神经网络变得越来越深,一个新的问题出现了:当输入特征数据或梯度数据通过多个神经层时,它在到达网络结尾(或开始)处就消失了。ResNets通过恒等连接将信号从一层传输到下一层。Stochastic depth通过在训练期间随机丢弃层来缩短ResNets,以得到更好的信息和梯度流。FractalNets重复组合几个并行层序列和不同数量的卷积块,以获得较深的标准深度,同时在网络中保持许多短路径。尽管上述方法的网络结构都有所不同,但它们有一个共同特征:创建从早期层到后期层的短路径。原创 2021-02-11 21:42:13 · 855 阅读 · 0 评论