![](https://img-blog.csdnimg.cn/20190927151117521.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
深度学习
文章平均质量分 94
深度学习笔记
荼靡~
我爱学习,学习不爱我,,,
展开
-
反向传播求变量导数
【代码】反向传播求变量导数。原创 2023-08-24 14:11:18 · 174 阅读 · 0 评论 -
python图片统一大小及转换通道
灰度图像:灰度图像只有一个通道。每个像素用一个8位字节表示,其取值范围通常是0-255,表示像素的不同灰度值。值越高,像素越明亮,值越低,像素越暗。RGB图像:RGB图像有三个通道,分别代表红色、绿色和蓝色。对于每个像素,每个通道上的值都是8位,其取值范围通常是0-255。通过组合不同的红色、绿色和蓝色值,可以表示形成不同颜色的像素。RGBA图像:RGBA图像有四个通道,分别代表红色、绿色、蓝色和透明度(alpha)。每个像素上的值仍然是8位,其取值范围为0-255,其中透明度值为0表示完全透明,2原创 2023-06-07 15:33:30 · 2738 阅读 · 0 评论 -
word2vec原理
在自然语言处理中,数据集大多都为字或词,计算机只可识别二进制数值型的数据,如果把字或词给计算机,计算机不能识别【如果不是数值型数据,识别不了】,把他们转化为计算机适合处理的数值类数据非常重要对角线值为1,其他位置全为0的单位矩阵当有n个词的时候,那么会生成n*n大小的矩阵,只有自己对应的位置为1,其他位置为0例如blue的值为100,将这个值作为blue的向量,在空间维度上可以找到这个点skip-gram模型与CBOW模型是相反过程模型输入输出预测方式白话解释CBOWcontexts。原创 2023-05-10 16:08:50 · 703 阅读 · 1 评论 -
神经网络语言模型(NNLM)
Q矩阵相关参数Q矩阵:从one-hot编码生成新的词向量Q矩阵是参数,需要学习训练,刚开始用随机值初始化Q矩阵,当这个网络训练好之后,Q矩阵的内容被正确赋值,每一行代表一个单词对应的值参数含义QQQV∗mV*mV∗m的矩阵,模型参数VVV词典大小,词的个数,有几个词就有几行mmm新词向量的大小神经网络相关参数参数含义WWWword缩写,表示单词ttttarget缩写,表示目标词【标签词】nnn窗口大小,上下文的大小(即周围的单词有多少个)称为窗口大小CCC就是Q 矩阵。原创 2023-05-09 14:59:35 · 3163 阅读 · 6 评论 -
余弦相似度公式推导及代码实现
【代码】余弦相似度公式推导及代码实现。原创 2023-05-05 16:24:37 · 1062 阅读 · 0 评论 -
深度学习之CD数据集创建
将不同的数据集放在不同的文件夹里,不需要。原创 2023-04-10 14:58:14 · 613 阅读 · 2 评论 -
人工智能的发展之深度学习
人工智能(Artificial Intelligence,AI):给计算机以人类的理解能力与逻辑思维。机器学习:让计算机自动地从大量的数据中学习规律,利用该规律对未知的数据做出预测。深度学习:利用深度神经网络的结构完成训练和预测的算法。主要是通过搭建深层的人工神经网络(Artificial Neural Network)来进行知识的学习。输入数据通常较为复杂、规模大、维度高。深度学习是机器学习问世以来最大的突破之一。原创 2023-03-22 11:44:25 · 326 阅读 · 0 评论 -
【论文阅读总结】用于目标检测的特征金字塔网络(FPN)
特征金字塔用于检测不同尺度对象的识别系统的基本组成部分。特征金字塔需要大量计算和内存特征金字塔计算和内存都是密集型的。特征金字塔网络(FPN)的体系结构利用深度卷积网络固有的多尺度金字塔层次来构造具有边际额外成本的特征金字塔。具有横向连接的自顶向下架构,用于在所有尺度上构建高级语义特征图。是一种通用的特征提取器,在一些应用中显示出显著改进。低级特征对于检测小物体很重要,所以不可以舍弃前期特征图特征金字塔每个阶段的最深层都应该具有最强的特征,提出了自下而上路径低级特征对于检测小物体很重要。原创 2023-03-21 11:52:26 · 554 阅读 · 0 评论 -
Mask R-CNN 算法学习总结
横向连接的自顶向下结构用来提取特征和特征融合。原创 2023-03-01 16:20:53 · 463 阅读 · 0 评论 -
【论文阅读总结】Mask R-CNN翻译总结
一个概念上简单、灵活和通用的对象实例分割框架。有效地检测图像中的对象,同时为每个实例生成高质量的分割掩码。通过添加一个用于预测对象掩码的分支,与现有的边界框识别分支并行,扩展了Faster R-CNN。易于实现和训练,这有助于广泛的灵活架构设计。仅为增加了一小部分开销,以每秒5帧的速度运行。很容易推广到其他任务,例如:允许我们在同一框架中估计人体姿势。通过添加一个分支来预测每个感兴趣区域(RoI)上的分割掩码,并与现有的分类和边界框回归分支并行,从而扩展了。掩模分支是应用于每个RoI。原创 2023-02-27 16:47:33 · 1016 阅读 · 1 评论 -
RNN变体之LSTM和GRU原理
由于遗忘门的作用,使得 LSTM 具有了长时记忆的功能,对于给定的任务,遗忘门能够自己学习保留多少以前的记忆。它解决的是短时记忆的问题,只不过这种短时记忆比较长,能在一定程度上解决长时依赖的问题。LSTM( Long Short Term Memory Networks) 称为。是传统RNN的变体,比RNN有效捕捉长序列之间的语义关联,缓解梯度消失或爆炸问题。遗忘门是最重要的,遗忘门的作用是决定之前的哪些记忆将被保留,哪些记忆将被去掉。LSTM由三个门来控制,分别是输入门、遗忘门和输出门。原创 2023-02-07 10:51:12 · 315 阅读 · 0 评论 -
rnn循环神经网络基本原理
的提出是基于记忆模型的想法,期望网络能够记住前面出现的特征,并依据特征推断后面的结果,而且整体的网络结构不断循环,因为得名就在于拥有一个环路(或回路)。,一般以序列数据为输入,通过设计有效捕捉序列之前的关系特征,一般也是以序列形式进行输出的基本结构特别简单,就是将网络的输出保存在一 个中,这个元和下一 次的输入一起进入中 。输入序列的顺序改变,会改变网络的输出结果使模型隐层上一时间步骤产生的结果hth_tht,能够作为下一时间步输入的一部分ht=fW(ht−1,xt)=tanh(Whht−1+Wxxt)y原创 2023-01-17 10:34:53 · 4380 阅读 · 1 评论 -
【论文阅读总结】ResNet残差网络翻译总结
深度对于许多视觉识别任务是至关重要的。残差学习框架:由于更深层次的神经网络更难训练。提出了残差学习框架,以简化比以前网络深度更深的网络训练。将这些层重新定义为学习参考层输入的残差函数,而不是学习未引用的函数表明了’这些残差网络更容易优化,并且可以从显著增加的深度中获得准确性。在ImageNet数据集上,我们评估了深度高达152层的残差网络,比VGG网络深8倍,但仍然具有较低的复杂性。实现思想由于更深层次的神经网络更难训练并且会出现退化问题。提出了残差学习框架。原创 2023-01-03 15:19:52 · 239 阅读 · 0 评论 -
【论文阅读总结】inception v4与Inception-ResNet总结
超深度卷积网络是近年来图像识别性能最大进步的核心。例如:Inception体系结构,它已经被证明以相对较低的计算成本实现了非常好的性能。新问题提出:最近残差连接技术与更传统的结构相结合,取得了最先进的性能,其性能与最新一代的Inception-v3网络相似。这就提出了将Inception体系结构与残差连接结合起来是否有任何好处的问题。结论:我们给出了明确的经验证据,表明使用残差连接的训练显著加速了Inception网络的训练。原创 2022-12-23 17:12:21 · 431 阅读 · 1 评论 -
深度学习介绍
学习抽象说,学习就是认知的过程,从未知到已知的探索和思考。任何从已经有的信息,无论是通过计算,判断,推理而后得到一个认知的过程都可以称为"学习"输入就是已知的信息输出就是最终获得的认知的结果学习策略思考过程,经验不同而导致的差异,可以统一归为"学习策略",好的学习策略会更快更准确的得到认知的结果,而不好的学习策略可能会花费更多的时间或者获得错误的结论神经网络现实世界中很多问题都可以归为分类或者回归问题,研究此类问题,学术界研究出来一种叫做"神经网络"的学习策略。原创 2022-02-08 12:44:17 · 1933 阅读 · 0 评论 -
【论文阅读总结】inception v2_v3总结
卷积网络是最先进的计算机视觉解决方案的核心,适用于各种各样的任务。非常深度的卷积网络开始成为主流,在各种基准测试【图像分类,物体检测等】中产生了巨大收益。增加模型大小和计算成本为大多数任务的质量立即提高(只要为训练提供足够的标记数据),但计算效率和低参数计数仍然是需要优化的因素。在这里,我们正在探索扩大网络的方法,目的是通过适当的卷积分解和积极的正则化尽可能有效地利用增加的计算。深度卷积架构中的架构改进可以用于提高大多数其他计算机视觉任务的性能,这些任务越来越依赖于高质量的学习视觉特征。原创 2022-12-22 17:35:23 · 567 阅读 · 0 评论 -
【论文阅读总结】Batch Normalization总结
内部协变移位现象训练深度神经网络很复杂,训练中随着前一层参数变化,后一层输入分布就会变化。就要求是用较低学习速率和着重仔细的设置参数初始化值,导致训练速度较慢,并且使训练具有饱和非线性的模型变得非常困难。通过规范输入层来解决问题的方法。将批量数据集输入之前进行标准化,进行训练。将 Batch Normalization(标准化)作为模型体系结构的一部分,并为每个训练小批量执行标准化,从而发挥了其优势。允许使用更高的学习率(也不能太高),并且对初始化参数不那么着重仔细。原创 2022-12-20 12:27:37 · 473 阅读 · 1 评论 -
【论文阅读】inception v1学习总结
1. 摘要2. 序言3. 文献综述4.动机和高层考虑4.1提高深度神经网络性能的最直接方法4.1.1 增加模型的大小4.1.2 解决增加模型大小导致的缺点思路5.结构详述5.1 Inception架构的主要思想5.2 原生inception块问题5.3 解决通道数增加问题5.4 `1*1`卷积优点6.1辅助分类器7. 训练方法提出了Inception的深度卷积神经网络架构。该体系结构用于分类和检测。原创 2022-12-15 17:08:20 · 586 阅读 · 2 评论 -
卷积神经网络相关模型
一共21层,【1,2,4,5,7,8,9,11,12,13,15,16,17,19,20,21】层需要计算参数。一共11层,【1,3,5,6,7,9,10,11】层需要计算参数。一共7层,【1,3,5,6,7】层需要计算参数。Alexnet8【8代表有8层需要计算参数】LeNet5【5代表有五层需要计算参数】全连接层使用非线性tanh激活函数。全连接层使用非线性ReLu激活函数。全连接层使用非线性ReLu激活函数。【16代表有16层需要计算参数】卷积时,第二次之后使用了。填充,使特征图大小不变。原创 2022-12-07 16:41:08 · 950 阅读 · 0 评论 -
卷积神经网络基本概念
- `数字1处`:一个圈表示一个神经元- `数字2处`:一个圈表示一个神经元,圈的大小表示感受野的大小,即眼睛看到的范围# 1. 感受野- 感受野:表示扫描图片的范围大小 - 感受野越`大`,图片扫描的范围越`大`,眼睛看到的范围越`大` - 感受野越`小`,图片扫描的范围越`小`,眼睛看到的范围越`小`- `感受野的大小`=`卷积核的大小`# 2. 卷积核- 卷积核又称**过滤器(filter)**- `感受野的大小`=`卷积核的大小`- 卷积核是需要求的参数`w`- `卷积核的大小原创 2022-11-23 15:55:23 · 1532 阅读 · 0 评论