深度学习
qq_42688502
这个作者很懒,什么都没留下…
展开
-
attention unet理解笔记
原创 2020-11-25 13:55:38 · 1435 阅读 · 10 评论 -
数据增广笔记
深度学习数据增强笔记首先,网络上已经有了各种的常见增广方法,如旋转,平移色彩抖动等,需要的麻烦见下面的博客。https://blog.csdn.net/jizhidexiaoming/article/details/89136823https://blog.csdn.net/lovebyz/article/details/8096611https://zhuanlan.zhihu.com/p/41679153本文的写作目的是为了提醒自己除了上述的常见增广方法外,还有一些高阶的增强方法,如利用神经风原创 2020-11-09 17:53:29 · 191 阅读 · 0 评论 -
Weakly Supervised Semantic Segmentation with Boundary Exploration论文解读
Weakly Supervised Semantic Segmentation with Boundary Exploration论文解读摘要:为了在弱监督下获得语义分割,本文提出了一种简单而有效的方法,该方法基于从训练图像中显式探索对象边界以保持。 具体来说,我们通过利用从分割和边界的一致率。具体来讲,利用CNN分类器获得的粗定位映射来合成边界注释,并使用注释来训练本文提出的称为BENet的网络,BENet可以进一步挖掘更多的对象边界来为语义分割提供约束。 最后,利用生成的训练图像伪注释来监督一个现成的原创 2020-10-22 19:09:33 · 1194 阅读 · 7 评论 -
深度学习入门之numpy PIL笔记等
深度学习入门之numpy笔记(1) np.dot1.如果处理的是一维数组,则得到的是两数组的內积(顺便去补一下数学知识)2.如果是二维数组(矩阵)之间的运算,则得到的是矩阵积(mastrix product)...原创 2019-09-22 15:08:29 · 221 阅读 · 0 评论 -
深度学习入门之反向传播算法理解(吴恩达第一课第二周)
第一、把图片的三个通道矩阵转化为一个特征向量。这个特征向量的长度为长宽3.二、一般X代表的是所有输入的一个矩阵,每一列就是一个特征向量,即一张图片。Y代表的是所有的输出。一个行向量。而W则是一个参数矩阵,W中的每一个元素都和X1 X2 X…中的每一个元素相乘得到一个最终值。x和y的上标代表的是第i个样布的输入和输出损失函数和代价函数用下图所示的公式:如上图所示,我们最终的目的是要找到...原创 2019-07-26 16:04:02 · 224 阅读 · 0 评论 -
吴恩达 序列模型rnn笔记(转载)
该笔记转载自博客https://blog.csdn.net/loovelj/article/details/80196890注,rnn的代价函数就是常用的交叉熵。转载 2019-09-18 15:33:58 · 247 阅读 · 0 评论