![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
Deep Learning学习笔记
文章平均质量分 88
胖虎干嘛了
这个作者很懒,什么都没留下…
展开
-
什么是轴向注意力(Axial Attention)机制
注意力机制之 Axial Attention原创 2023-04-05 22:47:45 · 6351 阅读 · 3 评论 -
论文阅读——Towards Adversarially Robust Object Detection
论文阅读——Towards Adversarially Robust Object Detection原创 2022-09-13 20:06:18 · 1241 阅读 · 0 评论 -
论文学习笔记:Boundary-Aware Cascade Networks for Temporal Action Segmentation
Boundary-Aware Cascade Networks for Temporal Action Segmentation网络简介与训练Boundary-Aware Cascade Networks的细节与公式化描述Stage CascadeLocal Barrier Pooling网络简介与训练本篇论文提出了一个边界感知级联网络(boundary-aware cascade network),这个网络中包含两个新的组件。第一个是stage cascade,阶段级联能够适应性地调整感受野,对较为原创 2021-09-20 10:58:06 · 973 阅读 · 0 评论 -
深度学习论文复现:MTCNN算法分析笔记
MTCNN算法分析笔记1. 项目来源(1)论文题目(2)实现目标(3)相关资源2. 代码运行i)图像标注ii)生成PNet训练数据iii)训练PNetiv)生成RNet训练数据v)训练RNetvi)生成ONet训练数据vii)训练ONet3. 算法与代码分析1. 项目来源(1)论文题目本次复现的论文:Joint Face Detection and Alignment using Multi-task Cascaded Convolutional Networks ,原作者是使用Matlab进行算法实原创 2021-09-02 06:02:18 · 1862 阅读 · 2 评论 -
Deep Learning学习笔记之无监督学习
无监督学习无监督深度学习深度学习的分类无监督学习的分类无监督特征学习聚类问题K-MeansHAC, Hierarchical Agglomerative Clustering数据降维PCANon-Negative Matrix Factorization - NMF - 非负矩阵分解矩阵因子分解 - Matrix FactorizationAuto-encoder - 自编码器无监督深度学习深度学习的分类从数据集是否有标签的角度,我们将深度学习分为两类:监督学习和无监督学习关于监督学习,是试图通过网原创 2021-06-24 01:51:22 · 7145 阅读 · 0 评论 -
Deep Learning学习笔记之循环神经网络实践
循环神经网络实践一级目录一级目录原创 2021-06-23 21:03:46 · 124 阅读 · 2 评论 -
Deep Learning学习笔记之循环神经网络(二)
两种门控循环网络——LSTM、GRULSTM——Long Short-Term MemoryGRU——Gated Recurrent UnitLSTM——Long Short-Term Memory长短时记忆网络,即Long Short-Term Memory,LSTM其整体结构如图所示关于其sigmoid函数,用于三个门控单元部分,σ(x)=11+e−x关于其sigmoid函数,用于三个门控单元部分,\sigma(x)= \frac{1}{1+e^{-x}} 关于其sigmoid函数,用于三个原创 2021-06-22 14:32:12 · 112 阅读 · 0 评论 -
Deep Learning学习笔记之循环神经网络(一)
循环神经网络循环神经网络,RNNBasic RNN(循环神经网络)与DNN(前馈神经网络)的区别关于命名实体识别的问题循环神经网络,RNN循环神经网络,Recurrent Neural Network,RNN循环神经网络,多用于处理序列数据,如语音识别、音乐生成、情感分类、机器翻译等Basic RNN(循环神经网络)与DNN(前馈神经网络)的区别——前馈神经网络不考虑上下文的信息,对于一个特定的输入,会给出固定的输出;前一阶段的输出间并不会对后一阶段产生影响——循环神经网络具有记忆功能,捕获(考原创 2021-06-22 01:53:55 · 157 阅读 · 0 评论 -
Deep Learning之数据预处理、损失函数与模型优化技巧
神经网络训练前的准备工作数据预处理数据增广参数初始化损失函数的选择优化算法数据预处理数据增广通过对图像进行变换、引入噪声等方法来增加数据的多样性针对图像数据,常用的一些数据增广方法:旋转(Rotation):顺时针or逆时针旋转一定角度翻转(Filp):将图像沿水平or垂直随机翻转一定角度缩放(Scale):将图像按一定比例方法or缩小平移(Shift):沿水平or垂直平移一定步长加入噪声(Noise):加入随机的噪声影响聚焦(Zoom In/Out):以目标为中心,将图像内容放大or缩原创 2021-06-17 23:27:36 · 574 阅读 · 1 评论 -
Deep Learning之线性模型
线性模型Linear Regression-线性回归一元线性回归多元线性回归一个拓展——对数线性回归Logisitic Regression-逻辑斯蒂回归正则化类别不平衡问题Linear Regression-线性回归一元线性回归一元线性回归,即一元线性函数f(x)=wx+b的拟合问题。使用的求解方法——最小二乘法,即最小化均方误差。关于均方误差,即残差平方的均值∑n=1Nen2=∑n=1N(yn−wxn−b)2\sum^N_{n=1}{e_n^2} = \sum^N_{n=1}{(y_n-w原创 2021-06-16 15:39:29 · 127 阅读 · 0 评论