深度学习
essenge
顺势而为
展开
-
初探YOLOV5
YOLO−V5YOLO -V5YOLO−V5最大的特点是什么? 应用于移动端,模型小,速度快。 参考: https://blog.csdn.net/algorithmPro/article/details/108924399?ops_request_misc=&request_id=&biz_id=102&utm_term=yolov5%E7%AE%97%E6%B3%95%E5%A5%BD%E5%9C%A8%E5%93%AA%E9%87%8C&utm_medium=dis原创 2021-05-07 23:28:18 · 94 阅读 · 0 评论 -
图像退化模型与正则化模型(图像复原中正则化方法的研究及应用)
图像复原就是对图像退化模型进行处理以恢复图像的原始信息.由于引起图像退化的因素和性质各不相同,所以图像复原是一个复杂的数学过程,本质上是求解不适定的反问题. 正则化是反问题中的一个重要课题,恰当地选取正则化项对于反问题的求解至关重要。 图像处理的效果很大程度上取决于所建立的数学模型。即使对同一幅图像,利用不同的数学模型,求出的结果可能会有很大的差别。所以,图像复原的前期,人们必须尽量利用已知的先验信息来建立一个恰当的数学模型。 建立好模型后,图像复原就成了数学上逆问题的求解。 正则化图像复原方法: 1.Ti原创 2021-04-25 23:12:55 · 1036 阅读 · 0 评论 -
【Attention】Non-local Neural Networks
https://arxiv.org/abs/1711.07971 分析文章的意义不仅仅是熟悉文章,而是了解其泛化思想。 首先对输入的 feature map X 进行线性映射(说白了就是 1×1×1 卷积,来压缩通道数),然后得到 θ,φ,g 特征; 通过reshape操作,强行合并上述的三个特征除通道数外的维度,然后对θ和φ进行矩阵点乘操作,得到类似协方差矩阵的东西(这个过程很重要,计算出特征中的自相关性,即得到每帧中每个像素对其他所有帧所有像素的关系); 然后对自相关特征进行 Softma原创 2021-02-04 18:32:32 · 119 阅读 · 0 评论 -
【Attention】SE-Net
参考: https://www.cnblogs.com/bonelee/p/9030092.html原创 2021-01-31 08:24:05 · 170 阅读 · 0 评论 -
RNN,BRNN,LSTM,GRU,DRNN
细想BP算法,CNN 我们会发现, 他们的输出都是只考虑前一个输入的影响而不考虑其它时刻输入的影响, 比如简单的猫,狗,手写数字等单个物体的识别具有较好的效果. 但是, 对于一些与时间先后有关的, 比如视频的下一时刻的预测,文档前后文内容的预测等, 这些算法的表现就不尽如人意了.因此, RNN就应运而生了。 像图中这样,从左到右完成前向传播 def rnn_cell_forward(xt, a_prev, parameters): Wax = parameters["Wax"] Waa原创 2020-11-25 20:20:37 · 485 阅读 · 0 评论 -
YOLOv5制作自己的数据集以及使用公开数据集训练
https://xugaoxiang.com/2020/07/02/yolov5-training/原创 2020-11-22 20:02:58 · 1714 阅读 · 0 评论 -
搭建 YOLO v5 环境
官方指导: https://github.com/ultralytics/yolov5/blob/master/tutorial.ipynb 环境搭建: conda install git conda create -n yolov5 python=3.8 conda activate yolov5 git clone https://github.com/ultralytics/yolov5.git 如果下载比较慢: git clone https://github.com.cnpmjs.org/ul原创 2020-11-21 14:27:27 · 771 阅读 · 1 评论 -
Ubuntu 16.04 Nvidia驱动安装正确姿势
又是感谢学长的一天!!! 1、查看显卡信息: $ lspci | grep VGA 2、下载驱动程序: http://www.nvidia.cn/Download/index.aspx 下载完之后是一个名称为 NVIDIA-Linux-x86_64-xxx.xx.run 的文件 3、删除原有驱动: $ sudo apt-get remove --purge nvidia* 3.临时关闭显示服务 sudo service lightdm stop 4.运行安装程序 sudo chmod +x NVIDIA-L原创 2020-11-04 01:01:34 · 395 阅读 · 4 评论 -
深度学习中的批归一化Batch Normalization
传统的神经网络,只是在将样本x输入层之前对x进行标准化处理(减均值,除标准差),以降低样本间的差异性。BN是在此基础上,不仅仅只对输入层的输入数据x进行标准化,还对每个隐藏层的输入进行标准化。BN由Google于2015年提出,这是一个深度神经网络训练的技巧,它不仅可以加快了模型的收敛速度,而且更重要的是在一定程度缓解了深层网络中梯度弥散(特征分布较散)的问题,从而使得训练深层网络模型更加容易和稳定。所以目前BN已经成为几乎所有卷积神经网络的标配技巧了。 我们可以在网络中任意一层进行归一化处理,因为我们现在原创 2020-11-02 21:02:51 · 238 阅读 · 0 评论 -
深度学习中使用的优化算法(BGD,SGD,MBGD,Momentum,NAG,Adagrad,Adadelta,RMSprop,Adam)
深度学习中的优化问题通常指的是:寻找神经网络上的一组参数θ,它能显著地降低代价函数J(θ)。针对此类问题,研究人员提出了多种优化算法,Sebastian Ruder 在《An overview of gradient descent optimizationalgorithms》(https://arxiv.org/pdf/1609.04747.pdf )这篇论文中列出了常用优化算法的比较。主要优化算法有:GD、SGD、Momentum、Adagrad、Adadelta、RMSProp、Adam。 那么为什原创 2020-11-02 12:44:28 · 348 阅读 · 0 评论 -
深度神经网络中的梯度消失与爆炸
在反向传播过程中需要对激活函数进行求导,如果导数大于1,那么随着网络层数的增加梯度更新将会朝着指数爆炸的方式增加这就是梯度爆炸。同样如果导数小于1,那么随着网络层数的增加梯度更新信息会朝着指数衰减的方式减少这就是梯度消失。因此,梯度消失、爆炸,其根本原因在于反向传播训练法则。计算权值更新信息的时候需要计算前层偏导信息,因此如果激活函数选择不合适,比如使用sigmoid,梯度消失就会很明显了,原因看下图,左图是sigmoid的损失函数图,右边是其导数的图像,如果使用sigmoid作为损失函数,我们知道Sig.原创 2020-11-01 16:28:14 · 396 阅读 · 0 评论 -
神经网络中的正则化问题
参考博客: https://blog.csdn.net/XiaoYi_Eric/article/details/80909492?utm_medium=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLearnPai2-2.pc_relevant_is_cache&depth_1-utm_source=distribute.pc_relevant.none-task-blog-BlogCommendFromMachineLe..原创 2020-11-01 15:03:23 · 98 阅读 · 0 评论