AI-深度学习算法
基于深度学习的算法,包括但不限于backbone、去噪、分类、分割
AIBAIKE
好记性不如乱笔头
展开
-
深度学习:resnet网络
从一个初学者,我换一个角度说说我的理解, 我认为resnet能有好的表现主要还是因为事物本身的特征就是不同层次的.比如, 区分男女相对比较容易,不需要复杂的计算或者模型(在深度网络中就是网络不需要那么深),但是要区分出范冰冰和张馨予就需要更多的计算了(模型更复杂,网络更深). 我们把网络看成一个映射或者函数,在没有'捷径'(shortcut)的网络里,无论简单还是复杂的特征都得用一个很复杂很深的网...原创 2018-02-11 09:14:57 · 584 阅读 · 0 评论 -
深度学习:CNN中RGB图像的卷积
参考:http://blog.csdn.net/u014381600/article/details/60883856 http://blog.csdn.net/u014114990/article/details/51125776 https://www.leiphone.com/news/201709/AzBc9Sg44fs57hyY.htm...原创 2017-11-30 10:32:17 · 3185 阅读 · 1 评论 -
深度学习:移动端图像分类模型
移动端精简模型主要有:mobilenet-v1/v2,nasnet,mnasnet,shufflenet,squeezenet参考:https://blog.csdn.net/PeaceInMind/article/details/78079263https://blog.csdn.net/qq_14845119/article/details/73648100...原创 2018-08-14 14:19:47 · 1343 阅读 · 0 评论 -
深度学习:mobilenet
mobilenet的实现参考:github的tensorflow官网slim/nets中的具体模型实现,同时还可以使用keras架构实现的版本mobilenet介绍参考:https://blog.csdn.net/chenyuping333/article/details/81363125Bottleneck Layer:https://blog.csdn.net/u011501388/a...原创 2018-08-14 14:44:22 · 534 阅读 · 0 评论 -
深度学习:梯度下降方法比较
参考:https://blog.csdn.net/u010099080/article/details/78177781http://www.360doc.com/content/18/0114/11/18144428_721801669.shtml原创 2018-08-28 14:56:20 · 347 阅读 · 0 评论 -
深度学习:卷积和反卷积
im2col:https://blog.csdn.net/dwyane12138/article/details/784498981.反卷积就是卷积,只是中间padding了下,然后再做卷积。 这里有个动态图,transposed就是代表反卷积(转置卷积) https://github.com/vdumoulin/conv_arithmetic 算法实现上也是先padding然后卷积 2...原创 2018-08-20 17:47:30 · 746 阅读 · 0 评论 -
深度学习:图像增强
https://blog.csdn.net/zhangjunhit/article/details/79554140原创 2018-08-17 15:16:15 · 8185 阅读 · 0 评论 -
深度学习:图像分类网络简介
参考:https://blog.csdn.net/PeaceInMind/article/details/78079263https://blog.csdn.net/qq_14845119/article/details/73648100原创 2018-08-17 14:52:29 · 1794 阅读 · 1 评论 -
深度学习:Xception
参考:https://blog.csdn.net/u014380165/article/details/75142710https://blog.csdn.net/qq_14845119/article/details/73648100 Xception与inception-v3的参数两差不多,准确率略有提升,所以Xception并没有起到压缩网络的作用...原创 2018-08-17 14:48:15 · 806 阅读 · 0 评论 -
深度学习:L1和L2正则化
L1和L2正则化,也有很多称为L1和L2范数,其实本质就是范数,主要作用是降低机器学习的过拟合,具体为在原有的损失函数J0的基础上加上一个正则项L,即J=J0+L带有L1范数的损失函数如下:带有L2范数的损失函数如下:为什么正则化可以降低过拟合?一种解释是之所有过拟合是因为权重参数过大或者过小,如果权重参数中大部分数值很小,近乎为0,则意味着数据很稀疏,实际中也就只有部分参...原创 2018-08-17 09:37:11 · 633 阅读 · 0 评论 -
深度学习:图像去燥
DnCNN:参考https://blog.csdn.net/npu15222808378/article/details/80376929,损失函数为均方误差原创 2018-08-22 20:17:44 · 1118 阅读 · 0 评论 -
深度学习:shufflenet
算法核心为:分组卷积和通道混合,另外该算法也使用了bottleneck unit结构分组卷积的意思是:比如输入通道为4,输出为4,正常卷积情况下输出的每一个通道为输入的所有通道进行卷积的结果,那现在我可以直选择一部分输入通道进行卷积得到输出结果,计算量肯定是降低了,但是必然会损失一部分通道信息,所以就有了通道混合,将不同通道的特征图像重新组合再分组卷积得到下一个通道的结果参考:https:...原创 2018-08-16 20:14:40 · 1235 阅读 · 0 评论 -
深度学习:GooleNet,Inception-v1-v4
参考:https://blog.csdn.net/u014114990/article/details/52583912inception-v1:(1)将之前的某层单一卷积核替换为inception module结构,比如n*n替换为1*1,3*3,5*5,pool,可以丰富不同特征(2)为提高效率,在inception module模块中3*3,5*5等之后加上1*1卷积 ...原创 2018-08-16 20:08:39 · 275 阅读 · 0 评论 -
深度学习:CNN中RGB图像的卷积
参考:http://blog.csdn.net/u014381600/article/details/60883856 http://blog.csdn.net/u014114990/article/details/51125776 https://www.leiphone.com/news/201709/AzBc9Sg44fs57hyY.html...原创 2018-02-11 09:19:21 · 1428 阅读 · 0 评论 -
深度学习:吴恩达深度学习课程笔记之CNN
1. 每一个滤波器的维度与该层的特征图个数一致,而不简单是一个二维矩阵,比如神经网络的输入为RGB图像(大小为11*11),则第一层使用两个3*3滤波器进行卷积,实际的滤波器应该为3*3*3,输出为9*9*2,即RGB图像经过3*3*3卷积后为二维图像9*9,而两个滤波器会生成两个9*9图像,即9*9*22.图像处理中的卷积操作实际上并不是信号处理中的真正意义上的卷积,而是相关操作,因为实际计算时...原创 2018-02-11 09:18:12 · 739 阅读 · 0 评论 -
深度学习:蒸馏和剪枝
蒸馏法:https://baijiahao.baidu.com/s?id=1598625949059208402&wfr=spider&for=pc剪枝法:https://blog.csdn.net/sigai_csdn/article/details/80803956模型压缩:https://blog.csdn.net/sigai_csdn/article/details...原创 2018-09-17 16:38:16 · 4928 阅读 · 0 评论