![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
NotRaining
从入门到放弃
展开
-
CNN模型FLOPs的计算
FLOPs:FLOPS:全大写,是floating point operations per second的缩写,意指每秒浮点运算次数,理解为计算速度。是一个衡量硬件性能的指标。FLOPs:s小写,是floating point operations的缩写(s表复数),意指浮点运算数,理解为计算量。可以用来衡量算法/模型的复杂度。对于分组卷积:...原创 2021-10-10 15:08:30 · 172 阅读 · 0 评论 -
目标检测算法之SSD系列
这里写自定义目录标题欢迎使用Markdown编辑器新的改变功能快捷键合理的创建标题,有助于目录的生成如何改变文本的样式插入链接与图片如何插入一段漂亮的代码片生成一个适合你的列表创建一个表格设定内容居中、居左、居右SmartyPants创建一个自定义列表如何创建一个注脚注释也是必不可少的KaTeX数学公式新的甘特图功能,丰富你的文章UML 图表FLowchart流程图导出与导入导出导入欢迎使用Markdown编辑器你好! 这是你第一次使用 Markdown编辑器 所展示的欢迎页。如果你想学习如何使用Mar原创 2020-06-26 21:28:30 · 210 阅读 · 0 评论 -
目标检测算法之YOLO系列
一、YOLO11.算法解读https://blog.csdn.net/u014380165/article/details/726162382.源码解析https://www.cnblogs.com/zyly/p/9534063.html转载 2020-03-21 09:41:11 · 208 阅读 · 0 评论 -
离线学习(训练)和在线学习(训练)
https://blog.csdn.net/a133521741/article/details/79221015转载 2019-08-26 10:46:43 · 14529 阅读 · 1 评论 -
语义分割、目标分割、实例分割、全景分割
Semantic Segmentation: per-pixel class labelsObject Segmentation: per-object maskInstance Segmentation: per-object mask and class labelsPanoptic Segmentation: combination of Semantic Segmentat...原创 2019-07-31 09:30:46 · 1722 阅读 · 0 评论 -
深度学习中的各种卷积
1.卷积卷积运算可以表示为,为一个稀疏矩阵。神经网络中的正向传播就是转换成了这种矩阵运算。反向传播时,首先我们已经从更深层的网络中得到,2.反卷积(称为转置卷积更为合理)转置卷积(Transposed convolutions)其实就是在正向传播时左乘,反向传播时左乘,即。转置卷积可以理解为中间运算矩阵被转置了的卷积。转置卷积的前向过程和反向过程正好和卷积的相反,...原创 2019-05-25 09:33:49 · 498 阅读 · 0 评论 -
Tensorflow中踩过的坑
1.程序报错:feed的值不能是一个tensor,只能是标量、字符串、列表、数组等,所以不能用tf.reshape, 应该使用np.reshape。 with tf.Session() as sess: tf.global_variables_initializer().run() v_x = tf.reshape(mnist.validation.im...原创 2019-05-25 09:41:14 · 548 阅读 · 0 评论 -
CNN多通道卷积与1*1卷积
多通道卷积:输入图片:卷积核:个输出图片:1*1卷积的特殊情况:输入图片:卷积核:个输出图片:inputpicture:Rlayer,Glayer,Blayerpurplelayer=α1×Rlayer+α2×Glayer+α3×Blayeryellowlayer=β1×Rlayer+β2×Glayer+β3×Blayeroutputpictur...原创 2019-04-24 19:27:01 · 1978 阅读 · 0 评论 -
【论文阅读】Deep Residual Learning
1.研究背景在深度学习中,随着网络层数的增加,模型一般会出现过拟合、梯度消失或爆炸的问题,分别可以通过正则化、Batch Normalization来解决。那么,是否只要不断地增加网络的层数,就能获得更好的结果呢?实验数据表明网络会出现退化(degradation)的现象:随着网络层数的增加,训练集loss逐渐下降并趋于饱和,当网络层数继续增加时,训练集loss反而会增大。这时,浅层网络反...原创 2019-04-24 16:41:10 · 869 阅读 · 0 评论