![](https://img-blog.csdnimg.cn/20201014180756927.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
深度学习
JockerWong
keep study, you deserve better
展开
-
一、深度学习与神经网络
前言一、神经网络及实现1、什么是神经网络算法2、激活函数及正向、反向传播算法3、基于MNIST的算法实现(浅层)二、深度神经网路1、什么是深度神经网络算法2、基于MNIST的算法实现(深层)三、总结...原创 2019-03-19 18:45:25 · 351 阅读 · 0 评论 -
二、深度学习的参数调优及优化
前言一、正则化1、数据集划分2、什么是正则化及正则化的使用3、正则化的实现二、优化算法1、几种梯度下降法2、Momentum、Rmsprop及Adam优化算法3、批量归一化(Batch norm)4、几种优化算法的比较三、总结...原创 2019-03-26 15:39:21 · 1468 阅读 · 0 评论 -
几种卷积神经网络
前言深度学习在计算机视觉(computer version)领域非常成功,举个简单的例子——让计算机分辨图片的上的动物是猫还是狗是非常难以实现的事情,但是借助于 卷积神经网络(CNN) 这是非常容易实现的事情。卷积神经网络是本章介绍的重点,在这篇博文中我将结合一些简单的例子说明什么是卷积神经网络,以及简单介绍几个框架模型并用已经预训练的模型来解决一个简单分类问题。最后探索一下最新的深度可分离卷积...原创 2019-04-01 17:35:16 · 871 阅读 · 0 评论 -
非极大值抑制的计算方式
前言最近一直在研究目标检测的算法,其中有个很重要的概念叫做非极大值抑制(Non-maximum suppression),其主要目的是为了消除多余的框,找到最佳的物体检测的位置。如定位一个车辆,最后算法就找出了一堆的方框,我们需要判别哪些矩形框是没用的。非极大值抑制:先假设有6个矩形框,根据分类器类别分类概率做排序,从小到大分别属于车辆的概率分别为A、B、C、D、E、F。(1)从最大概率矩形框...原创 2019-04-29 18:55:32 · 667 阅读 · 1 评论 -
关于超参数调优及迁移学习的一些见解
前言最近看了一本书《TensorFlow 实战google深度学习框架》,其中里面的在第6章中的6.5.2这个小结中,里面有这样的一个代码(具体我就不贴了),总之就是先通过图片数据输入成一个.npy文件,然后通过这个npy文件来输入到模型中。其实这种方法可以针对一些特别小型的数据集,比如只有几千张图片或者是一些文本数据,但是中大型的数据集不行了。试想一个场景,假如模型的输入大小是(299,2...原创 2019-04-25 13:44:53 · 2278 阅读 · 0 评论 -
numpy或tensor的一个切片技巧 —— [..., n]
前言之前看一些代码时遇到这样的一段代码(如下所示)使用了一种比较奇怪的切片 […, 1:2],此文介绍了这种方式的意思和使用...box_xy = K.sigmoid(feats[..., :2])box_wh = K.exp(feats[..., 2:4])box_confidence = K.sigmoid(feats[..., 4:5])box_class_probs = K.s...原创 2019-05-13 19:38:51 · 1632 阅读 · 0 评论 -
yolo原理与实现(训练和测试)
前言之前谈的基础深度学习的模型一直都是分类,即给定一张图片分辨出图像是什么东西。而更有趣的是在目标检测领域,给定一张图片,不仅要分辨出图示的物体是什么,还要标注出目标的边框。我之前的博文写过一个手写数字分割的,大概的思想是将纸上的区域转为二值化数据,然后统计二值像素绘制成直方图得出行列的边界或者是利用纯opencv的方法得的边界。但是这种方法不太适合一些复杂图片。如下面所示(图像来源斯坦福cs2...原创 2019-05-09 21:34:37 · 2857 阅读 · 0 评论