![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
基础知识
米翁方
这个作者很懒,什么都没留下…
展开
-
十大经典排序算法(附程序)
转自https://www.cnblogs.com/onepixel/articles/7674659.html0、算法概述0.1 算法分类十种常见排序算法可以分为两大类:非线性时间比较类排序:通过比较来决定元素间的相对次序,由于其时间复杂度不能突破O(nlogn),因此称为非线性时间比较类排序。线性时间非比较类排序:不通过比较来决定元素间的相对次序,它可以突破基于比较排序的...转载 2018-12-05 11:53:50 · 957 阅读 · 1 评论 -
深度学习(四)cnn反向传播
写在前面:所有关于深度学习的基础知识均为鄙人的笔记分享,很多内容摘自大神们的博客或论文,因时间太长记不清了分别来自哪里。若有侵权,请联系鄙人邮箱min.wenfang@qq.com cnn反向传播 http://www.cnblogs.com/pinard/p/6494810.html1. 回顾DNN的反向传播算法 ...原创 2018-12-06 15:44:45 · 228 阅读 · 0 评论 -
深度学习(四)cnn前向传播
写在前面:所有关于深度学习的基础知识均为鄙人的笔记分享,很多内容摘自大神们的博客或论文,因时间太长记不清了分别来自哪里。若有侵权,请联系鄙人邮箱min.wenfang@qq.com总结:http://www.cnblogs.com/pinard/p/6489633.html 下面详细说明 三个重点:1 输入层的前向传播;2 卷积层的前向传播;3 池化层的前...原创 2018-12-06 15:43:53 · 1168 阅读 · 0 评论 -
深度学习(七)梯度下降法
写在前面:所有关于深度学习的基础知识均为鄙人的笔记分享,很多内容摘自大神们的博客或论文,因时间太长记不清了分别来自哪里。若有侵权,请联系鄙人邮箱min.wenfang@qq.com应用机器学习算法时,我们通常采用梯度下降法来对采用的算法进行训练。其实,常用的梯度下降法还具体包含有三种不同的形式,它们也各自有着不同的优缺点。总结如下下面我们以线性回归算法来对三种梯度下降法进行比较。 ...原创 2018-12-06 15:41:47 · 814 阅读 · 0 评论 -
深度学习(八)正则化Regularization
写在前面:所有关于深度学习的基础知识均为鄙人的笔记分享,很多内容摘自大神们的博客或论文,因时间太长记不清了分别来自哪里。若有侵权,请联系鄙人邮箱min.wenfang@qq.com参考:https://www.cnblogs.com/jianxinzhou/p/4083921.html1. The Problem of Overfitting1还是来看预测房价的这个例子,我们先...原创 2018-12-06 15:39:20 · 495 阅读 · 0 评论 -
深度学习(九)dropout与Batch norm
一、Dropout,大部分实验表明其具有一定的防止过拟合的能力。最早的Dropout可以看Hinton的这篇文章 《Improving neural networks by preventing co-adaptation of feature Detectors》如上图左,为没有Dropout的普通2层全连接结构,记为 r=a(Wv),其中a为激活函数。如上图右,为在第2层全...原创 2018-12-06 15:36:14 · 3644 阅读 · 0 评论 -
深度学习(三)cnn原理与结构
写在前面:所有关于深度学习的基础知识均为鄙人的笔记分享,很多内容摘自大神们的博客或论文,因时间太长记不清了分别来自哪里。若有侵权,请联系鄙人邮箱min.wenfang@qq.com以LeNet-5为例说明:输入:32*32的手写字体图片,这些手写字体包含0~9数字,也就是相当于10个类别的图片输出:分类结果,0~9之间的一个数因此我们可以知道,这是一个多分类问题,总共有十个...原创 2018-12-06 15:34:33 · 474 阅读 · 0 评论 -
深度学习(一)逻辑回归
写在前面:所有关于深度学习的基础知识均为鄙人的笔记分享,很多内容摘自大神们的博客或论文,因时间太长记不清了分别来自哪里。若有侵权,请联系鄙人邮箱min.wenfang@qq.com一、逻辑回归逻辑回归(logistic regress)是一个二分类的问题,其输出y的值为0或1。用于解决监督学习问题的学习算法。logistic regress的目的就是使预测值与真实值之间的误差最小。损失函数...原创 2018-12-06 15:32:44 · 2351 阅读 · 0 评论 -
深度学习(二)卷积计算
写在前面:所有关于深度学习的基础知识均为鄙人的笔记分享,很多内容摘自大神们的博客或论文,因时间太长记不清了分别来自哪里。若有侵权,请联系鄙人邮箱min.wenfang@qq.com目前,卷积的计算大多采用间接计算的方式,主要有以下三种实现方式:im2col + GEMM。 caffe等很多框架中都使用了这种计算方式,原因是将问题转化为矩阵乘法后可以方便的使用很多矩阵运算库(如MKL、ope...原创 2018-12-06 15:30:15 · 2613 阅读 · 0 评论 -
深度学习(六)激活函数
写在前面:所有关于深度学习的基础知识均为鄙人的笔记分享,很多内容摘自大神们的博客或论文,因时间太长记不清了分别来自哪里。若有侵权,请联系鄙人邮箱min.wenfang@qq.com一、sigmoid 把输入的连续实值“压缩”到0和1之间,Sigmoid激活函数给神经网络引进了概率的概念。它的导数是非零的,并且很容易计算(是其初始输出的函数)。然而,在分类任务中,sigmoid 正逐渐被...原创 2018-12-06 15:48:07 · 344 阅读 · 0 评论