机器学习
文章平均质量分 63
一只正在进阶的小小白
这个作者很懒,什么都没留下…
展开
-
反向传播的四个基本方程
本文中的一些内容来自《神经网络与深度学习》方程一:方程二:方程三:方程四:原创 2018-06-29 16:02:22 · 1328 阅读 · 0 评论 -
神经网络的代价函数与梯度下降算法
代价函数:解释:w是权重;b是偏置;n是训练输入的数据的个数;a表示输入为x时的实际输出,是w和b的函数;y是输入为x时的预计输出;x是输入;||v||是指向量v的模理解:代价函数,可以大致理解为是在计算实际输出与预计输出之间差的和的平均值,是为了衡量实际与预期差距的一个函数所定义的。也就是为了使得实际输出结果靠近预计输出结果,那么,就需要代价函数接近于0(代价函数...原创 2018-12-05 15:46:44 · 1515 阅读 · 0 评论 -
机器学习算法分类
分类方法一:1、有监督学习(已经知道测试样本的分类,预测的应该靠近实际的):分类算法、回归算法2、无监督学习(提前不知道如何分类):聚类算法3、半监督学习(又称强化学习,一开始数据不多,训练情况不好,随着数据的变好,训练情况变好)分类方法二(针对具体的问题):1、分类与回归2、聚类3、标注算法分类三(算法本质):1、生成模型(属于各个类的概率)2、判别模型(...原创 2018-10-09 16:19:09 · 274 阅读 · 0 评论 -
机器学习概述
机器学习的定义:利用计算机从历史数据中找出规律,并把这些规律用到对未来不确定场景的决策。解释:1、机器学习主要用于不确定场景的决策,对于确定性的场景则无需使用机器学习。2、“规律”,规律是靠计算机,从历史数据中挖出来的。3、机器学习的主体是计算机,而不是人。根据寻找数据规律的主体不同,形成了两类岗位:机器作为主体的话,对应的是机器学习;人作为主体的话。就是数据分析(数据分析师)。...原创 2018-10-09 15:17:58 · 330 阅读 · 0 评论 -
神经网络
网络结构:每一个节点所做的工作:1、将输入的值(原始输入或者上一层的输入)进行线性组合2、使用激活函数进行非线性处理逻辑回归(一种最简化的网络结构):中间的节点使用W和b参数对输入的x1、x2、x3进行线性化,然后通过激励函数得到激励后的预测值。激励函数:激励函数的作用是提供规模化的非线性化能力三种基本的激励函数:Sigmoid函数:变化区间为0...原创 2018-10-13 14:15:35 · 204 阅读 · 0 评论 -
S型神经网络的定义
本文的一些内容来自《神经网络与深度学习》一书。对于公式(4)的图形,如下图所示:横坐标为z,即wx+b的和;纵坐标为σ,这便是σ随着z的变化的曲线。S型神经网络的输入可以是0到1中的任意一个数,而输出也可以是0到1中的任何一个数,而感知器的输入和输出只能是0或者1。对于S型的神经网络进行识别,与感知器不一样,S型神经网络可以分为在输出小于0到1中的某个数以及大于某个数两种情况,而感知器则只通过0或...原创 2018-06-28 15:03:00 · 1374 阅读 · 0 评论 -
交叉熵代价函数得到的过程
二次代价函数由于在误差较大的时候,学习缓慢,这与人类的学习过程是不相同的,人们总是在犯错误较明显的时候,学习迅速。所以,根据上面的两个式子可以知道,影响学习速率的是σ′(z),所以想要构造一个与σ′(z)无关的代价函数。使得其对权重以及偏置求导得到的式子为: 由链式法则,有: ...原创 2018-06-06 16:23:42 · 777 阅读 · 0 评论 -
感知器的定义
本文对于感知器的定义来自《神经网络与深度学习》(翻译版本)原创 2018-06-28 14:27:22 · 1070 阅读 · 0 评论 -
反向传播算法
来源于《神经网络与深度学习》对于第三步中求输出层误差:这也是代价函数与反向传播相互联系的地方然后根据误差以及学习速率等调整权值和偏置。...原创 2018-06-30 14:24:28 · 188 阅读 · 0 评论 -
卷积神经网络VGG16详解
1、输入为一个size*size*3的rgb图像2、卷积核设置为3*3*3,通过第一层卷积,变成一个一维数组。3、下一层为64的卷积层,然后进行池化4、然后再根据图上的D神经网络进行操作。5.最后将其转化为4096个神经元的全连接层共有三层,前两层为4096,最后一层为1000,最后再进行softmax成类别的数目...原创 2019-01-06 16:03:30 · 6930 阅读 · 0 评论