![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 77
Meyayron
这个作者很懒,什么都没留下…
展开
-
神经网络
神经网络的正向&&反向传播通过正向传播后得到的误差来进行反向传播,反向传播时通过求导的方式更新权值,获得误差更小的权重参数。 具体讲解见: http://www.cnblogs.com/charlotte77/p/5629865.html 神经网络的代价函数 相比逻辑回归的代价函数,这里增加了一个关于K的累加,K代表的是分类的数量。下标K的意思就是计算原创 2018-02-06 10:23:32 · 290 阅读 · 0 评论 -
逻辑回归
参考文献 1 文墨 https://www.cnblogs.com/sparkwen/p/3441197.html 2 Andrew NG. Logistic Regression Classification 逻辑回归(Logistic Regression, LR)模型其实仅在线性回归的基础上,套用了一个逻辑函数,但也就由于这个逻辑函数,使得逻辑回归模原创 2018-02-06 10:23:56 · 226 阅读 · 0 评论 -
特征缩放
参考:http://blog.csdn.net/xlinsist/article/details/51212348引言在运用一些机器学习算法的时候不可避免地要对数据进行特征缩放(feature scaling),比如:在随机梯度下降(stochastic gradient descent)算法中,特征缩放有时能提高算法的收敛速度。下面我会主要介绍一些特征缩放的方法。什么是特征原创 2018-02-06 10:24:07 · 258 阅读 · 0 评论 -
线性回归、预测回归、一般回归
平方误差代价函数 我们的目标就是让J()尽可能的小梯度下降:= 是赋值的意思α" role="presentation" style="position: relative;">αα\alpha 是指learning rate(学习速度) 对theta求导(斜率),theta在左半边的时候,斜率为负,所以theta会向右更新,同理在又边的原创 2018-02-06 10:24:17 · 2753 阅读 · 0 评论 -
AdaBoost算法
参考Blog:adaBoost算法参考书籍:《机器学习实战》 - 参考书籍: Adaboost是一种迭代算法,其核心思想是针对同一个训练集训练不同的分类器(弱分类器),然后把这些弱分类器集合起来,构成一个更强的最终分类器(强分类器)。Adaboost算法本身是通过改变数据分布来实现的,它根据每次训练集之中每个样本的分类是否正确,以及上次的总体分类的准确率,来确定每个样本的原创 2018-02-06 10:24:27 · 268 阅读 · 0 评论 -
k-近邻算法(KNN)算法概述(分类器)
k-近邻算法(KNN)算法概述(分类器)KNN通过测量不同特征值之间的距离进行分类。大致思路:一个样本在k个最相似(即特征空间中最邻近)的样本中的大多数属于某一个类别。那么该样本也属于这个类别。 参考书籍:《python经典学习实例》、《机器学习实战》 源码地址:https://github.com/Metatronxl/MachineLearning/tree/master/k...原创 2018-06-14 14:32:42 · 663 阅读 · 0 评论