机器学习算法
文章平均质量分 72
Jay_Sherry
这个作者很懒,什么都没留下…
展开
-
梯度下降法
梯度下降法是一种最优化算法,常用来优化参数,通常也称为最速下降法。梯度下降法是一般分为如下两步:1)首先对参数θ赋值,这个值可以是随机的,也可以让θ是一个全零的向量;2)改变θ的值,使得J(θ)按梯度下降的方向进行减少。以一个线性回归问题为例,应用libsvm包里的数据heart_scale.mat数据做测试。假设要学习这么一个函数:那么损失函数可以定义成:其中原创 2015-07-03 10:50:41 · 1427 阅读 · 0 评论 -
BP神经网络及其在教学质量评价中 的应用
本文学习笔记是自己的理解,如有错误的地方,请大家指正批评,共同进步,谢谢!之前的教学质量评价,只是通过对教学指标的简单处理,如求平均值或人为的给出各指标的权值来加权求和,其评价结果带有很大主观性。利用BP神经网络建立教学质量评价系统的模型,通过调查分析得到教学评价指标,将其标量化成确定的数据作为其输入,用BP神经网络训练后作为实际输出,将之前得到的教学效果作为期望输出。比较期望输出与实际输原创 2015-07-13 10:11:51 · 6465 阅读 · 10 评论 -
牛顿迭代法及最小二乘法
1、牛顿迭代法牛顿迭代法法是一种计算近似根算法,对于给定的复杂函数f(x),常用来求该函数在给定初始值x0附近的近似根。该算法很简单,就是一个迭代的过程:迭代终止条件可设为:matlab代码实现:function y=mulNewton(a,n,x0,eps1) x(1)=x0; b=1; i=1; while(norm(b)>e原创 2015-07-13 10:25:17 · 10821 阅读 · 0 评论 -
逻辑回归分类器(Logistic Regression Classifier)
Logistic regression (逻辑回归)是当前业界比较常用的机器学习方法,用于估计某种事物的可能性,也用来进行分类。在分类的情形下,经过学习之后的LR分类器其实就是一组权值w0,w1,...,wm. 当输入测试样本集中的测试数据时,这一组权值按照与测试数据线性加和的方式,求出一个z值:z = w0+w1*x1+w2*x2+...+wm*xm。 ① (其中x1,x2,...,原创 2015-07-14 10:46:30 · 19339 阅读 · 0 评论