![](https://img-blog.csdnimg.cn/20201014180756923.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习
文章平均质量分 89
willerhe
这个作者很懒,什么都没留下…
展开
-
Machine Learning week 4 总结
Multivariate Linear Regression 问题可以由函数表示 函数,本质上就是两集合的一种映射关系,从输入值,得到输出值。同时函数,也是现实世界的一种抽象表示,就如原因对应结果,事件A对应事件B。通常我们只要给一个问题建立起比较好的数学模型,就能很方便的通过计算机来解决这个问题,比如通过一个某地房屋面积与房价关系的数学模型,计算出该地某一房屋的价格。又或者通过模型,根据某一就诊...原创 2018-11-16 18:15:55 · 174 阅读 · 0 评论 -
Cost Function and BackPropagation (Deep learning week 5)
Cost Function and BackPropagation 基于神经网络的分类,从costFunction代价函数开始,讲解一种为神经网络拟合参数的算法(反向传播算法)。 神经网络处理分类问题 k表示分类的数量两类或者多类,同时也是输出层的单元个数。 代价函数costFunction 上图中方括号写的不是很准确,以下图为准: 神经网络的代价函数,是罗辑回归的代价函数的一般化形式...原创 2018-11-19 16:41:50 · 241 阅读 · 0 评论 -
Backpropagation in Practice (Deep learning week 5)
Unrolling Parameters(矩阵参数转向量) 因为之前的theta作为多项式的参数,都仅仅是向量,而在神经网络中,这些参数变成了矩阵,每层对应一个矩阵,因此要想利用比如之前所用的fminunc最优化函数(一些高级的最优化算法通常需要将矩阵参数转化为向量),需要将矩阵unrolling展开为向量。 thetaVec = [Theta1(:),Theta2(:),Theta3(:)] ...原创 2018-11-19 20:01:21 · 142 阅读 · 0 评论 -
Machine Learning Week 6
Evaluating a learning Algorithm 问题:如果做出的模型去预测新的数据时,误差很大怎么办? 获取更多的训练数据 仔细挑选并减少特征变量,防止过度拟合 增加特征变量 增加多项式特征变量,如x12 ,x22,x1x2等。 增加或减小lambda,调整正则化效果 这些方法本身并无问题,问题在于很多人只是凭借感觉随便挑选方法,比如主观上觉得数据不够,然后花上6个月时间去收集...原创 2018-12-03 14:44:46 · 251 阅读 · 0 评论 -
Week 7
Large Margin Classification 支持向量机,将逻辑回归的sigmoid函数换了 这里如果C=1/λ,则相当于正则化效果不变,相当于等式左右两边同除一个常量,并不该表对θ的最优结果影响。 大间距分类器 假设C设置为非常大的情况下,我们倾向于使得与C相乘的部分趋于0 大间距分类器背后的原理 向量内积的几何意义,相当于一个向量在另一个向量上投影的长度,乘以另一个向量的长度...原创 2018-12-11 14:25:19 · 239 阅读 · 1 评论