coursera机器学习笔记
文章平均质量分 87
腾原
一个人的幸福程度,取决于多大程度上可以脱离对外部世界的依赖。
展开
-
first week of machine learning on Coursera
first week of machine learning on Coursera@(Coursera) 惯例是,先在octava上实现算法原型,确定可用再迁移到其他编译环境。因为octava集成了很多机器学习算法和常用的计算,对于算法实现速度很快,而且代码比较简单。平方误差函数是解决回归问题最常用的代价函数(cost function)。 我们的目的是使我们作出的假设函数hypothesi原创 2017-09-24 10:06:57 · 263 阅读 · 0 评论 -
Second week of machine learning on Coursera
Second week of machine learning on Coursera@(Coursera)Multivariate Linear Regression当线性模型的特征从一个变量到多个变量时,引出了本节的多元线性回归。 Size number of bedrooms number of floors age of home price 2104 5 1原创 2017-09-25 10:15:26 · 259 阅读 · 0 评论 -
Third week of machine learning on Coursera
Third week of machine learning on Coursera@(Coursera)ClassificationLogistic Regression Model其实是个分类算法,逻辑回归的假设函数其实是线性模型的基础上加上了个sigmod()函数:hθ(x)=g(θTx)h_\theta(x)=g(\theta^Tx) g(z)=11+e−z,表示sigmoid函数.g(原创 2017-09-25 21:04:50 · 228 阅读 · 0 评论 -
Fourth and fifth week of machine learning on Coursera
Fourth and fifth week of machine learning on Coursera@(Coursera)第四周和第五周主要都是在讲解神经网络的知识点,理解有限,自己的内容主要是些零碎的知识点,系统性的讲解可参考我贴出的博客。 神经网络(Representation) 神经网络(learning) 反向传播算法解析知识点:α(j)i\alpha_i^{(j)}表示第jj原创 2017-09-28 10:42:04 · 195 阅读 · 0 评论 -
机器学习中的正则化
机器学习中的正则化@(《机器学习》西瓜书)在看周志华老师的《机器学习》——神经网络这节时,读到一段话: BP神经网络由于其强大的表示能力,经常遭遇过拟合情况,而防止过拟合情况最有效的策略就是“正则化”,其基本思想就是在损失函数中增加一个能描述其网络复杂度的部分,书中选择的是连接权和阈值的平方和。增加连接权和阈值平方和这一项后,训练过程将会偏好比较小的连接权和阈值,使得网络输出更加光滑,从而对过拟原创 2017-09-28 15:34:12 · 599 阅读 · 0 评论 -
Sixth week of machine learning on Coursera
Sixth week of machine learning on Coursera@(Coursera)模型选择最佳方法是将数据集分为训练集、交叉验证集和测试集,比例为6:2:26:2:2。 模型选择问题如下图: 举线性模型例子来说,提供了10个线性模型,最高项从x1,...,x10x^1,...,x^{10},那么该如何选择误差最小的模型呢? 我们使用交叉验证集来验证各个模型的误差,原创 2017-10-01 22:17:58 · 272 阅读 · 0 评论 -
Seventh week of machine learning on Coursera
如果训练集样本线性可分,那么在样本空间肯定能找到一个划分超平面将正负样本分隔开。 在之前学习的逻辑斯蒂回归(感知机)基于梯度下降的方法来求得这个超平面。但是这种方法求得的超平面是无穷个的(指的是感知机使用梯度下降迭代更新ω和b\omega和b的过程中,会产生很多超平面方程,具体可参考《统计学习方法》例2.1),那么如何才能找到最优的超平面呢? 由此就引出了我们这节的主题—Support Vect原创 2017-10-03 22:29:40 · 263 阅读 · 0 评论