一.监督学习(supervised learning)
是一种回归问题,可以用函数进行拟合。
eg:根据房子大小预测房价
是一种分类问题,预测离散值的输出。
eg:用肿瘤大小来预测良性肿瘤或者恶性肿瘤的概率
二.代价函数模型
有一个数据集(训练集)
m 样本数量;x:输入;y:输出;上标表示索引
单变量线性回归模型(称呼单一变量的高大上方式)
代价函数也被称为平方误差函数——>均方差
MSE(均方差)
三.假设函数h(x)与代价函数J(x)之间的关系:θ1为桥梁
在化简版(Simplified)中,我们需要根据θ1来绘制h(x)和J(x)两个函数的曲线,θ1——>J(x)——>h(x),而我们优化回归算法的终极目标是通过θ1来找到最小的J(x)
最好的拟合效果是当θ1=1时取到的。
三.无监督学习(Unsupervised learning)[简单介绍]
在一堆数据中找到某种数据结构,即聚类算法,eg:谷歌新闻,检测基因的表达程度
四.梯度下降算法:最小化线性回归的代价函数J(x)
我觉得这个梯度下降模型有点像离散里面的非降路径,在算法公式中,需要注意同步更新θ1和θ0,α被称为学习率,来控制以多大的幅度来更新这个参数θJ
如果θ1已经在最低点了,同样可以得到局部最优解;当我们接近局部最优解时,导数值会自动变小,因此不必减小α的值。
五.第一个机器学习算法——>线性回归算法
算法名称:(将代价模型应用于梯度下降算法)Batch梯度下降法
运算过程:
线性回归的梯度算法(改变了导数项)
另外,在凹函数中,没有局部最优解,只有全局最优解。
总结:第一回的学习内容结束了,感觉听懂了,有点入门了,还要再去看一下书来完善一下知识点٩(๑òωó๑)۶