机器学习
小滔滔ahh
这个作者很懒,什么都没留下…
展开
-
吴恩达 Coursera 机器学习课程要点整理1:监督学习
线性回归 1.样本不同特征之间的数量级相差太大会导致算法效率低下甚至出现拟合不当的情况,因此对数据有必要进行适当的预处理,这就是所谓的 feature normalization : 减去各自的均值 除以各自的标准偏差(这里存疑,是否就是标准差?) 2.线性回归中可以直接有正则方程求得能使代价函数J取得最小值的参数序列,这里,可以不进行feature normalization,表达式如下: ...原创 2019-09-30 21:40:18 · 305 阅读 · 0 评论 -
吴恩达 Cousera 机器学习课程要点整理2:无监督学习及其他相关问题
无监督学习 对于一类没有标签 y 的机器学习问题称之为无监督学习 1.K-Means聚类算法 1.概述: K-Means聚类算法就是把一系列样本点x(i)按照特征的相似程度(向量距离)聚合为不同的K类,是一个不断迭代的过程,该过程中聚类中心不断变化,所有样本点所属的聚类也不断变化,最终聚合为不同的K类; 2.过程: 初始化聚类中心:可以采用随机的方式从样本点中选取不同的 K 个点作为聚类中心,因...原创 2019-10-05 16:27:36 · 290 阅读 · 0 评论