coursera机器学习 week1&week2&week3 总结

本文总结了Coursera机器学习课程前三周的内容,涵盖了机器学习的基础概念、监督学习与无监督学习的区别、梯度下降算法、线性回归、特征缩放、正规方程、Logistic回归及正则化等主题。通过对训练数据的处理和模型优化,探讨了如何避免过拟合并提高预测性能。
摘要由CSDN通过智能技术生成

最近两个礼拜看了下2017年7月26日开课的coursera的机器学习课程,学到了第三周,打算大致总结一下前三周的课程,基本不会列公式,白话记叙,个人总结和心得而已。

引言部分先介绍机器学习的定义,旧的定义就不说了,比较新的定义是Tom Mitchell说的:一个程序被认为能从经验E中学习,从而解决任务T,同时利用度量值P衡量其性能;当且仅当有了经验E后,其处理任务T的性能度量值P有所提升。

机器学习主要就是监督学习和无监督学习,还有半监督和强化学习等等,监督学习分为回归问题和分类问题,无监督学习有聚类等算法;回归问题是预测连续数值,分类问题是预测离散数值。

监督学习问题一般都会有输入数据和输出数据,原始的数据会分割为训练数据和测试数据,数据量大也会分割为训练、验证、测试三部分,监督学习就是要再训练数据集上学习一个从输入映射到输出的函数,这个函数被称为假设;可以用一个损失函数度量假设函数的精确度,损失函数有很多种,比如损失函数为均方误差函数,记住前面系数是1/2m,这个MSE经常用作回归问题的损失函数,对于一个机器学习问题的目的而言,当然是让这个假设函数精确度越高越好,那么这时候损失函数的值就会越小,其实当损失函数达到最小值时,损失函数中的参数变量就是假设函数中的参数变量,便可以得出所需的映射;所以接下来就是想个算法求出损失函数的最小值。

承接上面求出了最小值,便可以得到参数变量值,梯度下降算法便可以求出最小损失函数,梯度下降算法原理推导就不讲了,在之前的的博客中有记过,大致形式就是:损失函数中的某个参数值 := 损失函数中的某个参数值 -

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值