吴恩达第一周

  • 监督学习:训练数据集有标注。在监督学习中我们有一个数据集,这个数据集被称训练集。
  • 非监督学习:无监督学习中没有任何的标签或者是有相同的标签或者就是没标签。

针对数据集,无监督学习就能判断出数据有两个不同的聚集簇。这是一个,那是另一个,二者不同。是的,无监督学习算法可能会把这些数据分成两个不同的簇。所以叫做聚类算法。事实证明,它能被用在很多地方。 大型计算机集群、社交网络的分析、市场分割、聚类只是无监督学习中的一种。

另外一种,鸡尾酒算法,鸡尾酒会上声音嘈杂,机器学习算法可以做到去噪,只留下你要听的人声。

Octave

如果你有Matlab(盗版?),你也可以用Matlab。事实上,在硅谷里,对大量机器学习算法,我们第一步就是建原型,在Octave建软件原型,因为软件在Octave中可以令人难以置信地、快速地实现这些学习算法。事实上,许多人在大硅谷的公司里做的其实就是,使用一种工具像Octave来做第一步的学习算法的原型搭建,只有在你已经让它工作后,你才移植它到C++Java或别的语言。事实证明,这样做通常可以让你的算法运行得比直接用C++实现更快。

单变量线性回归

回归问题,回归一词指的是,我们根据之前的数据预测出一个准确的输出值。

代价函数

接下来我们会引入一些术语我们现在要做的便是为我们的模型选择合适的参数parameters)θ0 和θ1。我们选择的参数决定了我们得到的直线相对于我们的训练集的准确程度,模型所预测的值与训练集中实际值之间的差距(下图中蓝线所指)就是建模误差modeling error)。 

我们的目标便是选择出可以使得建模误差的平方和能够最小的模型参数。 即使得代价函数 

代价函数也被称作平方误差函数,有时也被称为平方误差代价函数。我们之所以要求出误差的平方和,是因为误差平方代价函数,对于大多数问题,特别是回归问题,都是一个合理的选择还有其他的代价函数也能很好地发挥作用,但是平方误差代价函数可能是解决回归问题最常用的手段了。

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值