机器学习笔记(一)

监督学习

给定一个有正确答案组成的数据集,运用学习算法,算出更多的正确答案。

  • 回归问题:根据之前的数据预测出一个准确的输出值
  • 分类问题

无监督学习

给定一个没有任何标签的数据集,在没有提前告知算法的一些信息情况下,判断出数据有两种不同的聚集簇。

聚类应用的一个例子就是在谷歌新闻中。如果你以前从来没见过它,你可以到这个 URL 网址 news.google.com 去看看。谷歌新闻每天都在,收集非常多,非常多的网络的新闻内容。 它再将这些新闻分组,组成有关联的新闻。所以谷歌新闻做的就是搜索非常多的新闻事件, 自动地把它们聚类到一起。所以,这些新闻事件全是同一主题的,所以显示到一起。

  • 无监督学习或聚集有着大量的应用。它用于组织大型计算机集群。我有些朋友在大数据中心工作,那里有大型的计算机集群,他们想解决什么样的机器易于协同地工作,如果你能够让那些机器协同工作,你就能让你的数据中心工作得更高效**。第二种应用**就是社交网络的分析。所以已知你朋友的信息,比如你经常发email 的,或是你 Facebook的朋友、谷歌+圈子的朋友,我们能否自动地给出朋友的分组呢?即每组里的人们彼此都熟识,认识组里的所有人?还有市场分割。许多公司有大型的数据库,存储消费者信息。所以,你能检索这些顾客数据集,自动地发现市场分类,并自动地把顾客划分到不同的细分市场中,你才能自动并更有效地销售或不同的细分市场一起进行销售。这也是无监督学习,因为我们拥有所有的顾客数据,但我们没有提前知道是什么的细分市场,以及分别有哪些我们数据集中的顾客。我们不知道谁是在一号细分市场,谁在二号市场,等等。那我们就必须让算法从数据中发现这一切。最后,无监督学习也可用于天文数据分析,这些聚类算法给出了令人惊讶、有趣、有用的理论,解释了星系是如何诞生的。这些都是聚类的例子,聚类只是无监督学习中的一种。

单变量线性回归问题:只含有一个特征/输入变量。一种可能的表达方式为:
ℎ?(?) = ?0 + ?1?,
代价函数----让我联想到图像处理的霍夫变换原理时候,转换参数坐标表达。
这无非就是将上面式子中的两个参数 建立表达关系 ,从而寻找最小值在这里插入图片描述
我们运用梯度下降来求出代价函数的最小值。
在这里插入图片描述
值得注意的是,这个公式极为巧妙的地方是在于学习率,当学习率为正的时候,横坐标挪动会很大,反之则很小。这样可以自主的控制梯度下降法中的步伐。在这里插入图片描述在这里插入图片描述

  • 1
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值