coursera Machine learning Andrew NG 笔记(一)

看到不少推荐Andrew Ng的机器学习的课程,所以在coursera上注册了开始学。2016年1月15日

1. Introduction

1. machine learning definition

Arthur Samuel(1959): Machine learning is a field of study that gives computers the ability to learn without explicitly programmed.

Tom Mitchell(1998)(CMU) :Well-posed learning problem:A computer program is said to learn from experience E with respect to some task T, and some performance measure P, if its performance T, as measured by P, improves with exprience E.

2. Main two types of machine learning

(1)supervised learning(监督学习)

(2)unsupervised learning(非监督学习)

其他还有reinforcement learning(比如check playing),recommender system

3. Supervised learning

(1) refers to the fact that we gave the algorithm a data set in which “right answers” were given.

(2)主要分为regression(回归,主要output 为连续的)和 classification(分类,output是离散的)问题,regression 可以为线性,可以为非线性。

(3) SVM(support vector machine,支持向量机)

4. Unsupervised learning

(1) 没有标签(label),没有告诉right answer

(2) Clustering problem(聚类问题)
E.g Google news group automatically cluster news stories into groups about the same topic.

(3) Applications: Genes; organizing large computing clusters; social network analysis; market segmentation; astronomical data analysis

(4)Cocktail party problem
分离两个不同来源但叠加在一起的声音input1和input2
svd: single value decomposition

2. Linear regression with one variable

Cost Function

1. Model Representation

traning set
m = # of traning examples

(x, y) a single traning example
()
hθ x =θ0+ θ1 x1

2. Cost Function

  1. Fit the best line to training examples
  2. 线性回归 Hypothesis: hθ ( x )=θ0+ θ1 x1
  3. idea: 将x带入 hθ ( x )得到estimated y,
    因此minimize J(θ0, θ1 ) = 12m i=1m(hθ(x(i))y(i))2

cost function= J( θ0 , θ1 ) = 12m i=1m(hθ(x(i))y(i))2

3. Gradient Descent

  1. gradient descent是解决线性回归问题的一种方法,不断重复以下步骤,使得J逐渐收敛至最小值
    θj:=θjαδδθjJ(θ0,θ1)
    每一步 θ0,θ1 都是同时update
  2. 需要注意的问题
    选择合适大小的 α
  3. 对于超过两个变量的cost function同样适用
    可以归纳为
    repeat{
    θj:=θjα1m i=1m(hθ(x(i))y(i))x(i)j }
    注意也是同时更新的
  4. 技巧
    (1)feature scaling
    (2)Mean normalization
    (3)怎么判断gradient descent是适用的?
    plots can be helpful

4. Linear regression and normal equations

θRn+1 , J(θ0,θ1,......,θn) = 12m i=1m(hθ(x(i))y(i))2
对每一个 θ 求偏微分
set δδθj(θ)=0 (for every j)
solve for θ0,θ1,......,θn

可以推导出 θ=(XTX)1XTY

5. Normal equation和gradient descent 的对比

当变量很多时,如 n106 的时候,适合用gradientdescent
但n较小时,需要选择 α ,需要很多部才能收敛,效果不如normal equation

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Coursera机器学习是由斯坦福大学教授Andrew Ng主讲的一门在线课程,旨在向学习者介绍机器学习的基本概念、算法和应用。该课程涵盖了监督学习、无监督学习、深度学习等多个方面,通过理论讲解和实践编程作业,帮助学习者掌握机器学习的基本原理和实践技能。该课程是Coursera平台上最受欢迎的课程之一,也是机器学习领域入门的重要资源之一。 ### 回答2: Coursera机器学习是由斯坦福大学Andrew Ng教授设计并教授的在线课程。这门课程被认为是公认的机器学习入门教材之一,也是Coursera平台最受欢迎的课程之一。 这门课程涵盖了机器学习领域中最基础的知识和技术,包括监督学习、无监督学习以及神经网络等。学生可以通过该课程了解到如何采集和处理数据、如何训练模型、如何评估模型的性能等。此外,课程还涉及到机器学习中一些实用的技术,如正则化、梯度下降等。 该课程受到了全球范围内的认可和青睐,许多学生、工程师、数据科学家等都受益于该课程。由于该课程的知识点全面、深入浅出、容易理解和学习,在业内和学术界都广受赞誉,拥有较高的知名度和价值。 总之,Coursera机器学习是一门非常好的课程,对于那些对机器学习感兴趣的人来说,它是一个不可错过的机会。课程教材内容丰富、难度适中,且教学相对轻松愉悦,难怪在学习资源上产生了广泛的影响。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值