吴恩达机器学习公开课学习笔记(一)章节23


公开课链接: https://study.163.com/course/courseLearn.htm?courseId=1004570029#/learn/video?lessonId=1049101127&courseId=1004570029

一些规范表达形式

训练集中样本数目: m m m
变量: X X X,自变量的第i个样本: X ( i ) X^{(i)} X(i)
目标: Y Y Y,目标的第i个样本: Y ( i ) Y^{(i)} Y(i)
映射函数: h h h,hypothesis,把 x → y x\rightarrow y xy,表达形式: h θ ( x ) = θ 0 + θ 1 x h_\theta(x)=\theta_0+\theta_1x hθ(x)=θ0+θ1x(线性函数)
声明符号: : = := :=

线性回归/单变量线性回归

映射函数: h θ ( x ) = θ 0 + θ 1 x h_\theta(x)=\theta_0+\theta_1x hθ(x)=θ0+θ1x
θ 0 和 θ 1 \theta_0和\theta_1 θ0θ1为模型参数(parameters of model)
优化过程就是最小化函数: min ⁡ θ 0 , θ 1 1 2 m ∑ i = 1 m ∣ h θ ( x ( i ) ) − y ( i ) ∣ 2 \min_{\theta_0,\theta_1} \frac{1}{2m}\sum_{i=1}^m|h_\theta(x^{(i)})-y^{(i)}|^2 θ0,θ1min2m1i=1mhθ(x(i))y(i)2 最小化误差平方和
系数 1 2 m \frac{1}{2m} 2m1是为了让数值不那么大
为了让这个概念更明晰,所以定义了代价函数(cost function)
代价函数 J ( θ 0 , θ 1 ) J(\theta_0,\theta_1) J(θ0,θ1): J ( θ 0 , θ 1 ) = 1 2 m ∑ i = 1 m ∣ h θ ( x ( i ) ) − y ( i ) ∣ 2 J(\theta_0,\theta_1)=\frac{1}{2m}\sum_{i=1}^m|h_\theta(x^{(i)})-y^{(i)}|^2 J(θ0,θ1)=2m1i=1mhθ(x(i))y(i)2
目标就是minimize cost function,代价函数也被称作平方误差函数(squared error function)

代价函数

Hypothesis: h θ ( x ) = θ 0 + θ 1 x h_\theta(x)=\theta_0+\theta_1x hθ(x)=θ0+θ1x
Parameters: θ 0 和 θ 1 \theta_0和\theta_1

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值