task2

负责人:王佳旭
课程设计人:王佳旭

【线性回归任务一】

#任务时间#
请于5月13日22:00前完成,逾期尚未打卡的会被清退。

学习视频内容:

学习打卡任务内容:

  • 了解什么是Machine learning
  • 学习中心极限定理,学习正态分布,学习最大似然估计
    • 推导回归Loss function
    • 学习损失函数与凸函数之间的关系
    • 了解全局最优和局部最优
  • 学习导数,泰勒展开
    • 推导梯度下降公式
    • 写出梯度下降的代码
  • 学习L2-Norm,L1-Norm,L0-Norm
    • 推导正则化公式
    • 说明为什么用L1-Norm代替L0-Norm
    • 学习为什么只对w/Θ做限制,不对b做限制

学习任务说明:

  1. 建立CSDN账号或者简书等开源账号,将学习打卡任务写到CSDN或者简单等开源平台上
  2. 未按时打卡这将会被清退
  3. 打卡地点:李宏毅机器学习第七群
  4. 打卡形式:

Datawhale第7期-《李宏毅机器学习》作业统计 - Task1(请按顺序接龙)

作业链接:
1.王佳旭(昵称)——www.baidu.com (完成打卡学习链接](http://www.CSDN())
2.
3.
4.

参考内容:
李宏毅机器学习课程
Datawhale整理开源笔记《李宏毅机器学习》(现在未完成,只能先放出一点点,还请小伙伴多给点时间)

参考链接:
参考手写公式链接:在学习第二天我会公布(5.12)
参考代码链接:在学习第二天我会公布(5.12)

在第二天给出数学参考是因为:更多想把时间留给学习者,我所写的只是参考,希望大家有自己的想法

参考链接代码和数学:

参考数学.md

Batch Gradient Descent.ipynb

Datawhale开源笔记链接《李宏毅机器学习》:
https://datawhalechina.github.io/Leeml-Book/#/chapter2/chapter2

中心极限定理:

n个独立同分布的随机变量之和的分布近似于正态分布,并且n越大,近似程度越好。

  • 独立同分布下的中心极限定理:

假设$X_i \overset{\text{iid}}{\sim} F , 其 中 ,其中 \mathrm E[X_i] = \mu$, V a r ( X i ) = σ 2 \mathrm{Var(X_i)} = \sigma^2 Var(Xi)=σ2,并且方差有限不为0。则前n个变量之和的标准化变量: Y i ⋆ = X 1 + ⋯ + X n − n μ n σ Y_{i}^{\star} = \frac{X_1 + \cdots + X_n - n\mu}{\sqrt{n} \sigma} Yi=n σX1++Xnnμ的分布将随着 n → ∞ n \rightarrow \infty n而收敛于标准正态分布。具体证明如下:

  • 二项分布的正太近似(棣莫弗-拉普拉斯定理)
  • 独立不同分布下的中心极限定理
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值