吴恩达——机器学习
我是刘某某
机器学习小菜鸟一枚,加油加油加油
展开
-
吴恩达——机器学习1
什么是机器学习Tom定义的机器学习是,一个好的学习问题定义如下,他说,一个程序被认为能从经验E中学习,解决任务T,达到性能度量值P,当且仅当,有了经验E后,经过P评判,程序在处理T时的性能有所提升。在下棋任务中,经验E 就是程序上万次的自我练习的经验而任务T 就是下棋。性能度量值P是指它在与一些新的对手比赛时,赢得比赛的概率。在垃圾邮件识别任务中,任务T是识别垃圾邮件,经验E是被标记为垃圾的...原创 2018-09-01 13:05:16 · 762 阅读 · 0 评论 -
吴恩达——机器学习2
过拟合与欠拟合欠拟合:模型不能很好地适应训练集过拟合:模型可以很好地适应训练集,但对于新输入的数据预测结果并不好 非参数学习算法(non-parametic learning algorithm)又称局部加权回归(locally weighted regression),更加注重对临近点的精确拟合。loss function:, 其中当数据集很大时,计算的代价很高...原创 2018-09-01 15:46:45 · 136 阅读 · 0 评论 -
吴恩达——机器学习 局部加权回归(Loess)
先介绍参数学习方法和非参数学习方法:参数学习方法:有固定数目的参数, 比如线性回归和逻辑回归中的非参数学习方法:参数的数目会随着训练集的大小呈线性增长,比如局部加权回归局部加权回归(Locally Weighted Regression, Loess)如果有一个类似下图的数据集(图片来源:https://blog.csdn.net/qsczse943062710/article...原创 2018-09-03 11:12:15 · 8370 阅读 · 0 评论 -
吴恩达——机器学习(伯努利分布在逻辑回归中的作用)
之前只知道逻辑回归的方法却不明白为什么要这么做,为什么可以代表取1的概率。在看了吴大神的机器学习课程第四课之后恍然大悟。首先引入伯努利分布: 参数代表y取值为1的概率,改变参数的值可以得到不同的关于y的分布。伯努利分布与高斯分布同属于指数分布族,所以在给定a,b,t的情况下,y的概率分布可以表示为:其中:为分布的自然参数;T(y)是充分统计量,通常T(y)=y将伯努利分布表示...原创 2018-09-03 15:49:36 · 6202 阅读 · 0 评论 -
吴恩达——机器学习( Softmax Regression)
softmax regression和LR有些相似,可以说是LR的多分类版本,用于解决多项式分布问题。首先回顾一下逻辑回归中提到的:对于指数分布族,y的分布函数可以表示为,其中T(y)表示充分统计量,在大多数情况下(比如LR)T(y)=y。但是在softmax regression中,。这里, , ... ,,定义指示函数, 那么T(y)中的第i个元素的值可以表示为对于多项式...原创 2018-09-03 17:02:08 · 1390 阅读 · 1 评论