机器学习
蟹恼板
这个作者很懒,什么都没留下…
展开
-
[笔记]Coursera Machine Learning Week0 - 目录大纲
目录会根据我的学习进度而更新,给自己列一个大纲以系统地看待整个学习过程。学习资料来源学习的是Coursera上吴恩达(Andrew Ng)老师的机器学习视频(课程传送门,最近在“最强大脑”上看到他了好激动啊,原来他去做百度大脑了呀),笔记根据此系列视频整理。笔记顺序不一定与原教程一样,希望加入些自己的思考。同时使用了网上找到的黄海广博士的对于吴大大视频教程的笔记(传送门)。因为我一开始看视频没做笔记原创 2017-02-12 15:45:11 · 1051 阅读 · 0 评论 -
[笔记]Coursera Machine Learning Week1,2 - 线性回归(Linear Regression)
线性回归属于回归问题。对于回归问题,解决流程为: 给定数据集中每个样本及其正确答案,选择一个模型函数h(hypothesis,假设),并为h找到适应数据的(未必是全局)最优解,即找出最优解下的h的参数。这里给定的数据集取名叫训练集(Training Set)。不能所有数据都拿来训练,要留一部分验证模型好不好使,这点以后说。先列举几个几个典型的模型:最基本的单变量线性回归: 形如h(x)=thet原创 2017-02-12 20:10:38 · 1413 阅读 · 0 评论 -
[笔记]机器学习(Machine Learning) - 02.逻辑回归(Logistic Regression)
逻辑回归算法是分类算法,虽然这个算法的名字中出现了“回归”,但逻辑回归算法实际上是一种分类算法,我们将它作为分类算法使用。。 分类问题:对于每个样本,判断它属于N个类中的那个类或哪几个类。通常我们判定一个样本,若我们预测它的确属于这个类的可能性大于50%,则认为它属于这个类。当然具体选择50%还是70%还是其他要看具体情况,这里先默认50%。 线性回归的局限性在分类问题的例子中变得不可靠:这是一原创 2017-02-13 21:57:44 · 2385 阅读 · 0 评论 -
[笔记]Coursera Machine Learning Week3 - 正则化(Regularization)
欠拟合(Underfitting)与过拟合(Overfitting) 上面两张图分别是回归问题和分类问题的欠拟合和过度拟合的例子。可以看到,如果使用直线(两组图的第一张)来拟合训,并不能很好地适应我们的训练集,这就叫欠拟合(Underfitting),但是如果x的次数太高(两组图的第三张),拟合虽然很好,但是预测能力反而变差了,这就是过拟合(Overfitting)。 对于欠拟合,我们可以适原创 2017-02-17 16:06:43 · 604 阅读 · 0 评论 -
[笔记]Coursera Machine Learning Week4,5 - 神经网络(Neural Networks)
概念与表述线性回归与逻辑回归的缺点:特征太多的时候计算负荷太大。神经网络模型是许多逻辑单元按照不同层级组织起来的网络,每一层的输出变量都是下一层的输入变量。 直观理解神经网络的单层神经元的计算可以用来表示逻辑运算,比如AND、OR。如果用多层的话就可以组成功能复杂的神经网络。多类分类 代价函数逻辑回归的代价函数:神经网络代价函数:(hθ(x)h_{\theta}(x)为K维度的向量,因为神经网络原创 2017-12-02 19:04:54 · 598 阅读 · 0 评论