Machine Learning
文章平均质量分 75
红尘一笑233
这个作者很懒,什么都没留下…
展开
-
机器学习回归:宝可梦cp预测 |李宏毅机器学习【2】
问题:宝可梦cp值预测step1:线性模型,输入feature为上一代的cp值 step2: Loss Function(均方误差) 参数w和b取不同值时的均方误差,紫色代表误差很小,红色代表误差很大: step 3: Loss Function最小化(Gradient Descent),得到Best Function,可看作得到最优参数。 ...原创 2018-08-27 15:02:11 · 2162 阅读 · 2 评论 -
卷积神经网络CNN |李宏毅机器学习【9】
卷积神经网络(Convolutional Neural Network, CNN)是一类具有特殊结构的神经网络,在图像识别和语音识别领域领域具有不可替代的作用。CNN的神奇之处在于它考虑了图像数据的特点,通过特殊的convolution和Pooling结构,在减少参数的同时可以提取到更加抽象的图像特征。 CNN为什么可以应用于图像识别呢?property1: 下图中的“鸟喙”是一...原创 2018-09-30 15:09:18 · 633 阅读 · 0 评论 -
5分钟看懂反向传播算法(Backpropogation) |李宏毅机器学习【7】
当我们在谈论深度学习的“学习过程”的时候,我们在谈论什么?对,在谈论梯度下降(Gradient Descent)。如果你还不知道什么是梯度下降,可以看看之前的梯度下降(Gradient Descent)的技巧和原理 https://blog.csdn.net/qq_36459893/article/details/82290553。 下面是梯度下降的一般过程。由于神经网络独特...原创 2018-09-21 09:56:56 · 4698 阅读 · 0 评论 -
零基础入门深度学习 |李宏毅机器学习【6】
在上一节课的最后,我们发现logistic regression的局限是不能处理非线性数据,因此提出了特征转换。而特征转换往往不是可以一眼看出来的,所以我们先通过两个logistic regression来提取特征,再把提取的特征作为最终分类的输入。如果把每个logisitc regression称为神经元(neure),那么把很多个神经元连起来就构成了神经网络(Neral Network)!...原创 2018-09-20 22:49:46 · 477 阅读 · 0 评论 -
MNIST手写数字识别 |李宏毅机器学习【8】
学习编程语言时,我们学的第一个问题都是输出“hello world”,毫不夸张的说,MNIST就是深度学习版的“hello word”。这节课将通过keras实现MNIST手写数字识别这个经典案例,并且在实践过程中总结深度学习调参的一般套路。一、利用keras进行深度学习的一般步骤step1: define a set of function这一步决定神经网络的结构,也是编写...原创 2018-09-27 10:21:22 · 1126 阅读 · 0 评论 -
机器学习分类:概率生成、朴素贝叶斯和逻辑回归 |李宏毅机器学习【5】
本文将主要介绍两种经典分类模型,一种是Generative的,例如朴素贝叶斯(Naive Bayes),这种算法通过训练集估计样本总体分布的参数,从而得到每个样本在分布中产生的概率。另一种是Discriminative的,例如逻辑回归(Logistic Regression),和Generative的区别是,它不需要假设分布,也不需要估计分布的参数,而是对贝叶斯公式进行简化,直接对模型中相关的参...原创 2018-09-10 15:11:24 · 1309 阅读 · 0 评论 -
什么是机器学习(Machine Learning)? |李宏毅机器学习【1】
机器学习(Machine Learning)是人工智能时代的核心技术,深度学习(Deep leaning)是机器学习中一类重要的方法。机器学习的应用非常广泛,相机美颜、个性推荐,人脸解锁、垃圾邮件过滤、阿法狗......很多智能化的应用场景背后,都离不开机器学习算法的支撑。 机器学习的概念那么机器学习到底是什么东东呢?是造一个机器人来学习吗,非也。按照李宏毅老师的说法,机器学习相当于...原创 2018-08-25 21:16:26 · 10548 阅读 · 0 评论 -
机器学习的误差从何而来?“偏差-方差分解 ” |李宏毅机器学习【3】
对于机器学习算法,可以通过实验估计其泛化性能,但是为什么不同算法在不同训练集上有不同的错误率?欠拟合和过拟合的深层原因到底是什么?“偏差-方差分解”(Bias-Variance decomposition)是解释算法泛化性能的一种常用工具。顾名思义,偏差-方差分解就是试图把学习算法的期望泛化错误率分解为偏差和方差。偏差指的是期望预测和真实结果之间的偏离程度,而方差指的是因相同数量的训练集的...原创 2018-09-02 10:38:04 · 983 阅读 · 0 评论 -
梯度下降的技巧和原理 |李宏毅机器学习【4】
在很多机器学习损失函数(Loss Function)最小化的计算中,梯度下降是一种适用范围广泛且效果稳定的方法。梯度(Gradient): 函数对所有变量分别求偏导得到的vector,几何意义是Loss function等高线的法线方向。梯度方向可以简单理解为函数上升最快的方向,负梯度方向就是函数下降最快的方向,所以利用梯度求函数最优值的方法就称作梯度下降法。 沿着梯度的反方...原创 2018-09-06 22:29:24 · 985 阅读 · 0 评论 -
SVM支持向量机(吴恩达课程笔记)
支持向量机(support vector machine) 大概是机器学习中最热门的算法之一,但同时也是最难懂的算法之一。最近看了吴恩达的课程,虽讲的比较浅显,但对于初学者来说不失为一个入门的好路径。1. Optimization objective 目标函数先来回顾一下逻辑回归,这是其计算分类概率的函数:这是逻辑回归的cost function:分y=1和y=2两种情况来表示z和co...原创 2018-10-28 13:02:25 · 738 阅读 · 0 评论