机器学习
罗泽
深度学习实现目标检测的职人;知识传播与分享者;热爱生活的人
展开
-
《机器学习》绪论中假设空间和归纳偏好的解释
假设空间是指所有可能的能满足样本输入和输出的假设函数h(x)的集合。注意,假设函数一定是一个无穷大的集合。也就是说,如果样本是一串有穷的离散点(xi,yi),i属于1到N,那么能够拟合这这些点的无穷多个函数都是可能的假设函数。 那么,怎样的假设函数是最合理呢?这就涉及到归纳偏好的概念了。 归纳偏好是一个能挑选最佳假设函数的基准。以韦小宝的7个老婆为例,这7个老婆均满足小宝的要求,因此构成原创 2016-11-18 00:26:02 · 4474 阅读 · 1 评论 -
《机器学习》贝叶斯分类器中贝叶斯公式的解释
使用贝叶斯分类器的目的是为了计算P(c|x),即样本x划分为c类的概率。但在有些情况下,直接计算该值并不是很容易。通过贝叶斯公式也可以间接的计算该值。原创 2016-11-20 20:19:33 · 972 阅读 · 0 评论 -
极大似然估计的解释
极大似然估计是根据样本(x1,x2,…,xi,…,xn)的值来估计样本模型中参数(θ1,θ2,…,θi,…,θn)的。是一种参数估计方法。 其中,似然是似然函数的简称。可由L(x1,x2,…,xi,…,xn,θ1,θ2,…,θi,…,θn )来表示。该似然函数一般是人们根据数据的特性来进行假设的。比如,基于班上同学的身高数据,一般会假设身高是符合正态分布(μ,σ)。原创 2016-11-21 23:52:02 · 1239 阅读 · 0 评论 -
吴恩达《机器学习》笔记-导论
机器学习是在没有明确被编程时让计算机去学习的科学。学习包括监督学习和非监督学习。监督学习是在已知样本的情况下(right answer)来训练机器,而非监督学习则是知道样本数据,但没有样本的任何标签。 监督学习包括回归和分类,回归和分类的区别在于输出变量的类型,定量输出的是回归,或者说是连续变量输出。定性输出的是分类,或者说是离散变量输出。原创 2016-11-23 00:20:01 · 656 阅读 · 0 评论 -
吴恩达《机器学习》一元变量的线性回归
该文章是吴恩达《机器学习》课程第一章的笔记。通过一元变量的线性回归来讲解梯度下降算法的基础。原创 2016-11-23 00:50:11 · 1721 阅读 · 0 评论 -
决策树中信息增益最大找的是样本之间差异最大的特征
决策树的每一层都需要根据最大信息增益来进行分类特征的选取。实际上,信息增益最大找的是样本之间差异最大的特征。原创 2016-12-09 01:14:35 · 2766 阅读 · 0 评论 -
机器学习的实现框架-笔记
该文章是听了一个教授讲座后整理的笔记。自己没有实现过,因此可能存在认知上的偏差,因此,作为自己的笔记。如果有错误地方请多包涵。该实现框架包括算法部署框架、深度学习框架及硬件配置3部分。原创 2016-12-23 16:22:23 · 506 阅读 · 1 评论 -
梯度下降算法的实质
梯度下降算法的做法是通过改变权重w的值,从而使代价函数最小。那么问题是,为什么改变w的值能够使代价函数最小呢?最直接的方式应该是改变∂C⁄∂w的方式使代价函数的梯度逐步减小到最小值,此时的代价函数C才具有最小值。原创 2016-10-21 15:04:14 · 1010 阅读 · 0 评论