【机器学习】参数估计,非参数估计,监督学习,无监督学习

参数估计

已经知道观测数据符合某些模型的概率下,我们可以利用参数估计的方法来确定这些参数值,然后得出概率密度模型。这个过程中用到了一个条件,就是概率分布符合某些模型这个事实。在这个事实上进行加工。

(https://www.cnblogs.com/wt869054461/p/5935981.html)

个人理解:概率密度函数形式已知,求出形式中的参数。

非参数估计(无参密度估计)

实际中,概率密度形式往往未知,往往有多个局部最大;对于高纬度样本,一些高纬度的概率密度函数可以用低纬度密函数的乘积表示的假设通常也不成立。所以概率密度函数形式未知,只能用别的方法求概率密度。

概率密度估计--参数估计与非参数估计

我们观测世界,得到了一些数据,我们要从这些数据里面去找出规律来认识世界,一般来说,在概率上我们有一个一般性的操作步骤

1. 观测样本的存在

2. 每个样本之间是独立的

3. 所有样本符合一个概率模型

我们最终想要得到的是一个概率密度的模型,有了概率密度模型以后,我们就可以统计预测等非常有用的地方,因此,首要任务是找出一些概率分布的概率密度模型。

我们来分析一下上面的三个步骤,第一第二都很好解决,关于第三点,我们可以有不同的处理方式

如果我们已经对观测的对象有了一些认识,对观测的现象属于那种类型的概率密度分布已经了解了,只是需要确定其中的参数而已,这种情况就是属于参数估计问题。

如果我们研究观测的对象,也很难说这些观测的数据符合什么模型,参数估计的方法就失效了,我们只有用非参数估计的办法去估计真实数据符合的概率密度模型了。

因此,本文主要讨论 参数估计和非参数估计问题

1. 参数估计

对我们已经知道观测数据符合某些模型的情况下,我们可以利用参数估计的方法来确定这些参数值,然后得出概率密度模型。这个过程中用到了一个条件,就是概率分布符合某些模型这个事实。在这个事实上进行加工。

一般来说,参数估计中,最大似然方法是最重要和最常用的,我们重点介绍参数估计方法

我们在《无基础理解贝叶斯》中已经讲过似然性,那么我们就可以先写出似然函数。

假设有N个观测数据,并且概率模型是一个一维的高斯模型,用f(x)表示高斯模型,参数待定,因此我们可以写出似然函数

L(x1,x2,...xn) = f(x1,x2,...xn) = f(x1)*f(x2)*......*f(xn),第二个等式用到了样本之间是独立性这个假设(上面提到的一般步骤的第二条)

然后把对似然函数取对数

logL(x1,x2,...xn) = log(f(x1)*f(x2)*......*f(xn)) = log(f(x1)) + log(f(x2))+......+log(f(xn))

我们既然提到了极大释然方法,那就是要求出使得logL(x1,x2,...xn) 取最大值得参数。

因此对 logL(x1,x2,...xn) 求导等于0的参数就是符合要求的参数。

注意,如果似然函数求导有困难,通常我们会用迭代方法去求得这些参数,后面我们讲EM算法就是属于此类型

2. 贝叶斯方法

在我们谈到参数估计方法中,我们假定了参数是固定值,但是贝叶斯观点会人文,模型的参数值不是固定的,也是属于某种分布的状态。

因此我们做参数估计的时候其实是不准确的,因此贝叶斯方法会把参数的也作为一个概率考虑进来,然后再去观测。

我个人理解,这种方式也只能算是参数估计里面的一个变种而已

后验概率 ∝ 似然性 * 先验概率

先验概率,我们可以看成是待估计模型的参数的概率分布,后验模型是在我们观测到新的数据以后,结合先验概率再得出的修正的参数的分布

注意,如果似然函数的形式和先验概率的乘积有同样的分布形式的话,得到的后验分布也会有同样的分布模型

因此,人为的规定,如果先验概率与似然函数的乘积在归一化以后,与先验分布的形式上是一致的话,似然函数与先验概率就是共轭的,注意共轭不是指先验与后验的共轭

至于满足这个条件的共轭分布有很多种,二项分布与贝塔分布,多项式分布于狄利克雷分布等

后面有时间再更新一些贝叶斯方法相关的内容

3. 非参数估计

看过了参数估计后,我们知道,如果有模型的知识可以利用的话,问题就会变得很简单,但是如果没有关于模型的知识,我们怎么办?

回过头来看我们的目标,求出观测数据的概率密度模型。因此我们就会从概率密度这个定义开始分析,看有没有可以入手的地方。

概率密度,直观的理解就是在某一个区间内,事件发生的次数的多少的问题,比如N(0,1)高斯分布,就是取值在0的很小的区间的概率很高,至少比其他等宽的小区间要高。

我们把所有可能取值的范围分成间隔相等的区间,然后看每个区间内有多少个数据?这样我们就定义出了直方图,因此直方图就是概率密度估计的最原始的模型。

直方图我们用的是矩形来表示纵轴,当样本在某个小区间被观测到,纵轴就加上一个小矩形。

这样用矩形代表的模型非常粗糙,因此可以用其他的形状来表示,进一步就是核密度估计方法,这个后面会有一个翻译文章来具体讲解

基本上,参数估计和非参数估计是概率模型里面用的非常多的基本概念,希望自己在后面忘记的时候还能想起来曾经写过的东西

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
机器学习实验中的参数估计是指通过使用训练数据来确定模型中的参数。在机器学习任务中,通常会使用一些具有调节参数的模型,如线性回归、逻辑回归等。这些模型的参数需要通过训练数据进行估计,以使模型能够更好地拟合数据并做出准确的预测。 在实验中,我们可以使用Matlab来进行参数估计。Matlab是一种功能强大的数学软件,内置了众多用于参数估计的函数和工具。下面是一些常用的参数估计: 1. 最小二乘:最小二乘是一种常见的参数估计,通过最小化误差平方和来估计模型参数。在Matlab中,可以使用lsqcurvefit函数或lsqnonlin函数来进行最小二乘参数估计。 2. 极大似然估计:极大似然估计是一种通过最大化似然函数来估计参数的方。在Matlab中,可以使用mle函数对给定的数据集进行参数估计。 3. 期望最大化算:期望最大化算是一种迭代算,用于在隐藏的马尔可夫模型中进行参数估计。在Matlab中,可以使用em算对给定的数据集进行参数估计。 无论使用哪种方参数估计的目标是找到使得模型在训练数据上表现最好的参数值。在进行参数估计之前,需要准备好合适的训练数据集,选择合适的参数估计,并根据实验需求进行调参。 总之,机器学习实验中的参数估计是非常重要的一步,它决定了模型的性能和泛化能力。通过使用Matlab提供的函数和工具,我们可以很方便地进行参数估计,并根据实验结果选择最佳的参数配置。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值