在机器学习许多算法里面经常用到的一个建模技巧就是假定某个数据服从某个概率分布。每个概率分布都有一个概率分布函数,输入样本值概率分布函数输出当前这个样本属于某个类的概率。而任何概率分布函数都会存在未知参数,不同数据要取不同的参数。比如逻辑回归,它就认为概率分布函数长的像这样,输入样本值x,输出x属于标签为1的那个类的概率。未知参数是w和b,不同数据w和b是要取不同的值。逻辑回归要做的是根据不同数据自适应的调整w和b的值。那么概率分布函数一定要用{sigmoid(wx+b)}sigmoid(wx+b)吗?肯定不是,我们可以自己设计各种概率分布函数(只要值域在
0~1
之间,因为概率是0~1
之间),比如我可以设计新的算法,它的概率分布函数为把它命名为
Ai酱回归算法
。如果你设计了一种新的概率分布函数用在某种数据效果还不错,那么“恭喜你创造了一种新的算法”。从这可以看出,我们了解常见的概率分布函数对于理解机器学习各种算法和算法中的待求解参数的意义是非常重要的。而且我们还可以根据这些现有的概率分布函数来发明我们自己的
梳理常见基本的概率分布函数及他们在机器学习中的作用
最新推荐文章于 2024-05-13 18:21:36 发布
![](https://img-home.csdnimg.cn/images/20240711042549.png)