导读:数学基础知识蕴含着处理智能问题的基本思想与方法,也是理解复杂算法的必备要素。今天的人工智能技术归根到底都建立在数学模型之上
下方是我发布的文章直接点击就可阅读,希望对大家有所帮助
人工智能数学基础(一)
https://blog.csdn.net/Java_rich/article/details/120361765?spm=1001.2014.3001.5501
人工智能数学基础(二)
https://blog.csdn.net/Java_rich/article/details/120412229?spm=1001.2014.3001.5501
人工智能常用的十大算法
https://blog.csdn.net/Java_rich/article/details/120306028?spm=1001.2014.3001.5501
想学习人工智能或者转行到高薪资行业的,大学生也非常实用,无任何套路免费提供,,加我裙【966367816】领取,或者扫码+vx 也可以领取的内部资源,人工智能题库,大厂面试题 学习大纲 自学课程大纲还有200G人工智能资料大礼包免费送哦~
1-概率与频率
概率论是用来干嘛的呢?
是研究随机现象数量规矩的数学分支。
频率在一定程度上反映了事件发生的可能性大小. 尽管每进行一连串(n次)试验,所得到的频率可以各不相同,但只要 n相当大,频率与概率是会非常接近的.
因此,概率是可以通过频率来“测量”的, 频率是概率的一个近似.
概率是频率稳定性的依据,是随机事件规律的一个体现 .
实际中,当概率不易求出时,人们常通过作大量试验,用事件出现的频率去近似概率.
随机事件是什么呢?
扔硬币,王者峡谷击杀数,一批产品合格数。。。这些有什么特点呢?
1.可以在相同条件下重复执行
⒉.事先就能知道可能出现的结果3.试验开始前并不知道这一次的结果
随机试验E的所有结果构成的集合称为E的样本空间S={e}
抛硬币:S-{正面,反面}
击杀数:S-{0,1,2,. .}
2-古典概型
基本简介:
是一种概率模型。在这个模型下,随机实验所有可能的结果是有限的,并且每个基本结果发生的概率是相同的。例如:掷一次硬币的实验(质地均匀的硬币),只可能出现正面或反面,由于硬币的对称性,总认为出现正面或反面的可能性是相同的;如掷一个质地均匀骰子的实验,可能出现的六个点数每个都是等可能的;又如对有限件外形相同的产品进行抽样检验,也属于这个模型。是概率论中最直观和最简单的模型;概率的许多运算规则,也首先是在这种模型下得到的。一个试验是否为古典概型,在于这个试验是否具有古典概型的两个特征——有限性和等可能性,只有同时具备这两个特点的概型才是古典概型。
基本步骤:(1)算出所有基本事件的个数n;
(2)求出事件A包含的所有基本事件数m;
(3)代入公式P(A)=m/n,求出P(A)。
3-条件概率
就是事件A在另外一个事件B已经发生条件下的发生概率。
公式:
若只有两个事件A,B,那么,P(A|B) = P(AB)/P(B)。
条件概率 示例:就是事件A在另外一个事件B已经发生条件下的发生概率。条件概率表示为P(A|B),读作“在B条件下A的概率”。
联合概率:表示两个事件共同发生的概率。A与B的联合概率表示为 P(AB) 或者P(A,B),或者P(A∩B)。
边缘概率:是某个事件发生的概率,而与其它事件无关。边缘概率是这样得到的:在联合概率中,把最终结果中不需要的那些事件合并成其事件的全概率而消失(对离散随机变量用求和得全概率,对连续随机变量用积分得全概率)。这称为边缘化(marginalization)。A的边缘概率表示为P(A),B的边缘概率表示为P(B)。
需要注意的是,在这些定义中A与B之间不一定有因果或者时间顺序关系。A可能会先于B发生,也可能相反,也可能二者同时发生。A可能会导致B的发生,也可能相反,也可能二者之间根本就没有因果关系。条件概率公式例如考虑一些可能是新的信息的概率条件性可以通过贝叶斯定理实现。
(想知道具体的解释可以加我微信领取源码笔记视频的哦~)
4-独立性
定义:设A,B是两事件,如果满足等式
P(AB)==P(A)P(B),
则称事件A,B相互独立,简称A,B独立.
独立试验:
重复独立试验:在相同的条件下,将试验E重复进行,且每次试验是独立进行的,即每次试验各种结果出现的概率不受其他各次试验结果的影响。
n重伯努利试验:若一试验的结果只有两个A和A,在相同的条件下,将试验独立
地重复进行n次,则称这n次试验所组成的试验为n重复伯努利试验或伯努利概型
5-二维离散型随机变量
定义:若二维随机变量(X, Y)所取的可能值是有限对或无限可列多对,则称(X, Y)为二维离散型随机变量.
二维随机变量的联合函数:若(X,Y)是随机变量,对于任意的实数x)F(x, y)=P{(X Sx)(Y Sy)}
F(x,y)表示随机点(X,Y)在以(x,y)为顶点且位于该点左下方无穷矩形内的概率。
6、 二维连续型随机变量
7、边缘分布
边缘分布函数:二维随机变量(X,Y)作为整体,有分布函数F(x,y),其中,X和Y都是随机变量,它们的分布函数记为︰F(x), F(y)称为边缘分布函数。
在分布函数F (x,y)中令y →+,就能得到Fx(x)
Fx(x)=P{X ≤x}= P{X ≤x,Y <+} = F(x,+oo)同理得:Fy(y)=P{Y ≤y= F(+, y)
8、马尔可夫不等式
在概率论中,马尔可夫不等式给出了随机变量的函数大于等于某正数的概率的上界。虽然它以俄国数学家安德雷.马尔科夫命名,但该不等式曾出现在一些更早的文献中,其中包括马尔可夫的老师--巴夫尼提·列波维奇·切比雪夫。
概念:马尔可夫不等式把概率关联到数学期望,给出了随机变量的累积分布函数一个宽泛但仍有用的界。
马尔可夫不等式的一个应用是,超过5倍于人均收入的人数不会超过总人数的1/5。
表达式:X为一非负随机变量,则P(|x|≥a)≤E(|X|)/a
若用测度领域的术语来表示,马尔可夫不等式可表示为若(X, Σ, μ)是一个测度空间,ƒ为可测的扩展实数的函数,且ε≥0,则μ({x∈X:|f(x)≥ε|})≤(1/ε)∫[x]|f|dμ
有时上述的不等式会被称为切比雪夫不等式
9-切比雪夫不等式
在概率论中切比雪夫不等式(英语Chebyshev's Inequality)显示了随机变量的几乎所有值都会接近平均切比雪夫不等式对任何分布形状的数据都适用
基本原理:
对于任一随机变量X ,若EX与DX均存在,则对任意ε0,
恒有P{|X-EX|=ε}=DX/ε^2 或P{|X-EX|ε}=1-DX/ε^2
切比雪夫不等式说明,DX越小,则 P{|X-EX|=ε}
越小,P{|X-EX|ε}越大, 也就是说,随机变量X取值基本上集中在EX附近,这进一步说明了方差的意义。
同时当EX和DX已知时,切比雪夫不等式给出了概率P{|X-EX|=ε}的一个上界,该上界并不涉及随机变量X的具体概率分布,而只与其方差DX和ε有关,因此,切比雪夫不等式在理论和实际中都有相当广泛的应用。需要指出的是,虽然切比雪夫不等式应用广泛,但在一个具体问题中,由它给出的概率上界通常比较保守。
切比雪夫不等式是指在任何数据集中,与平均数的距离超过K倍标准差的数据占的比例至多是1/K^2。
小编整理了有关人工智能的资料,有python基础,图像处理opencv\自然语言处理、机器学习
数学基础等资源库,想学习人工智能或者转行到高薪资行业的,大学生也非常实用,无任
何套路免费提供,,加我裙【966367816】下载,或者扫码+vx(更方便) 也可以领取的内部资源,人工智能题库,大厂面试题 学习大纲 自学课程大纲还有200G人工智能资料大礼包免费送哦~
欢迎大家扫码撩我呀~