![](https://img-blog.csdnimg.cn/20201014180756913.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
人工智能
软工16009彭杰
16009软工彭杰
展开
-
朴素贝叶斯和贝叶斯网络
一、朴素贝叶斯朴素贝叶斯的前提是特征之间没有关联。公式为:举例例子理解:x:某些词汇,y:垃圾邮件或者正常邮件,p(x|y):当是垃圾邮件或者正常邮件时,某些词汇出现概率,p(y):垃圾邮件或正常邮件的概率,p(x):某些词汇的概率。p(x|y),p(y)和p(x)叫做先验概率,p(y|x)叫做后验概率因为X为集合,所以公式改为:是求积符号。垃圾邮件和正常邮件也可以用0,1表示,...原创 2019-04-09 21:02:28 · 496 阅读 · 0 评论 -
支持向量机
一、什么是支持向量机它是寻找把两个类别最大分开的两条直线,平面或者群面。适合二元分类问题,数据量少的情况二、支持向量机初解支持向量机找的就是a和c这两条数据集边缘点的平行的直线(也可以是群面,平面)。然后得出b这条泛化能力最强的直线。...原创 2019-04-09 11:05:58 · 155 阅读 · 0 评论 -
决策树与分类算法之ID3算法
一.什么是ID3算法通过信息增益把决策树的每个结点找到。(公式符号比如下面的西格玛求和符号右上和右下表示范围的字符无法打出来,我在后面用括号表示)信息增益公式:Entropy(s) = -(∑(上面是m,下面是i=1)pi*log(底为2)(pi)),pi = 某种结果数量/总结果数。二、怎么把每个节点找到·········我以根节点为例子,先把饮食习惯、胎生动物、水生动物、会飞、哺乳动...原创 2019-04-02 21:30:46 · 655 阅读 · 0 评论 -
集成学习之随机森林
随机森林的原理它是随机有放回的选一部分数据和属性,分别得出树,然后通过投票的方法得出结果。它是装袋法的拓展(什么是装袋法)原创 2019-04-07 20:41:34 · 143 阅读 · 0 评论 -
集成学习之提升法
一、提升法(Boosting)的原理给每一个训练样本一个初始权重,一轮学习后。在深度比较浅的情况下不能得出结果的样本,它的权重加大,表示下一次注重它的学习。...原创 2019-04-07 20:25:56 · 220 阅读 · 0 评论 -
集成学习之装袋法
一、装袋法(Bagging)的原理装袋法总结就是这张图,把几个算法算出的结果,通过投票得出最终的结果。原创 2019-04-07 20:12:42 · 937 阅读 · 0 评论 -
人工智能训练模型评价好坏方法
训练出的结果有一下四种预测结果实际结果TP正正FN正反FP反正TN反反有三个指标判断人工智能训练模型的单方面好坏正确率(accuracy) = TP+TN/TP+FN+FP+TN精确率(precision) = TP/TP+FP召回率(recall) = TP/TP+FN一、F1值F值是精确率和召回率的调和平均F1值...原创 2019-04-07 18:59:44 · 1796 阅读 · 0 评论 -
决策树与分类算法之CART算法
一、什么是CART算法CART算法用得GINI指标把每个节点找到,不同于ID3得信息增益,或者C4.5得信息增益率。GINI指标得值越小越好。二、找到某个最好的节点这里以会飞这个属性为例子后面再算胎生动物,水生动物等等的GINI指标,取最小值的属性作为节点。...原创 2019-04-07 17:49:32 · 285 阅读 · 0 评论 -
决策树与分类算法之C4.5
一、什么是C4.5算法C4.5算法是优化的ID3算法(什么是ID3算法)。优化点在:ID3要求每个分支点的比例相同。但是举例例子,每个人居住的城市不同,数据中某个城市的人数较多,这就会影响决策树生成。解决办法把城市上升一个等级,比如省份、华南华北、南方北方C4.5做法是算信息增益率。二、举个列子这里算水生动物的信息增利率...原创 2019-04-07 17:06:35 · 337 阅读 · 0 评论