![](https://img-blog.csdnimg.cn/20201014180756928.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
机器学习期末复习
文章平均质量分 81
lsy永烨
这个作者很懒,什么都没留下…
展开
-
【机器学习 复习】第11章 神经网络与深度学习(重中之重)(含计算)
(1)深层神经网络在神经元数目一定的情况下,相比于传统浅层神经网络来说,具有更强大的学习能力,能够从原始输入中自动提取出具有高度抽象含义的特征(即脑补能力极其nb)。这里用的2*2(题目说了)的池化核,还说了最小池化法,就是选最小的就行,更简单,比如红字部分,最小的是3,所以第一个3就是这么来的,简单的一批。(3)正向传播:输入信号通过隐藏层作用于输出结点,经过非线性变换,产生输出信号,若实际输出与期望输出不相符,则转入误差的反向传播过程。隐藏层包括卷积层、激活层、池化层以及全连接层等。原创 2024-06-18 08:59:05 · 2129 阅读 · 6 评论 -
【机器学习 复习】第10章 K-Means聚类算法(重点)(含代码题)
(1)其中K代表要求划分成K个簇,means是均值的意思,也就是说每个簇的中心点是该簇中所有点的均值。聚类是把各不相同的个体分割为有更多相似性子集合的工作,聚类生成的子集合称为簇(cluster)。生成的簇内部的任意两个对象之间具有较高的相似度,于不同簇的两个对象间具有较高的相异度。c.对每个族,计算所有点的均值作为新的聚类中心,注意这个点是产生出来的。聚类所要求划分的类是未知的,是无意识的,一般把它理解为无监督学习。b.对于剩下的点,根据其与聚类中心的距离,将其归入最近的族。原创 2024-06-18 08:48:50 · 1105 阅读 · 0 评论 -
【机器学习 复习】第9章 降维算法——PCA降维
18. 对于n维特征变量中的每个子变量,主成分分析使用样本集合中对应子变量上取值的方差来表示该特征的重要程度。如上面的例子中,样本集合中的数据在旋转过后的新的y轴上的方差接近于0,几乎不携带任何信息量,故可将其省去,达到降维的目的。(所谓找方差最大的方向,就是找长度,面积最大的那条线或者面,因为方差就是离散程度,就是分散程度)(3)既能够代表原始特征的绝大数信息,组合后的特征又互不相关,降低相关性。(3)方差越大,特征的重要程度越大;方差越小,特征的重要程度越小。方差越小,特征的重要程度越小。原创 2024-06-18 08:45:33 · 985 阅读 · 0 评论 -
【机器学习 复习】第7章 集成学习
每棵决策树不需要剪枝处理。一方面量 (数据量) 不够,有限的数据集过度训练导致模型复杂,另一方面质(样本质量)不行,测试集中的数据分布未在训练集中,导致每次抽样训练模型时,每次模型参数不同,导致无法准确的预测出正确结果。,而是指多个(次)模型输出的结果之间的离散差异(注意这里写的是多个(次)模型,即 不同模型 或 同一模型不同时间 的输出结果方差较大)。训练子集中的样本存在一定的重复,主要是为了在训练模型时,每一棵树的输入样本都不是全部的样本,使森林中的决策树不至于产生局部最优解。(3)生成随机森林。原创 2024-06-18 08:43:25 · 1200 阅读 · 0 评论 -
【机器学习 复习】第6章 支持向量机(SVM)
(1)原理:在这n维的数据空间中找到一个超平面(Hyper Plane),将所有的正例划分到超平面的一侧,将所有的负例划分到超平面的另一侧。(1)在空间中无法用一条直线(线性)将数据集中的正例和负例正确地分隔开,但可以用一条圆形曲线(非线性)分隔。(4)所以引入了软间隔,也就是上面的近似线性可分,它nb在允许少量分类错误,以此消除硬间隔所产生的问题。(2)对此,采用核函数来解决,原理是从低纬升至高维,是的,你没有看错,相当于从一张纸变成一块积木。(2)近似线性可分时,通过软间隔最大化。原创 2024-06-18 08:37:17 · 953 阅读 · 0 评论 -
【机器学习 复习】第5章 朴素贝叶斯分类器
(4)朴素贝叶斯模型的参数也不多,对缺失数据不太敏感,算法实现比较简单。(1)就是“某个特征”属于“某种东西”的概率,公式就是最下面那个公式。(5)根据各个类别出现的概率,哪个最大,就将其划归为那个类别。的分类算法,即通过考虑特征概率来预测分类。(2)这是一种假设,假设每个特征属性。2.朴素贝叶斯算法概述。原创 2024-06-18 08:34:35 · 1002 阅读 · 0 评论 -
【机器学习 复习】第4章 决策树算法(重点)(含计算)
与此关联的是C4.5,选信息增益率最大的作为下一个节点,使用该方法最大的优点就是避免了因为种类太多导致gain值过于大的情况(分母越大,值越小)。2.根据提供的打球和天气表格构造决策树,要求计算每个特征的信息熵(4分),并依据信息增益确定每个根节点的特征(3分),画出决策树(3分)。的方法,每次都把当前样本集划分为两个子样本集,使生成的决策树的结点均有两个分支,显然,这样就构造了一个。(1)蓝的是节点,白的是分支(条件,或者说是特征,属性,也可以直接写线上,看题目有没有要求),原创 2024-06-18 08:29:18 · 2459 阅读 · 3 评论 -
【机器学习 复习】第3章 K-近邻算法(重中之重)(应用题和代码题)
(1)其中K是特征值,就是选择离某个预测的值(例如预测的是苹果,就找个苹果)最近的几个值,邻近的意思也很简单,就是距离上最近,距离测算主要分两种。实际情况就是点的x,y这些值就是这个点的特征,一样的事物最后在坐标轴上位置离得很近,而你把预测值放进去,它离哪个近,可不就是哪个玩意嘛。(2)K过大:造成欠拟合,因为样本过多,假设判断的是人种,那么多都是人,那猿猴也有人的特征,很容易就也被归类到人里面了。1.K-近邻算法:也叫KNN 分类 算法,其中的N是 邻近邻居NearestNeighbor的首字母。原创 2024-06-18 08:22:47 · 1387 阅读 · 1 评论 -
【机器学习 复习】第2章 线性回归及最大熵模型(含计算)
你可以把y替换成lny,原理就跟高中数学里面学的,两边同时取e,最后式子其实是没变化的,这里原理懂了秒懂,不懂得应该也不考无所谓。(4)x越往右,则表示猜错的正例越来越多,y越往上,则表示猜对的正例越来越多,(1,1)表示此时预测样本全为正例。意思就是在预测为正样本的结果中,有多少把握可以预测正确,即不要求对的数量,只要求对的精度/正确率。9.最大熵模型:现实中,不加约束的事物都会朝着“熵增”(不确定,混乱)的方向发展,(2)置信度阈值:就是设置一个y轴(P)的值,然后上面的是正例,下面的是负例(原创 2024-06-18 08:15:41 · 1849 阅读 · 2 评论 -
【机器学习 复习】 第1章 概述
19. 聚类的目的是对样本集合进行自动分类,以发掘数据中隐藏的信息、结构,从而发现可能的商业价值。8.聚类(Clustering):对无标签样本的相似度进行度量,挖掘特征、结构、内在性质,使类内相似度大,类间相似度小。9.输出结果(预测值)与其对应的真实值之间往往会存在一定的差异,这种差异被称为模型的输出误差,简称为误差。5.特征向量(Feature Vector):每个样本的特征 对应的特征空间中的一个坐标向量。1.构建一个完整的机器学习算法需要三个方面的要素,分别是数据、模型和(D )。原创 2024-06-18 08:08:34 · 2049 阅读 · 4 评论