- 博客(5)
- 收藏
- 关注
原创 自己看的,西瓜书第六章笔记
6.1 支持向量与间隔给定一组线性可分的训练样本,分类学习的目的是找到一个划分超平面。如图ps:中间的线即为“超平面”。因此,支持向量机的作用:从几何角度出发,对于线性可分数据集,支持向量机就是找距离正负样本都最远的超平面。相比于感知机,这个超平面的唯一的,且这个划分超平面所产生的分类结果是最鲁棒的,对未见示例的泛化能力最强。样本空间中任易点 x到超平面 ( ω , b )的距离可写为:支持向量机(SVM)的基本模型如下:是一个凸二次规划问题。6.2 对偶问题对上式使用拉格朗日乘子法可
2021-12-31 00:30:16 432
原创 自己看的,西瓜书第五章笔记
5.1 M-P神经元模型M-P神经元(一个用来模拟生物行为的数学模型) :接收n个输入(通常是来自其他神经元),并给各个输入赋予权重计算加权和,然后和自身特有的阈值0进行比较(作减法),最后经过激活函数(模拟‘ 抑制”和“激活”)处理得到输出(通常是给下一个神经元)单个M-P神经元:感知机(sgn作激活函数),对数几率回归(sigmoid作激活函数)多个M-P神经元:神经网络5.2 感知机由两层神经元组成,输入层接收外界输入信号后传递给输出层,输出层是M-P神经元,亦称“阈值逻辑单元”。从
2021-12-27 01:02:17 367
原创 自己看的,西瓜书第四章笔记
4.1 决策树的基本流程决策树构建的基本步骤如下:开始,所有记录看作一个节点遍历每个变量的每一种分割方式,找到最好的分割点分割成两个节点N1和N2对N1和N2分别继续执行2-3步,直到每个节点足够“纯”为止算法原理:决策树(Decision Tree)是一种简单但是广泛使用的分类器。通过训练数据构建决策树,可以高效的对未知的数据进行分类。决策数有两大优点:1)决策树模型可以读性好,具有描述性,有助于人工分析;2)效率高,决策树只需要一次构建,反复使用,每一次预测的最大计
2021-12-23 23:08:29 99
原创 自己随便记的笔记
- 基本术语示例(instance)/样本(sample):一个事件或对象,在空间中又可称为特征向量(feature vector)属性(attribute)/特征(feature):反映事件或对象在某方面的表现或性质的事项属性值(attribute value):属性上的取值属性空间(attribute space)/样本空间(sample space)/输入空间:属性张成的空间数据集(data set):训练集(training set)、测试集(testing set)分类(classi.
2021-10-18 23:18:46 106
空空如也
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人