![](https://img-blog.csdnimg.cn/20201014180756926.png?x-oss-process=image/resize,m_fixed,h_64,w_64)
统计学习方法
文章平均质量分 89
阅读记录
a97155787
这个作者很懒,什么都没留下…
展开
-
统计学习方法第五章
决策树决策树损失函数通常是正则化的极大似然函数信息增益的算法输入:训练数据集 DDD 和特征 AAA;输出: 特征 AAA 对训练数据集 DDD 的信息增益 g(D,A)g(D, A)g(D,A) 。设有 KKK 个类 CkC_{k}Ck,∣Ck∣\left|C_{k}\right|∣Ck∣ 为属于类 CkC_{k}Ck 的样本个数根据特征 AAA 的取值将 DDD 划分为 nnn 个子集 D1,D2,⋯D_{1}, D_{2}, \cdotsD1,D2,⋯Dik=Di∩CkD_原创 2021-07-25 16:14:41 · 53 阅读 · 0 评论 -
统计学习方法第四章
朴素贝叶斯法设输入空间 X⊆Rn\mathcal{X} \subseteq \mathbf{R}^{n}X⊆Rn 为 nnn 维向量的集合, 输出空间为类标记集合 Y=\mathcal{Y}=Y= {c1,c2,⋯ ,cK}\left\{c_{1}, c_{2}, \cdots, c_{K}\right\}{c1,c2,⋯,cK} 。输入为特征向量 x∈Xx \in \mathcal{X}x∈X, 输出为类标记(class label) y∈Y∘Xy \in \mathcal{Y}_{\circ}原创 2021-07-22 17:28:48 · 50 阅读 · 0 评论 -
统计学习方法第三章
k近邻法距离新实例最近的k个实例中占比最高的即新实例的类别度量距离设特征空间X\mathcal{X}X是nnn维实数向量空间Rn,xi,xj∈X,xi=(xi(1),xi(2),⋯ ,xi(n))T\mathrm{R}^{n},x_{i},x_{j}\in\mathcal{X},x_{i}=\left(x_{i}^{(1)},x_{i}^{(2)},\cdots,x_{i}^{(n)}\right)^{\mathrm{T}}Rn,xi,xj∈X,xi=(xi(1),xi(2),⋯,xi(n)原创 2021-07-22 17:28:04 · 54 阅读 · 0 评论 -
统计学习方法第二章
感知机感知机的收敛性(Novikoff定理 证明见书)线性可分的情况下有限次搜索可以找到将训练数据完全分开的分离超平面设训练数据集 T={(x1,y1),(x2,y2),⋯ ,(xN,yN)}T=\left\{\left(x_{1}, y_{1}\right),\left(x_{2}, y_{2}\right), \cdots,\left(x_{N}, y_{N}\right)\right\}T={(x1,y1),(x2,y2),⋯,(xN,yN)} 是线 性可分的, 其中 xi∈X=Rn原创 2021-07-22 17:27:34 · 108 阅读 · 0 评论 -
统计学习方法第一章
统计学习方法监督学习注意x(i)x^{(i)}x(i)和xix_{i}xi不同XXX表示输入变量YYY为输出变量xxx表示输入变量的取值yyy表示输出变量的取值x(i)x^{(i)}x(i)表示输入xxx的第iii个特征xix_{i}xi表示多个输入变量xxx的第iii个变量xi=(xi(1),xi(2),⋯ ,xi(n))Tx_{i}=(x_{i}^{(1)},x_{i}^{(2)},\cdots,x_{i}^{(n)})^Txi=(xi(1),xi(2),⋯,xi(n)原创 2021-07-18 18:53:07 · 87 阅读 · 0 评论