统计学习方法
小白b2
这个作者很懒,什么都没留下…
展开
-
逻辑回归卡方拟合优度检验 r语言
老师写的代码r语言做逻辑回归时的皮尔森拟合优度检验AZTAIDS <- expand.grid(AZT=factor(c("Yes","No"),levels=c("No","Yes")), Race=factor(c("White","Black"),levels=c("Black","White"))) AZTAIDS <- data.frame(AZTAIDS,Yes=c(14,32,11,12), No=c(93,81,52,43))原创 2020-12-06 10:40:15 · 3398 阅读 · 0 评论 -
r语言决策树模型建立 可视化 混淆矩阵 roc曲线
library(rpart)library(rattle)library(rpart.plot)library(RColorBrewer)set.seed(1234) #随机抽样设置种子train<-sample(nrow(d1),0.8*nrow(d1)) #抽样函数,第一个参数为向量,nrow()返回行数 后面的是抽样参数前tdata<-d1[train,] #根据抽样参数列选择样本,都好逗号是选择行vdata<-d1[-train,] #删除抽样行#tdata为训练原创 2020-12-01 11:05:48 · 5610 阅读 · 2 评论 -
感知机理论+r实现 统计学习方法笔记
感知机模型介绍的话:感知机 (perceptron) 类分类的线性分类模型,其输入为实例的特征向量,输出为实例的类别,取 +1 和一 值。感知机对应于输入空间(特征空间)中将实例划分为正负两类的分离超平面,属于判别模型。假设输入空间对应全体实数空间,输出空间对应-1,+1.由输入空间到输出空间的如下函数:称为感知机。w和b为参数。w是全值向量,b叫做偏值。w·x是内积感知机模型的假设空间是定义在特征空间中的所有线性分类模型。...原创 2020-08-24 12:00:57 · 514 阅读 · 1 评论 -
统计学习方法学习笔记(二)模型评估与模型选择,正则化与交叉验证,泛化能力
训练误差与测试误差当损失函数给定时,基于损失函数的模型的训练误差 (training error) 和模型的测试误差 (test error) 就自然成为学习方法评估的标准。但是,统计学习方法具体采用的损失函数未必是评估时使用的损失函数。这句理解下,参考下在数据科学比赛中给出的评分标准,与实际学习采用的损失函数之间的关系。过拟合在多项式函数拟合中可以看到,随着多项式次数(模型复杂度)的增加,训练误差会减小,直至趋向于0 ,但是测试误差却不如此,它会随着多项式次数(模型复杂度)的增加先减小而后增大原创 2020-08-22 17:29:00 · 561 阅读 · 0 评论 -
统计学习方法学习笔记(一)统计学习方法的分类和简介,统计学习方法三要素(模型,策略和算法)
文章目录统计学习分类基本分类按模型进行分类按算法进行分类按技巧分类统计学习方法三要素实现统计学习方法的步骤如下:模型策略算法统计学习分类基本分类监督学习 无监督学习 强化学习 有时还包括 半监督学习 主动学习。····························································································监督学习:根据已有的数据集,知道输入和输出结果之间的关系。根据这种已知的关系,训练得到一个最优的模型。通原创 2020-08-21 18:42:57 · 1244 阅读 · 0 评论