模型
文章平均质量分 54
整理
Jimsum173
这个作者很懒,什么都没留下…
展开
-
第七部分——支持向量机(SVM)
第一部分:环境配置1.anaco的使用以及安装等(略)2.编辑器的选择与使用4.anaconda与jupyter5..dir()与help()第二部分数据读取:数据读取主要包括dataset与dataloader,dataset就像是在垃圾堆(数据集)里面找到自己想要的数据,Dataset主要是提供一种方式获取数据机器lebel并计算数据长度,dataloader主要是为后面的网络提供不同的数据形式。代码实现:一般分为训练和验证集:然后图片的组织形式分为两种原创 2021-11-07 15:03:18 · 63 阅读 · 0 评论 -
卷积神经网络(CNN)
1.应用类别:适合图像处理,以及不可以交换行列的情况。(表格可以交换行与列结果不变)2.基本结构:输入-卷积-池化-全连接-softmax3.卷积卷积运算:略常用卷积算子(卷积核维度=f):以下为常用的横向识别算子,如需纵向,可以转过来,卷积核维数为f,一般情况下f为基数,方便填充。关于padding:(填充值=p)假设输入维数为n,卷积核的维数为f,则输出维数会比输入维数要少为:(n-f+1),这样会使得输出越来越小(压缩主要靠池化和大卷积步长),边缘信息被阉割,所以使用.原创 2021-11-07 15:01:20 · 265 阅读 · 0 评论 -
第六部分:机器学习的模型评估与系统设计
第一部分:模型评估1.改进模型的方法常规的方法是增加训练样本数量,但是往往也是实现难度最高的,往往还有以下几类方法1.尝试减小特征的数量2.尝试获得更多的特征3.尝试增加多项式特征4.尝试减小正则化程度5.尝试增加正则化程度2.评估一个假设的方法各种类型的数据混淆后,将70%的数据作为训练集,将30%的数作为测试集。在训练集训练出模型的参数后,对于线性回归模型,直接利用测试机算出代价函数。对于逻辑回归模型,除了利用测试集计算代价函数外,也可以对测试集使用误比例分析原创 2021-10-25 14:34:36 · 312 阅读 · 0 评论 -
第五部分:神经网络
chapter1 神经网络的表述1.原创 2021-10-23 22:57:58 · 195 阅读 · 0 评论 -
第四部分:正则化
1.过拟合问题(Overfitting)问题:如下图三,如果特征非常多,可以拟合出一个非常复杂并适合训练集的函数,但是对于新数据却基本上失去了分类功能。也即:x次数越高,拟合得越好,但是相应的预测能力也变差,比如 回归问题:如分类问题:解决方案: *丢弃一些不要的特征.可以手工选择,也可以选择一些模型选择算法(例:PCA) *正则化。也即保持特征,减小参数大小。2.代价函数问题:我们的模型是,正是这些高次项导致...原创 2021-10-22 16:49:11 · 99 阅读 · 0 评论 -
第三部分:逻辑回归
1.分类问题(Logistic Regression)应用场景:预测的变量y是离散的值应用举例:是否垃圾邮件;肿瘤分类;2.假说表示问题:例如在肿瘤判断的模型中,原创 2021-10-22 11:30:12 · 106 阅读 · 0 评论 -
第二部分:线性回归
第一部分:多变量线性回归1.多特征例:房子价格决定于,房间个数、房间尺寸、位置等符号:n=特征数量=第i个训练实例,也即特征矩阵的第i行=特征矩阵的第i行第j个特征,也即第i个训练实例的第j个特征支持多变量的假设 ℎ 表示为:此时,模型参数是n+1维的向量,任何一个训练实例也都是n+1维的向量,因此特征矩阵X的维度是m*(n+1),基于矩阵运算,公式可简化为2.多变量梯度下降期望:参数:代价函数:目标:找到使得最小的参数矩阵梯度下降:..原创 2021-10-21 15:57:49 · 201 阅读 · 0 评论 -
机器学习笔记总结
第二部分:线性回归_Jimsum173的博客-CSDN博客原创 2021-10-21 16:01:20 · 59 阅读 · 0 评论