![](https://img-blog.csdnimg.cn/c6da4bef745c419094d325d519465941.png?x-oss-process=image/resize,m_fixed,h_224,w_224)
机器学习基础
文章平均质量分 91
机器学习基础知识学习
小羊和小何
渡人者自渡
展开
-
机器学习基础:概率和熵
机器学习基础:概率和熵原创 2022-05-26 02:56:42 · 1611 阅读 · 0 评论 -
机器学习基础:朴素贝叶斯
机器学习基础:朴素贝叶斯原创 2022-05-26 15:19:29 · 394 阅读 · 0 评论 -
机器学习基础:离散和连续数据
对于离散和连续数据,我们有高斯(Gaussian)贝叶斯和核心密度估计(Kernel density estimation)贝叶斯。原创 2022-05-22 22:23:02 · 4006 阅读 · 0 评论 -
机器学习基础:模型评估(上)
什么是一个优秀的分类器:监督下的分类器学习是将属性映射到类标签上 。我们训练分类器的目标是泛化:将正确的类别标签分配给从未见过的实例(预测)。如何确定一个好的分类器?在一些训练数据上进行训练。 在测试数据上进行测试(在训练期间未见过)。 在测试数据上评估性能。原创 2022-05-22 16:07:01 · 809 阅读 · 1 评论 -
机器学习基础:决策树
ID-3的优点:在基本监督学习中受到高度评价;训练和分类速度快;高度可解释性。ID-3 的缺点:容易过拟合;容易受不相关特征的影响;偏爱nomial类型的特征。原创 2022-05-24 12:54:24 · 540 阅读 · 0 评论 -
机器学习基础:基于样本的学习——KNN
对监督学习来说:每个样本可以看做是一个包含个特征的元组同时拥有一个表明类别的标签。机器学习的目的:根据数据提供的标签,试图构建一个模型,这个模型可以代表整个数据集的输入和输出关系。instance-based learning:需要将进行标注的 instance 保存在内存中;直接从 instance 中学习(而不建立任何的模型);也称为 memory-based learning。原创 2022-05-24 19:54:27 · 1534 阅读 · 0 评论 -
机器学习基础:逻辑回归
逻辑回归的任务是分类,它应用于二分类(1/0)任务,并给出相应的概率。举一些具体的应用场景:区分邮件是否是垃圾邮件(1:spam,0:no)银行判断是否给用户办理信用卡(1:yes,0:no)但是二分类问题并不是逻辑回归可以解决的极限,二分类问题可以扩展到多分类问题。既然逻辑回归解决的是分类问题,那么我们为什么不叫它逻辑分类呢?这是因为逻辑回归的思想是使用回归解决分类问题。在下面的学习中我们会具体体现这一点。2. 为什么需要逻辑回归当我们去解决二分类.原创 2022-04-21 08:45:23 · 2804 阅读 · 0 评论 -
机器学习基础:模型集成/集成学习
集成学习原名为,它是根据训练数据构造一组基分类器(base classifier),通过聚合每个基分类器的输出来进行分类。原创 2022-04-30 01:40:11 · 4770 阅读 · 0 评论 -
机器学习基础:特征选择
需要特征选择的原因:数据集中往往包含一些噪声和无用的特征,这些特征就是垃圾,如果我们放任它们参与训练不加以选择的话,会导致模型输出垃圾的结果。原创 2022-05-02 14:24:33 · 1909 阅读 · 0 评论 -
机器学习基础:模型评估(下)
1. 引言在博文《机器学习基础:模型评估(上)》里,我们谈论了模型评估的第一阶段:交叉验证,混淆矩阵,精确度和错误率。本篇博文进一步的谈论模型评估:如何衡量一个模型是否足够好? 什么时候应该停止模型的训练? 如何进行超参数的调整? 哪几种类型的原因导致模型的表现变差? 找出导致模型性能差的原因并进行修正?2. 进一步评估除了上面说的那些评估的方法和指标,我们必须还关注模型的:泛化性:用来衡量分类器从训练实例中归纳出预测目标函数的能力;如果一个模型的泛化性够好,就代表举原创 2022-05-25 15:08:29 · 1321 阅读 · 0 评论 -
机器学习基础:神经网络——感知机
表示学习(representation Learning)是神经网络的一个常见应用:表示学习的基本思路,是找到对于原始数据更好的表达,以方便后续任务(比如分类)。机器学习中,同样的数据的不同表达,会直接决定后续任务的难易程度(换言之,表示方法的选择通常依赖于后续任务的需求),因此找到好的数据表示往往是机器学习的核心任务。例如图像相关的任务,数据的特征维度太高(通常在几十万上百万的维度,因为图像的每个像素点都是一个特征)。原创 2022-05-26 23:11:52 · 3234 阅读 · 1 评论