机器学习
文章平均质量分 87
由浅入深,由整体到局部,带你揭开机器学习的面纱
Nowl
想开发出很有意思的AI项目
展开
-
机器学习第15天:GBDT模型
GBDT(Gradient Boosting Decision Tree)也叫做梯度提升决策树,它的主要思想也是集成学习(由名字可以看出GBDT的弱分类器是决策树),即训练多个子模型,结合子模型来得到最终结果,但他们也有一些区别原创 2023-12-08 11:41:23 · 1460 阅读 · 26 评论 -
机器学习库:numpy
在机器学习中,我们除了关注模型的性能外,数据处理更是必不可少,本文将介绍一个重要的数据处理库numpy,将随着我的学习过程不断增加内容原创 2023-11-26 21:35:50 · 677 阅读 · 6 评论 -
机器学习库:pandas
在机器学习中,我们除了关注模型的性能外,数据处理更是必不可少,本文将介绍一个重要的数据处理库pandas,将随着我的学习过程不断增加内容原创 2023-11-26 20:59:24 · 1036 阅读 · 1 评论 -
机器学习第14天:KNN近邻算法
当我们要判断一个数据为哪一类时,我们找与它相近的一些数据,以这些数据的类别来判断新数据k近邻算法几乎没有训练过程,它只需要记住训练集的特征就行,以便之后进行比较,它不需要拟合什么参数可以绘制准确率曲线来找到最好的k值。原创 2023-11-25 14:45:39 · 772 阅读 · 3 评论 -
机器学习第13天:模型性能评估指标
偏差衡量一个模型预测结果和真实值的差距,偏差高往往代表模型欠拟合方差衡量模型在不同数据集上预测的差异,方差高往往代表模型过拟合。原创 2023-11-24 11:31:24 · 1591 阅读 · 20 评论 -
机器学习第12天:聚类
某位著名计算机科学家有句话:“如果智能是蛋糕,无监督学习将是蛋糕本体,有监督学习是蛋糕上的糖霜,强化学习是蛋糕上的樱桃”现在的人工智能大多数应用有监督学习,但无监督学习的世界也是广阔的,因为如今大部分的数据都是没有标签的上一篇文章讲到的降维就是一种无监督学习技术,我们将在本章介绍聚类无监督学习的意义聚类的定义K-Means方法聚类绘制K-Means决策边界。原创 2023-11-22 19:13:02 · 1772 阅读 · 1 评论 -
机器学习第11天:降维
pca主成分分析是一种投影降维方法PCA主成分分析的思想就是:识别最靠近数据的超平面,然后将数据投影到上面。原创 2023-11-21 16:10:49 · 823 阅读 · 11 评论 -
机器学习第10天:集成学习
多个人判断的结合往往比一个人的想法好我们将在下面介绍几种常见的集成学习思想与方法假如我们有一个分类任务,我们训练了多个模型:逻辑回归模型,SVM分类器,决策树分类器,然后我们看他们预测的结果,如果两个分类器预测为1,一个分类器预测为0,那么最后模型判断为1,采用的是一种少数服从多数的思想除了投票分类这种集成方法,我们还有其他方法,例如:使用相同的基础分类器,但是每个分类器训练的样本将从数据集中随机抽取,最后再结合性能,若抽取样本放回,则叫做bagging方法,若不放回,则叫做pasting方法。原创 2023-11-20 18:37:38 · 651 阅读 · 7 评论 -
机器学习第9天:决策树分类
作用:分类原理:构建一个二叉树,逐级条件判断筛选。原创 2023-11-18 13:46:16 · 517 阅读 · 0 评论 -
机器学习第8天:SVM分类
作用:判别种类原理:找出一个决策边界,判断数据所处区域来识别种类简单介绍一下SVM分类的思想,我们看下面这张图,两种分类都很不错,但是我们可以注意到第二种的决策边界与实例更远(它们之间的距离比较宽),而SVM分类就是一种寻找距每种实例最远的决策边界的算法SVM分类是一种经典的分类算法,也叫大间隔分类算法。原创 2023-11-17 21:59:42 · 1226 阅读 · 0 评论 -
机器学习第7天:逻辑回归
使用回归算法进行分类任务思想:将回归值转为概率值,然后找到一个适当的数值,当概率大于这个值时,归为一类,当小于这个值时,归为另一类逻辑回归是一种简单的分类方法,二分类任务就用第一种方法,多分类任务就用第二种方法%5Csigma%5Ctheta。原创 2023-11-17 21:07:53 · 720 阅读 · 0 评论 -
机器学习第6天:线性回归模型正则化
正则化是为了防止模型过拟合原理:在损失函数中加入一个正则项,使模型减少损失的同时还要降低模型复杂度它往往给模型约束,来使它无法完全迎合训练集数据在本文中我们将看到三种正则化方法三种方法思想差不多,只是约束模型复杂度的方法不同。原创 2023-11-16 20:07:42 · 381 阅读 · 0 评论 -
机器学习第5天:多项式回归与学习曲线
学习曲线就是以损失函数为纵坐标,数据集大小为横坐标,然后在图上画出训练集和验证集两条曲线,训练集就是我们用来训练模型的数据,验证集就是我们用来验证模型性能的数据集我们先定义一个学习曲线绘制函数plt.show()简单介绍一下,这个函数接收模型参数,x,y参数,然后在for循环中,取不同数据集大小来计算RMSE损失(就是),然后把曲线绘制出来。原创 2023-11-15 16:04:02 · 317 阅读 · 1 评论 -
机器学习第4天:模型优化方法—梯度下降
在一个多元函数中,某点的梯度方向代表函数增加最快的方向,梯度下降的原理就是,找到损失函数下降最快的方向(与梯度方向相反),然后往这个方向走,最后达到损失函数的最小值,如下图,从高的红色点到达了低的蓝色点,梯度下降就是这样一个过程我们可以得到一个参数更新公式,把参数设为a, 梯度设为grad,那么。原创 2023-11-14 16:44:01 · 259 阅读 · 2 评论 -
机器学习第3天:线性回归
线性回归问题是机器学习中最基本的问题,它常用来预测一些和特征具有线性关系的值,我们在之前的文章中也提到过,可见这篇文章机器学习第1天:概念与体系漫游-CSDN博客。原创 2023-11-12 15:40:44 · 355 阅读 · 4 评论 -
机器学习第2天:训练数据的获取与处理
数据的获取,处理与分析是机器学习中一个重要的过程,好的数据分析与好的算法一样重要。原创 2023-11-11 12:04:42 · 777 阅读 · 1 评论 -
机器学习第1天:概念与体系漫游
当人们听到“机器学习”这个词汇时,可能相到的时某个科幻电影中的机器人。但是近几年来,人工智能已经逐渐出现在了我们生活的方方面面了,人工智能的强大或许会引起一些人的恐慌,担心最终是否会控制人类但当我们了解人工智能的基本原理后,就会发现目前来说,机器很难产生智能,让我们来具体了解机器学习吧。原创 2023-11-10 11:16:43 · 566 阅读 · 4 评论