自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(10)
  • 收藏
  • 关注

原创 机器学习实验八

PCA的工作就是从原始的空间中顺序地找一组相互正交的坐标轴,新的坐标轴的选择与数据本身是密切相关的。其中,第一个新坐标轴选择是原始数据中方差最大的方向,第二个新坐标轴选取是与第一个坐标轴正交的平面中使得方差最大的,第三个轴是与第1,2个轴正交的平面中方差最大的。通过这种方式获得的新的坐标轴,我们发现,大部分方差都包含在前面k个坐标轴中,后面的坐标轴所含的方差几乎为0。其基本原理是将n维特征映射到k维上,这k维是全新的正交特征,也被称为主成分,这些主成分是在原有n维特征的基础上重新构造出来的k维特征。

2024-01-01 19:55:19 355 1

原创 机器学习实验七

以一个二维平面为例,判定边界是一个超平面(在本图中其实是一条线),它是由支持向量所确定的(支持向量是离判定边界最近的样本点,它们决定了判定边界的位置)。支持向量机(support vector machines)是一种二分类模型,它将实例的特征向量映射为空间中的一些点,SVM 的目的就是想要画出一条线,以 “最好地” 区分这两类点,以至如果以后有了新的点,这条线也能做出很好的分类。SVM的基本原理是通过在特征空间中找到一个超平面,将不同类别的样本分开,并且使得离超平面最近的样本点到超平面的距离最大化。

2023-12-18 21:18:50 400 1

原创 机器学习实验六

逻辑回归和线性回归本质上都是得到一条直线,不同的是,线性回归的直线是尽可能去拟合输入变量X 的分布,使得训练集中所有样本点到直线的距离最短;逻辑回归和线性回归同属于广义线性模型,逻辑回归就是用线性回归模型的预测值去拟合真实标签的的对数概率(此概率是指事件发生的概率与不发生的概率之比)。要找到某个函数的最大值,最好的方法是沿着该函数的梯度方向探寻,探寻到每个点都会重新计算移动方向,只到满足条件。随着x的增 大,对应的函数值将逼近于1;,其也是一种很常见的用来解决二元分类问题的回归方法,它主要是通过。

2023-12-04 19:49:50 59

原创 机器学习实验五

也就是说,在给定事件B发生的条件下,事件A发生的概率等于事件A发生的先验概率。基于特征条件独立性假设,算法学习输入和输出的联合概率分布,然后,利用贝叶斯定理,对于给定的输入特征 x,计算各个输出类别 y 的后验概率。3、条件概率:记事件A发生的概率为P(A),事件B发生的概率为P(B),则在B事件发生的前提下,A事件发生的概率即为条件概率,记为P(A|B)。2、后验概率:是从条件概率而来,由因推果,是基于当下发生了事件之后计算的概率,依赖于当前发生的条件。1、朴素贝叶斯模型有稳定的分类效率。

2023-11-20 20:16:23 75 1

原创 机器学习实验四

决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。后剪枝是指先从训练集生成一颗完整的决策树,然后自底向上对非叶节点进行考察,若将该节点对应的子树替换为叶节点,能带来泛化性能的提升,则将该子树替换为叶节点。预剪枝是指在决策树的生成过程中,对每个节点在划分前先进行评估,若当前的划分不能带来泛化性能的提升,则停止划分,并将当前节点标记为叶节点。

2023-11-06 21:46:53 50

原创 机器学习实验三

P代表的是precision(精准率或查准率),R代表的是recall(召回率或查全率),即PR曲线代表的是精准率与召回率的关系,一般情况下,将recall设置为横坐标,precision设置为纵坐标。在存在不同类别分布的情况下,如果想单纯地比较分类器的性能且剔除类别分布改变的影响,则ROC曲线比较适合,因为类别分布改变可能使得PR曲线发生变化时好时坏,这种时候难以进行模型比较。它与PR曲线中的召回率相同。预测分类模型时,我们希望预测结果越准越好,即希望TP与TN的数量大,而FP与FN的数量小。

2023-10-23 21:30:16 86

原创 机器学习实验二

当k值较小时,是在较小的范围内进行预测,由于与输入的实例相近,算法的近似误差(训练集上的误差)会比较小,但是,如果近邻点是噪声点的话,预测就会出错,导致估计误差(测试集上的误差),即k值过小容易导致KNN算法的过拟合。所谓K近邻,就是K个最近的邻居的意思,说的是每个样本都可以用它最接近的K个邻近值来代表。当k设置为3,测试数据最相近的3个数据中有2个正六边形,1个正方形,则预测结果为正六边形;当k设置为5,测试数据最相近的5个数据中是3个正方形,2个正六边形,此时预测结果为正方形。(二)KNN算法原理。

2023-10-09 21:10:42 84 1

原创 机器学习实验一

8、汉化(根据自身需求选择安装),打开vscode,在左边菜单找到拓展,输入chinese,点击下载,下载完成后重启即可完成。9、找到命令提示符,以管理员身份打开,输入conda --version,可以看到安装完成了。11、创建完成后输入conda activate (环境名),激活环境。6、两个都勾选,然后点击Install,等待下载安装完成。3、打开下载完成的安装包,同意协议,下一步。9、在拓展中输入Python,点击安装。2、下载完成后打开,点击Next。7、然后点击安装,等待安装完成。

2023-09-25 21:38:10 37 1

原创 C++继承 多态

C++继承 多态

2022-01-30 15:02:28 877

原创 C++类和对象

C++类和对象

2022-01-24 17:42:12 282

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除