自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 机器学习——主成分分析

通过本次PCA降维实验,学习了PCA的基本理论和方法,掌握了如何实现PCA降维,并了解了在实际应用中可能遇到的问题和解决方案。代码实现中的错误:在编写PCA算法的代码实现时,可能会遇到索引错误、维度不匹配等问题。这要求仔细检查代码并进行调试。性能考量:对于大规模数据集,PCA的计算可能会很耗时,特别是特征值和特征向量的计算。这可能需要使用更高效的算法或并行计算。

2024-06-22 20:49:02 229

原创 机器学习——线性SVM实现鸢尾花分类

支持向量是指在支持向量机(SVM)算法中,被划分为不同类别的数据点中,离分类超平面最近的一些点。这些点被称为支持向量,因为它们对于分类超平面的位置和方向起到了重要的支持作用。SVM是一种强大的机器学习算法,特别适用于具有明显类别间隔的数据集。核函数的选择取决于数据的线性可分性,线性核适用于线性问题,而非线性核适用于更复杂的数据结构。参数C的调整可以平衡模型的复杂度和错误惩罚,需要根据具体问题进行优化。可视化工具(如matplotlib)可以更好地理解模型的决策过程和性能。

2024-06-10 21:23:58 348

原创 逻辑回归实验

训练数据,密度和含糖率# 测试数据该实验利用逻辑回归模型对含糖率和密度数据进行训练,并在测试集上进行预测。逻辑回归通过学习训练数据,找到一个决策边界,将特征空间划分为两个区域,从而实现对样本的分类。绘制了散点图展示了训练数据和测试数据的分布情况,并在测试集预测结果的散点图中画出了Sigmoid函数的决策分界线,用于展示模型的分类效果。完成该实验不仅让我掌握逻辑回归模型的基本流程,还学会了如何利用可视化工具更好地理解数据和模型的表现。

2024-05-28 16:41:36 422

原创 朴素贝叶斯算法

这个实验展示了朴素贝叶斯分类器在简单分类问题上的应用,以及如何利用概率统计的方法进行分类任务。使用朴素贝叶斯分类器进行简单的分类任务,包括先验概率的计算、条件概率的计算以及分类器的构建和预测。

2024-05-15 12:39:23 488 1

原创 构建决策树

基尼指数是一种衡量数据不纯度的标准,常用于决策树算法中。基尼指数最初是用来衡量一个国家或地区居民收入差距的指标。在经济学中,它表示在全部居民收入中,用于进行不平均分配的那部分收入占总收入的百分比。基尼指数的值介于0到1之间,值越大,表示不平等程度越高;值越小,表示收入分配越均匀。在机器学习领域,尤其是在构建决策树时,基尼指数被用来度量数据集的不纯度。数据集的不纯度是指数据集中的元素被错误分类的程度。

2024-04-29 22:20:46 651

原创 实验二——模型评估

当评估分类模型性能时,常用的指标包括准确率、精确率、召回率、F1分数和混淆矩阵。下面对这些指标进行详细解释:1.准确率(Accuracy): 准确率是指分类器正确分类的样本数占总样本数的比例。计算公式为:准确率 = (TP + TN) / (TP + TN + FP + FN),其中TP表示真正例(模型将正类别预测为正类别的样本数)、TN表示真负例(模型将负类别预测为负类别的样本数)、FP表示假正例(模型将负类别预测为正类别的样本数)、FN表示假负例(模型将正类别预测为负类别的样本数)。

2024-04-15 10:54:19 775

原创 K近邻算法+模型评估

K近邻(K-Nearest Neighbors,KNN)算法是一种基本的分类和回归方法,其核心思想是通过找出与待分类样本最相似的K个训练样本来进行预测。

2024-03-31 11:27:21 786

原创 安装Anaconda

出现版本号,配置成功!

2024-03-11 16:39:05 334

Hospital order system.sln

Hospital order system.sln

2022-12-29

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除