自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(8)
  • 收藏
  • 关注

原创 机器学习实验——PCA主成分分析

PCA是一种非常实用的数据压缩方法,在使用线性回归和神经网络算法之前都可以先使用PCA对特征进行降维,这样使得数据集更容易使用,显著降低算法的计算开销,还有去除噪声,使结果更加好理解的好处。

2024-01-01 12:33:31 1001 1

原创 机器学习实验——支持向量机

当超平面方程等于0的时候,x便是位于超平面上的点,而f(x)大于0的点对应 y=1 的数据点,f(x)小于0的点对应y=-1的点。也就是正样本在分隔超平面“上方”,负样本在分隔超平面”下方“。这也就意味着超平面函数需要等于0,SVM就是能将两类数据正确划分并且间隔最大的直线。

2023-12-18 00:43:24 961 1

原创 机器学习——Logistic回归

logistic回归的目的是寻找一个非线性函数sigmoid的最佳拟合参数,从而来相对准确的预测分类结果。为了找出最佳的函数拟合参数,最常用的优化算法为梯度上升法,当然我们为了节省计算损耗,通常选择随机梯度上升法来迭代更新拟合参数。并且,随机梯度上升法是一种在线学习算法,它可以在新数据到来时完成参数的更新,而不需要重新读取整个数据集来进行批处理运算。总的来说,logistic回归算法,其具有计算代价不高,易于理解和实现等优点;此外,logistic回归算法容易出现欠拟合,以及分类精度不太高的缺点。

2023-12-04 21:02:36 1266

原创 机器学习实验——贝叶斯分类

朴素贝叶斯法(Naive Bayes model)是基于与特征条件独立假设的分类方法朴素贝叶斯方法是在算法的基础上进行了相应的简化,即假定给定目标值时属性之间相互条件独立。也就是说没有哪个属性变量对于决策结果来说占有着较大的比重,也没有哪个属性变量对于决策结果占有着较小的比重。虽然这个简化方式在一定程度上降低了贝叶斯分类算法的分类效果,但是在实际的应用场景中,极大地简化了贝叶斯方法的复杂性。

2023-11-20 19:30:00 92 1

原创 机器学习实验——决策树

决策树是一个预测模型,它代表的是对象属性与对象值之间的一种映射关系。树中每个节点表示某个对象,而每个分叉路径则代表某个可能的属性值,而每个叶节点则对应从根节点到该叶节点所经历的路径所表示的对象的值。因此,从数据产生决策树的机器学习技术,就是决策树。

2023-11-05 21:56:29 127

原创 机器学习实验——模型评估

错误率是分类错误的样本数占总样本数的比例;错误率越小,模型性能越好。精度是分类正确的样本数占总样本数的比例;精度越高,模型性能越好。查准率是所有被预测为正例的样本中,真正是正例的样本所占的比例;查准率越高,模型对于预测为正例的结果越可信。查全率是所有真实正例中,被正确预测为正例的样本所占的比例;查全率越高,模型对于真实为正例的情况预测的准确程度越高。ROC曲线展示的是不同阈值下的TPR和FPR之间的关系;

2023-10-22 02:41:06 160

原创 机器学习——K-近邻算法(实验二)

knn实验中有一个关键点:k k的取值很大程度决定了实例的准确性,其实k值是KNN算法的一个超参数,k的含义即参考K取值较小时,模型复杂度(容量)高,训练误差会减小,泛化能力减弱;K取值较大时,模型复杂度低,训练误差会增大,泛化能力有一定的提高。如何选择k值,我们可以利用交叉验证不断尝试最优值,从选取一个较小的K值开始,不断增加K的值,然后计算验证集合的方差,最终找到一个比较合适的K值。

2023-10-09 15:19:25 331 1

原创 机器学习实验一(安装软件配置实验环境)

时间:2023年9月12日主题:安装软件配置实验环境。

2023-09-25 21:04:57 54 2

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除