自定义博客皮肤VIP专享

*博客头图:

格式为PNG、JPG,宽度*高度大于1920*100像素,不超过2MB,主视觉建议放在右侧,请参照线上博客头图

请上传大于1920*100像素的图片!

博客底图:

图片格式为PNG、JPG,不超过1MB,可上下左右平铺至整个背景

栏目图:

图片格式为PNG、JPG,图片宽度*高度为300*38像素,不超过0.5MB

主标题颜色:

RGB颜色,例如:#AFAFAF

Hover:

RGB颜色,例如:#AFAFAF

副标题颜色:

RGB颜色,例如:#AFAFAF

自定义博客皮肤

-+
  • 博客(6)
  • 收藏
  • 关注

原创 机器学习算法(三):基于LightGBM的分类预测

LightGBM是一种高效、快速、准确的机器学习算法,在处理大规模数据和解决分类问题时表现优异。在使用LightGBM时,需要注意调节参数、进行特征工程等步骤,以优化模型性能。

2024-05-10 15:18:51 255

原创 机器学习算法(二):基于XGBoost的分类预测

XGBoost是一种强大的机器学习算法,具有高效性、准确性和鲁棒性等优点,在实际应用中被广泛使用。在使用XGBoost时,需要注意调节参数、进行特征工程等步骤,以优化模型性能。

2024-05-10 15:10:10 178

原创 机器学习算法(一):基于逻辑回归分类预测

一,学习知识点概要逻辑回归是一种常用的机器学习算法,主要用于解决分类问题。它的原理比较简单,适用于二分类问题,即将样本分为两个类别。

2024-05-10 14:56:11 276

原创 AI训练营机器学习训练营

LightGBM采用迭代预测误差的方法串联。min_data_in_leaf 这是处理过拟合问题中一个非常重要的参数. 它的值取决于训练数据的样本个树和 num_leaves参数. 将其设置的较大可以避免生成一个过深的树, 但有可能导致欠拟合. 实际应用中, 对于大数据集, 设置其为几百或几千就足够了.。提出了带深度限制的 Leaf-wise 算法,抛弃了大多数GBDT工具使用的按层生长 (level-wise) 的决策树生长策略,而使用了带有深度限制的按叶子生长策略,可以降低误差,得到更好的精度。

2024-05-07 16:47:45 216 1

原创 AI训练营机器学习训练营

我们构建决策树1训练后预测为2600元,我们发现有400元的误差,那么决策树2的训练目标为400元,但决策树2的预测结果为350元,还存在50元的误差就交给第三棵树……在节点分裂时,只有分裂后损失函数的值下降了,才会分裂这个节点。这个参数的值越大,算法越保守。这个参数是用来控制XGBoost的正则化部分的。XGBoost的基模型是CART回归树,它有两个特点:(1)CART树,是一颗二叉树。减小这个参数的值,算法会更加保守,避免过拟合。用来控制树的每一级的每一次分裂,对列数的采样的占比。

2024-05-07 16:46:25 236

原创 AI训练营机器学习训练营

逻辑回归(Logistic regression,简称LR)虽然其中带有"回归"两个字,但逻辑回归其实是一个分类模型,逻辑回归最为突出的两点就是其模型简单和模型的可解释性强。模型清晰,有对应的概率学理论基础。逻辑回归从其原理上来说,逻辑回归其实是实现了一个决策边界:对于函数logi(z)=1/(1+e^(-z)),当z=>0时,y=>0.5,分类为1当z<0时, y<0.5,分类为0,其对应的y值我们可以视为类别1的概率预测值.对于模型的训练而言:实质上来说就是利用数据求解出对应的模型的特定的w。

2024-05-07 16:43:06 257

空空如也

空空如也

TA创建的收藏夹 TA关注的收藏夹

TA关注的人

提示
确定要删除当前文章?
取消 删除