- 博客(4)
- 问答 (1)
- 收藏
- 关注
原创 python之标准化
1.使用sklearn库:scikit-learn是一个常用的机器学习库,其中提供了StandardScaler类用于标准化数据。可以先创建一个StandardScaler对象,然后使用其fit方法拟合数据并计算均值和方差,最后使用transform方法对数据进行标准化。3.使用numpy库:numpy库是一个功能强大的数值计算库,也提供了一些函数用于标准化操作。可以使用mean函数计算均值,使用std函数计算标准差,然后使用简单的数学运算对数据进行标准化。以上是三种常见的标准化操作方式。
2023-09-10 19:55:56 2556 1
原创 学习笔记——pipeline是干嘛的
sklearn.pipeline.Pipeline 是scikit-learn库中的一个类,用于将多个数据处理步骤(例如特征提取、预处理和模型训练)组合成一个整体的机器学习流水线。Pipeline类的主要目的是将数据处理流程封装为一个可执行的模型对象,使得数据的处理过程更加简洁、可读性更高,并且方便进行交叉验证和模型评估。通过使用Pipeline,可以将多个数据处理和模型训练步骤组织在一起,形成一个整体的机器学习流水线,并简化机器学习工作流程的实现和管理。
2023-09-01 16:06:43 326 1
原创 学习笔记——sklearn库中PolynomialFeature类的介绍
即,只有原始特征和它们的乘积项会被生成。其中,x[0] ** 2 和 x[1] ** 2 表示原始特征 x[0] 和 x[1] 的平方项,x[0] ** 2 * x[1] 表示原始特征 x[0] 的平方项与 x[1] 的乘积项。总结来说,fit(X, y)用于训练模型,而fit_transform(X, y)用于拟合并转换数据,常见于需要对数据进行预处理或特征工程的情况。x[0] ** 2、x[1] ** 2 和 x[0] ** 2 * x[1] 被排除,因为它们是相同输入特征的高次方项。
2023-09-01 16:06:01 469 1
原创 关于学习《机器学习算法代码实现》的问题,主要使用的是sklearn工具包遇到的问题汇总
在之前的学习中 我们比较了三种策略:批量梯度下降,随机梯度下降,和小批量梯度下降Mini Batch方法,根据效果显示,批量梯度下降得到的拟合效果最好,直接逼近最优theta,但是缺点是速度太慢,需要用到的数据量巨大,耗费资源多,而且数据集越大,它的效率越低,随机梯度下降的范围太广,无法确定而且具有随机性,最后得出小批量梯度下降具有更实用的可用性,它的范围可确定且因为只取一小部分的数据集,每次进行的打乱操作shuffled(np.random.permutation)能确保实验数据不单一。
2023-08-29 15:53:07 189 1
Open CV卷积核外圈元素不存在,代码运行不起来。怎么加判断语句,让代码运行起来。
2022-08-19
CV2图片显示闪退,报错是什么原因
2022-08-18
OpenCV图片打不开
2022-08-17
图片路径:怎么样才能让OpenCV打开图片并读取像素点啊
2022-08-17
Python OpenCV的安装,这这是什么意思求告知
2022-08-17
TA创建的收藏夹 TA关注的收藏夹
TA关注的人