- 博客(6)
- 资源 (2)
- 收藏
- 关注
转载 半监督学习之self-training
文章目录半监督学习之self-training半监督学习之self-training原文章一,半监督学习 半监督学习是一种介于监督式学习和无监督学习之间的学习范式,我们都知道,在监督式学习中,样本的类别标签都是已知的,学习的目的找到样本的特征与类别标签之间的联系。一般来讲训练样本的数量越多,训练得到的分类器的分类精度也会越高。但是在很多现实问题当中,一方面由于人工标记样本的成本十分高昂,导致了有标签的样本十分稀少。而另一方面,无标签的样本很容易被收集到,其数量往往是有标签样本的上百倍。半监督学习(
2022-03-05 13:35:10
1107
原创 sklearn常用trick之shuffle
文章目录sklearn常用trick之shufflesklearn.utils.shuffle小例子(该方法可将数据顺序打乱,避免有序数据对模型的影响,常在数据处理部分使用)sklearn常用trick之shufflesklearn.utils.shufflesklearn.utils.shuffle(*arrays, random_state=None, n_samples=None)小例子(该方法可将数据顺序打乱,避免有序数据对模型的影响,常在数据处理部分使用)import numpy
2022-03-05 13:24:16
2083
原创 sklearn线性回归官方实例学习
文章目录sklearn线性回归官方实例学习(一)sklearn线性回归官方实例学习(一)# 导包import matplotlib.pyplot as pltimport numpy as npfrom sklearn import datasets,linear_modelfrom sklearn.metrics import mean_squared_error,r2_score# 加载数据集diabetes_X, diabetes_y = datasets.load_diabetes
2022-03-04 13:28:23
1189
原创 sklearn随机森林建模调参小例-网格搜索-基础知识-集成算法
随机森林集成算法RandomForestClassifier随机森林是非常具有代表性的bagging集成算法,它的所有基评估器都是决策树。分类树组成的森林就叫做随机森林分类器,回归树集成的森林就叫做随机森林回归器。这里使用的是随机森林分类器重点参数n_estimators 森林中的数量,一般越大越好,但要与所需性能平衡下面进行一个建模的演示# 导入包from sklearn.tree import DecisionTreeClassifierfrom sklearn.ensem
2022-02-21 21:39:34
4024
1
原创 (自学)sklearn决策树基础知识|解决centos7.8 graphviz报错不能画图的问题
sklearn常规流程:from sklearn import tree #导入需要的模块clf = tree.DecisionTreeClassifier()#实例化clf = clf.fit(x_train,y_train) #用训练集训练模型result = clf.score(x_test,y_test) #导入测试集,从接口中调用需要的信息DecisionTreeClassifier重要参数criterioncriterion这个参数是用于决定不纯度
2022-02-19 22:51:27
1344
原创 matplotlib散点图柱状图实例(自学)
matplotlib:关联图correlation散点图import numpy as npimport pandas as pdimport matplotlib as mplimport matplotlib.pyplot as pltimport seaborn as sns%matplotlib inline#让图像在jupyter notebook显示x1 = np.random.randn(10)x2 = x1 + x1**2 - 10#确定画布plt.figure(f
2022-02-18 18:58:05
540
粒子群优化算法的python实现(带例子、详细注释版、迭代结果可视化)
2022-02-19
空空如也
TA创建的收藏夹 TA关注的收藏夹
TA关注的人