from sklearn.model_selection import train_test_split
以前都是使用pycharm来运行代码,现在使用jupyter进行实验
要分割,回顾一下
使用sklearn的训练集返回一个Bunch的继承自字典类型的,然后就可以使用.属性或者是[""]这种方式查看属性,有data,target,feature_names
然后用sklearn 中的model_selection进行划分训练集和测试集,然后用四个参数x,y,train,test进行接受,以用于今后进行对数据的操作
如果你在需要设置随机数种子的地方都设置好,那么当别人重新运行你的代码的时候就能得到完全一样的结果,复现和你一样的过程。
random_state参数:
例如:在sklearn可以随机分割训练集和测试集(交叉验证),只需要在代码中引入model_selection.train_test_split就可以了:
from sklearn import model_selection
x_train, x_test, y_train,y_test=model_selection.train_test_split(x,y,test_size=0.2,random_state=0)
这里的random_state就是为了保证程序每次运行都分割一样的训练集和测试集。否则,同样的算法模型在不同的训练集和测试集上的效果不一样。
当你用sklearn分割完测试集和训练集,确定模型和初始参数以后,你会发现程序每运行一次,都会得到不同的准确率,无法调参。这个时候就是因为没有加random_state。加上以后就可以调参了。