前言:
小细节写在这里提醒一下自己
# 相关系数法:计算各个特征的相关系数
#相关性矩阵
corrDf = full.corr()
print(corrDf)
# 查看各个特征与生成情况(Survived)的相关系数,
# ascending=False表示按降序排列
print(corrDf['Survived'].sort_values(ascending =False))
#print(corrDf)
# 根据各个特征与生成情况(Survived)的相关系数大小,选择了这几个特征作为模型的输入:
特征选择如下 axis=1表示按行操作
full_X = pd.concat( [titleDf,#头衔
pclassDf,#客舱等级
familyDf,#家庭大小
full['Fare'],#船票价格
cabinDf,#船舱号
embarkedDf,#登船港口
full['Sex']#性别
] , axis=1 )
理论
z-score的调库
代码:
# -*- coding: utf-8 -*-
"""
Created on Thu Nov 21 18:42:13 2019
@author: Administrator
"""
'''step1 调用包'''
## 导入训练数据
import pandas as pd
import numpy as np
from sklearn.model_selection import train_test_split
#调用算法、数据集、预处理
from sklearn import preprocessing
from sklearn import neighbors
#调用准确率计算函数
from sklearn.metrics import accuracy_score
'''step2 导入数据'''
titanic = pd.read_csv("data_titanicKNN.csv")
'''step3 数据预处理'''
# 把带类标号数据(用于训练和检验)
# 和待判(最后7行)数据分开
data_used = titanic.iloc[:886,]
#Python从0开始计数,故上一行代码从第0行取到第885行
#共提取了886行。
#最后5行为待判集合,去掉第一列未知的类标号
data_unused = titanic.iloc[886:,1:]
'''step4 划分数据集'''
X = data_used.iloc[:,1:]
y= data_used.iloc[:,0]
X_train, X_test, y_train, y_test = train_test_split(
X, y, test_size = 0.25, random_state = 123)
#数据标准化
scaler = preprocessing.StandardScaler().fit(X_train)
X_train = scaler.transform(X_train)
#用训练集的数字特征对测试集进行标准化
X_test