泰坦尼克号数据处理与预测

640?wx_fmt=jpeg


作者:罗罗攀,林学的研究僧。Python中文社区专栏作者,《从零开始学Python网络爬虫》作者。《从零开始学Python数据分析:视频教学版》作者。


之前我们用过传统的机器学习算法预测过泰坦尼克号数据的生还情况,这次我们使用神经网络算法来进行建模。

数据处理

数据情况

这里的数据来源与kaggle上的数据,读者可以自行进行下载,我们通过pandas读取,首先看看数据的基本情况。

 
 
  1. import numpy as np

  2. import pandas as pd


  3. data = pd.read_csv('titanic.csv')

  4. data.head()

640?wx_fmt=png

我们使用的字段有下面几个:

  • Survived:是否生还

  • Pclass:船舱等级

  • Sex:性别

  • Age:年龄

  • SibSp:手足和配偶在船上的数量

  • Parch:双亲和手足在船上的数量

  • Fare:费用

  • Embarked:登船港口

我们把这些字段筛选出来。

640?wx_fmt=png

缺失值处理

首先,我们看看数据的缺失情况。

 
 
  1. data.isnull().sum()

640?wx_fmt=png

这里有两个字段有缺失值,age我们用平均值,embarked我们用最多的值进行填充。

 
 
  1. age_mean = data['Age'].mean()

  2. data['Age'] = data['Age'].fillna(age_mean)

  3. data['Embarked'] = data['Embarked'].fillna('S')

性别和embarked
  • 性别需要换成0和1

  • embarked进行哑变量

 
 
  1. data['Sex']= data['Sex'].map({'female':0, 'male': 1}).astype(int)


  2. data = pd.get_dummies(data=data,columns=['Embarked'])

640?wx_fmt=png

划分数据集

接着我们按0.8划分数据集。

 
 
  1. X = data.iloc[:,1:]

  2. Y = data.iloc[:,0]

  3. from sklearn.model_selection import train_test_split

  4. X_train, X_test, y_train, y_test = train_test_split(X, Y, test_size=0.2, random_state=33)

标准化

最后我们把数据进行标准化,这样数据我们就处理完了。

 
 
  1. from sklearn import preprocessing

  2. scale = preprocessing.MinMaxScaler()

  3. X_train = scale.fit_transform(X_train)

  4. X_test = scale.transform(X_test)


MLP建模

模型结构

模型结构为:

  • 输入层,也就是9个神经元(对应9个字段)

  • 隐藏层1,40个神经元

  • 隐藏层2,30个神经元

  • 输出层,1个神经元

建立模型
 
 
  1. from keras.models import Sequential

  2. from keras.layers import Dense,Dropout


  3. model = Sequential()


  4. model.add(Dense(units=40, input_dim=9,

  5.                kernel_initializer='uniform',

  6.                activation='relu'))


  7. model.add(Dense(units=30,

  8.                kernel_initializer='uniform',

  9.                activation='relu'))


  10. model.add(Dense(units=1,

  11.                kernel_initializer='uniform',

  12.                activation='sigmoid'))

训练模型
 
 
  1. model.compile(loss='binary_crossentropy',

  2.              optimizer='adam', metrics=['accuracy'])


  3. train_history =model.fit(x=X_train,

  4.                         y=y_train,

  5.                         validation_split=0.1,

  6.                         epochs=30,

  7.                         batch_size=30,verbose=2)

640?wx_fmt=png

可以看出模型的精度还是比较高的。

测试
 
 
  1. scores = model.evaluate(x=X_test,

  2.                        y=y_test)

  3. scores[1]

  4. # result 0.804

这样,我们的泰坦尼克号数据预测工作就完成了。

640?wx_fmt=png


640?wx_fmt=gif


Python中文社区作为一个去中心化的全球技术社区,以成为全球20万Python中文开发者的精神部落为愿景,目前覆盖各大主流媒体和协作平台,与阿里、腾讯、百度、微软、亚马逊、开源中国、CSDN等业界知名公司和技术社区建立了广泛的联系,拥有来自十多个国家和地区数万名登记会员,会员来自以公安部、工信部、清华大学、北京大学、北京邮电大学、中国人民银行、中科院、中金、华为、BAT、谷歌、微软等为代表的政府机关、科研单位、金融机构以及海内外知名公司,全平台近20万开发者关注。


640?wx_fmt=png


▼ 点击下方阅读原文,免费成为社区注册会员 

  • 2
    点赞
  • 15
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值