Kaggle竞赛:Titianic——随机森林(8.4)

目录

参考资料

知识点——遍历目录和文件

1. 导入包

2. 读入数据

3. 查看前5行数据

4. EDA:筛选特定值和某个列

5. 分类变量转化为哑变量

6. 随机森林

7. 预测

8. 导出

随机森林全文代码


参考资料

知识点——遍历目录和文件

  • 获取当前文件夹下面的所有文件(不含文件夹)
import os
# os.walk("name")中的"name"为当前工作目录下的文件夹的名字!
for curDir, dirs, files in os.walk(".idea"):
    for file in files:
        print(os.path.join(curDir, file))
# curDir表示当前文件夹的目录,dirs表示子文件夹,files表示文件
  • 获取当前文件夹下的所有子文件夹和文件
import os
# 扫描文件夹下的所有子目录和文件
for curDir, dirs, files in os.walk(".idea"):
    print("====================")
    print("现在的目录:" + curDir)
    print("该目录下包含的子目录:" + str(dirs))
    print("该目录下包含的文件:" + str(files))
  • 自底向上获取该文件夹下的目录

import os
# 自底向上扫描该文件夹下的目录
for curDir, dirs, files in os.walk(".idea", topdown=False):
    print("====================")
    print("现在的目录:" + curDir)
    print("该目录下包含的子目录:" + str(dirs))
    print("该目录下包含的文件:" + str(files))
  • 获取特定后缀(如.txt)的文件

# 使用os.walk输出某个特定后缀(比如.txt)的文件
import os
​
for curDir, dirs, files in os.walk(".idea"):
    for file in files:
        if file.endswith(".txt"):
            print(os.path.join(curDir, file))
  • 获取所有子文件夹的名字

# 使用os.walk输出所有的文件夹名字
import os
for curDir, dirs, files in os.walk(".idea"):
    for dir in dirs:
        print(dir)

1. 导入包

import numpy as np  # 处理矩阵
import pandas as pd  # 数据处理、导入导出

2. 读入数据

train = pd.read_csv('E:/【桌面】/titanic/train.csv')
test = pd.read_csv('E:/【桌面】/titanic/test.csv')

3. 查看前5行数据

print(train.head())
print(test.head())

4. EDA:筛选特定值和某个列

  • 多少女士获救?

women = train.loc[train.Sex == 'female']['Survived']
# 选取性别为female的所有列,再筛选其中的一列“Survived”
# print(women)
rate_women = sum(women)/len(women)
# 获救为1,死为0。可得获救占比
print(rate_women)
  • 多少男士获救?

man = train.loc[train.Sex == 'male']['Survived']
rate_man = sum(man)/len(man)
print(rate_man)

5. 分类变量转化为哑变量

features = ["Pclass", "Sex", "SibSp", "Parch"]
# 筛选出分类变量用来建模
X = pd.get_dummies(train[features])
# 把分类变量转化为哑变量
X_test = pd.get_dummies(test[features])
# 测试集同理
print(X_test)

6. 随机森林

from sklearn.ensemble import RandomForestClassifier
y = train["Survived"]
# 获取模型拟合的Y
model = RandomForestClassifier(n_estimators=100, max_depth=5, random_state=1)
# n_estimators 随机森林中树的数量
# max_depth 树的最大深度
# random_state 类似随机种子,每次构建的模型是相同的,生成的数据集是相同的,每次拆分的结果也是相同的
model.fit(X, y)

7. 预测

predictions = model.predict(X_test)
# 导入测试集的X,得到Y
# 这时的Y是一个列表,没有列名
print(predictions)

8. 导出

output = pd.DataFrame({'PassengerId': test.PassengerId, 'Survived': predictions})
# 调整输出格式,左列为测试集的ID,右列为预测的值,把字典转化为dataframe
output.to_csv('my_submission_RandomForest.csv', index=False)
# 输出为csv
print("Your submission was successfully saved!")

随机森林全文代码

# 1.导入包
import numpy as np  # 处理矩阵
import pandas as pd  # 数据处理、导入导出
​
# import os
# # os.walk("name")为当前工作目录下的文件夹的名字!
# for curDir, dirs, files in os.walk(".idea"):
#     for file in files:
#         print(os.path.join(curDir, file))
# # curDir表示当前目录,dirs表示包含子目录,files表示文件
# # 获取当前目录下的所有文件
#
# import os
# # 扫描文件夹下的所有子目录和文件
# for curDir, dirs, files in os.walk(".idea"):
#     print("====================")
#     print("现在的目录:" + curDir)
#     print("该目录下包含的子目录:" + str(dirs))
#     print("该目录下包含的文件:" + str(files))
#
# import os
# # 自底向上扫描该文件夹下的目录
# for curDir, dirs, files in os.walk(".idea", topdown=False):
#     print("====================")
#     print("现在的目录:" + curDir)
#     print("该目录下包含的子目录:" + str(dirs))
#     print("该目录下包含的文件:" + str(files))
#
#
# # 使用os.walk输出某个特定后缀(比如.txt)的文件
# import os
#
# for curDir, dirs, files in os.walk(".idea"):
#     for file in files:
#         if file.endswith(".txt"):
#             print(os.path.join(curDir, file))
#
# # 使用os.walk输出所有的文件夹名字
# import os
# for curDir, dirs, files in os.walk(".idea"):
#     for dir in dirs:
#         print(dir)
​
# 2.读入数据
train = pd.read_csv('E:/【桌面】/titanic/train.csv')
test = pd.read_csv('E:/【桌面】/titanic/test.csv')
​
# 3.查看前六行
# print(train.head())
# print(test.head())
​
# 4.EDA筛选特定列:某列特定值&某个列
# 多少女士获救?
women = train.loc[train.Sex == 'female']['Survived']
# 选取性别为female的所有列,再筛选其中的一列“Survived”
# print(women)
rate_women = sum(women)/len(women)
# 获救为1,死为0。可得获救占比
print(rate_women)
#
# 多少男士获救?
man = train.loc[train.Sex == 'male']['Survived']
rate_man = sum(man)/len(man)
print(rate_man)
​
# 5.分类变量转化为哑变量
features = ["Pclass", "Sex", "SibSp", "Parch"]
# 筛选出分类变量用来建模
X = pd.get_dummies(train[features])
# 把分类变量转化为哑变量
X_test = pd.get_dummies(test[features])
# 测试集同理
# print(X_test)
​
# 6.随机森林
from sklearn.ensemble import RandomForestClassifier
y = train["Survived"]
# 获取模型拟合的Y
model = RandomForestClassifier(n_estimators=100, max_depth=5, random_state=1)
# n_estimators 随机森林中树的数量
# max_depth 树的最大深度
# random_state 类似随机种子,每次构建的模型是相同的,生成的数据集是相同的,每次拆分的结果也是相同的
model.fit(X, y)
​
# 7.预测
predictions = model.predict(X_test)
# 导入测试集的X,得到Y
# 这时的Y是一个列表,没有列名
print(predictions)
​
# 8.导出
output = pd.DataFrame({'PassengerId': test.PassengerId, 'Survived': predictions})
# 调整输出格式,左列为测试集的ID,右列为预测的值,把字典转化为dataframe
output.to_csv('my_submission_RandomForest.csv', index=False)
# 输出为csv
print("Your submission was successfully saved!")

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值