KNIME + Python = 数据分析+报表全流程

一,Python 数据分析环境

        数据分析领域有很多可选方案,例如SPSS傻瓜式分析工具,SAS专业性商业分析工具,R和python这类需要代码编程类的工具。个人选择是python这类,包括pandas,numpy,matplotlib,sklearn,keras。基于jupyter或者zeppelin作为编程界面,可以用python开发出比较清爽的数据分析报告。
        总体来说,jupyter notebook编写的分析结果基本上可以满足要求,但是也有些弊端,例如无法做很好的presentation,虽然可以通过convert slides得到比较好的presentation胶片,但是无法展现直观的数据流和数据分析流程。

理想的数据分析应该包括:清晰的数据流和数据分析流程;直观的数据分析结果报告。

经过对多种开源方案的比较,我选择使用knime+python的方案,可以有以下的优点:
        ① 利用python和相关数据分析库的能力,对数据建模、分析、可视化,这块基于Anaconda;
        ② 利用knime的可视化数据流和report design能力,对数据ETL、建模、分析、报告。

二,knime + python

1. anaconda建立数据分析环境

一般需要使用到的库包括:pandas,seanborn,numpy,scipy,statsmodel,matplotlib,keras,Ten

  • 7
    点赞
  • 13
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
泰坦尼克号数据是一个常用的数据集,被用来进行分析和建模。KNIME是一款数据分析工具,可以用来处理和分析泰坦尼克号数据集。 使用KNIME进行泰坦尼克号数据分析的第一步是导入数据集。可以通过KNIME的数据导入节点来加载CSV文件,然后进行数据预处理。预处理包括数据清洗、缺失值处理和特征工程。 在数据清洗阶段,我们可以使用KNIME的数据处理节点来处理不符合规范的数据,例如删除重复行、删除不必要的列、清洗异常值等。在缺失值处理中,可以使用KNIME的节点填充缺失值,例如使用均值、中位数或众数进行填充。 接下来是特征工程的阶段,这是一个重要的步骤,用于提取出对分类结果有影响的特征。可以使用KNIME的特征选择节点来选择最重要的特征,还可以使用节点进行特征缩放和编码。 在数据准备工作完成后,可以使用KNIME的模型训练节点来训练分类模型。可以选择常见的分类算法,如决策树、逻辑回归、支持向量机等。通过交叉验证和网格搜索来优化模型参数。 在模型训练完成后,可以使用KNIME的模型评估节点来评估模型的性能。可以计算准确率、精确率、召回率等指标,还可以绘制学习曲线和混淆矩阵来进行模型评估。 最后,可以使用KNIME的模型部署节点将训练好的模型应用到新数据上。可以使用KNIME的数据导出节点将结果保存为CSV文件或数据库。 总之,通过使用KNIME进行泰坦尼克号数据分析,我们可以完成从数据导入到模型评估的整个流程。KNIME提供了丰富的数据处理和分析工具,能够帮助我们更好地理解和利用泰坦尼克号数据集。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值