配置Kettle连接大数据平台HDFS

第十次实验

一、上传压缩包、解压,这里压缩包是zip形式,所以解压用unzip

unzip pdi-ce-7.0.0.0-25.zip

  • 进入hive下的lib目录下,将mysql-connector-java.jar复制到/home/hadoop/software/data-integretion

  • 查看并进入pentaho-big-data-plugin下

四、修改参数active.hadoop.configuration=hdp24

  • 将core-site.xml、mapred-site.xml、yarn-site.xml分别复制到目录/home/hadoop/software\data-integration\plugins\pentaho-big-data-plugin\hadoop-configurations\hdp24

先进入 cd /home/hadoop/software/hadoop-3.3.0/etc/hadoop/

分别复制文件

复制成功:

  • 启动kettle中的spoon.sh脚本

启动spoon.sh这一步不能在finalshell或者别的上面启动,只能在虚拟机中启动(启动命令:./spoon.sh)

如图启动成功:

点击测试,进行测试连接,出现错误,原因是9000端口没有启动,需要启动集群

启动集群:

连接成功!!!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值