第十次实验
一、上传压缩包、解压,这里压缩包是zip形式,所以解压用unzip
unzip pdi-ce-7.0.0.0-25.zip
- 进入hive下的lib目录下,将mysql-connector-java.jar复制到/home/hadoop/software/data-integretion
- 查看并进入pentaho-big-data-plugin下
四、修改参数active.hadoop.configuration=hdp24
- 将core-site.xml、mapred-site.xml、yarn-site.xml分别复制到目录/home/hadoop/software\data-integration\plugins\pentaho-big-data-plugin\hadoop-configurations\hdp24
先进入 cd /home/hadoop/software/hadoop-3.3.0/etc/hadoop/
分别复制文件
复制成功:
- 启动kettle中的spoon.sh脚本
启动spoon.sh这一步不能在finalshell或者别的上面启动,只能在虚拟机中启动(启动命令:./spoon.sh)
如图启动成功:
点击测试,进行测试连接,出现错误,原因是9000端口没有启动,需要启动集群
启动集群:
连接成功!!!