前面已经介绍过了离线部署CDH5.16.1 企业真正离线部署CDH5.16.1
准备工作:先选择好自己对应的CDK版本,然后下载好然后上传到cdh 集群
parcels 安装文档 cdk 安装官方文档和下载跳转界面
el 7代表centos7,下载好之后将 .sha1中的1去除掉
接下来:
# 验证下载的kafka是否完好
[root@hadoop003 Kafka_parcels]# sha1sum KAFKA-3.1.1-1.3.1.1.p0.2-el7.parcel
77c8a4ac76c2dfaa65ff13c93161ffde28629021 KAFKA-3.1.1-1.3.1.1.p0.2-el7.parcel
[root@hadoop003 Kafka_parcels]# cat KAFKA-3.1.1-1.3.1.1.p0.2-el7.parcel.sha
77c8a4ac76c2dfaa65ff13c93161ffde28629021
# yum 安装 httpd 服务
[root@hadoop003 Kafka_parcels]# yum install httpd
# 启动httpd服务,启动之后,就可以在浏览器通过主机ip:80 查看了
[root@hadoop003 Kafka_parcels]# service httpd start
Redirecting to /bin/systemctl start httpd.service
# 将kafka_parcels mv 到/var/www/html/目录下
[root@hadoop003 parcels]# mv Kafka_parcels/ /var/www/html/
打开界面 可以看到自己的kafka parcels 源
回到cdh 页面
1 配置kafka parcels源为我们自己的下载的地址源
将kafka的parcels路径填进去,注意是内网地址,其余的 parcels 路径全部移除,然后保存配置即可。
2 hosts ⇒ parcels
要是前面配置没有成功这一步是直接 就是 download = 》 distribut =》Active =》Deactivate 即可
(上图代表我这一步都执行成功了)
3 最后一步,添加service
选择主机,依次点下去即可成功。
拓展:Spark2.X安装方法跟上述步骤几乎一样,可以动手在安装试试(CDH 附带的是spark1.6的)