- 安装JDK
在CentOS机器上执行命令:java -version查看服务器是否安装了jdk
- 下载CDH6.2的客户端文件
从CDH机器上下载parcel包
CDH-6.2.0-1.cdh6.2.2.p0.967373-el7.parcel
解压:
tar -zxvf CDH-6.2.0-1.cdh6.2.2.p0.967373-el7.parcel -C /opt/
- 准备客户端配置
获取客户端和krb5.conf配置文件:
krbb5.conf
注意:krb5.conf 配置文件分云上和云下,配置内容不同,根据对应集群的/etc/krb.conf文件情况进行选择,与对应集群保持一致
hdfs-clientconfig.zip
yarn-clientconfig.zip
hive-clientconfig.zip
sentry-clientconfig.zip
注意:客户端配置要到对应的集群去找所需组件的客户端配置,下载上传到客户端节点
- 部署配置文件
解压:
unzip hdfs-clientconfig.zip
unzip yarn-clientconfig.zip
unzip hive-clientconfig.zip
unzip sentry-clientconfig.zip
移动:
mv krb5.conf /etc
mv hadoop-conf /etc
mv yarn-conf /etc
mv hive-conf /etc
mv sentry-conf /etc
- 修改配置环境变量
执行命令vim /etc/profile,光标移至末尾添加如下(路径按照实际路径填写)
export PATH=$PATH:/opt/CDH-6.2.0-1.cdh6.2.0.p0.967373/bin
export HADOOP_HOME=/opt/CDH-6.2.0-1.cdh6.2.0.p0.967373/lib/hadoop
export HADOOP_CONF_DIR=/etc/hive-conf
export CDH_MR2_HOME=/opt/CDH-6.2.0-1.cdh6.2.0.p0.967373/lib/hadoop-mapreduce
export HIVE_HOME=/opt/CDH-6.2.0-1.cdh6.2.0.p0.967373/lib/hive
export SPARK_HOME=/opt/CDH-6.2.0-1.cdh6.2.0.p0.967373/lib/spark
更新配置文件
执行命令source /etc/profile
- 修改hosts文件
命令:vi /etc/hosts
添加所需要访问集群的所有主机节点的信息
- 安装kerberos客户端
执行命令:yum -y install krb* (注意:这里需要注意yum源的问题)
验证命令:
kinit super用户 #登录
klist #查询登录状态
注:退出可以使用kdestory
- 验证hdfs、beeline
hdfs dfs -ls
beeline连接串