大数据集群将root用户切换至普通用户使用

集群组件root用户启动切换到普通用户启动步骤

1. 创建用户

useradd chun
passwd chun

2. 给此用户配置免密登录

2.1 所有机器切换至chun用户后,执行ssh-keygen –t rsa
2.2 配置免密,在所有机器上执行cat ~/.ssh/id_rsa.pub | ssh chun@nna ‘cat ~/.ssh/authorized_keys’ 命令,将公钥拷贝到nna服务器上,然后将nna上的authorized_keys文件覆盖到集群其他机器。

3. 修改nna配置文件

增加用户和用户组设置

3.1修改zookeeper配置文件

修改zookeeper/conf/下的zoo.cfg文件,增加如下配置

#设置新的ZooKeeper用户和组
zookeeper.user=chun
zookeeper.group=chun

3.2 修改hadoop配置文件

修改$HADOOP_HOME/ect/Hadoop/目录下的:
hadoop-env.sh 、yarn-env.sh、 mapred-env.sh文件
增加如下配置,如果有则将root修改为chun

export HDFS_NAMENODE_USER=chun
export HDFS_DATANODE_USER=chun
export HDFS_SECONDARYNAMENODE_USER=chun
export HDFS_JOURNALNODE_USER=chun
export HDFS_ZKFC_USER=chun
export YARN_RESOURCEMANAGER_USER=chun
export YARN_NODEMANAGER_USER=chun

3.3修改HBase配置文件

修改$HBASE_HOME/conf/hbase-env.sh文件
增加如下配置,如果有则将root修改为chun

export HBASE_USER=chun
export HBASE_GROUP=chun

3.4修改spark配置文件

修改$SPARK_HOME/conf/spark-env.sh文件
增加如下配置,如果有则将root修改为chun

export SPARK_USER=chun
export SPARK_GROUP=chun

4. 将上述修改的配置文件分发到集群其他节点

clush –g all –copy xxxx –dest pwd

5. 修改文件权限为chun

执行chown –R chun:chunXXXXXX

其中XXXXXX包含:

  1. hadoop、spark、hbase、zookeeper部署目录权限
  2. hdfs数据盘目录权限

6. 启动集群

1 先启动zk,zk集群节点执行zkServer.sh start
2 启动hdfs,./start-dfs.sh
3. 启动hbase,./start-hbase.sh
4. 启动spark,./start-all.sh(这里要进入spark目录,如果使用环境变量是走的hadoop的脚本)

7. 验证各集群是否正常

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值