Ambari集群部署全流程_apache all=(all) nopasswd all是什么含义

ambari2021

image-20210219111424964.png

1.2 赋予hadoop用户sudo权限

编辑 etc/sudoers文件

visudo

image-20210219111952995.png

增加如下配置

Hadoop ALL=(ALL) NOPASSWD:ALL

Hadoop ALL=(ALL) NOPASSWD:ALL
参数解释:
第一个字段Hadoop 表示能使用sudo命令的用户
第二个字段ALL=(ALL) 第一个ALL表示允许使用sudo的主机,第二个ALL表示使用sudo后以什么身份来执行命令
第三个字段NOPASSWD:ALL 滴一个NOPASSWD表示使用sudo提升权限的时候不需要使用密码,第二个ALL表示允许使用sudo执行的命令

image-20210219111927267.png

1.3 配置hostname

检查当前hostname

hostname -f

image-20210219113804031.png

永久修改hostname

sudo hostnamectl set-hostname ambari-01

image-20210219114104258.png

配置hosts文件

sudo vi /etc/hosts

添加如下配置 注意自带的两行不要删除 此外公司服务器配置内网IP

192.168.186.164 ambari-01

image-20210219114414782.png

image-20210219114236046.png

1.4 防火墙设置

禁用防火墙,避免多个节点之间收到影响(生产环境一般用运维专业人员来做端口策略,并不能完全关闭防火墙)

禁止防火墙开机启动

sudo systemctl disable firewalld

关闭防火墙

sudo systemctl stop firewalld

查看防火墙状态

sudo systemctl status firewalld

image-20210219115037823.png

1.5 禁用SELinux

检查SELinux状态(只要返回的不是disabled那么说明SELinux是开着的,则需要关闭)

getenforce

临时禁用

sudo setenforce 0

永久禁用

sudo vi /etc/selinux/config

将SELINUX 改为 SELINUX=disabled

image-20210219115255918.png

1.6 SSH免密

Hadoop大数据集群的相关组件大多依赖SSH免密登录来通过一个节点操作集群

使用hadoop用户登录 (切换到根目录)

su - hadoop

执行命令生成公、私钥(三次直接回车)

ssh-keygen

image-20210219120046608.png

将公钥拷贝到认证文件

cd .ssh/
cat id_rsa.pub >> authorized_keys

文件授权

chmod 700 ~/.ssh
chmod 600 ~/.ssh/

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值