大数据集群环境搭建(2)

接上一篇博客:

准备工作:

  • 测试网络环境是否有问题
  • 创建一个普通用户(AzF),后期的操作都是基于该用户,在该用户的家目录下创建一个 bin 目录(方便后期几个脚本的使用)
  • 在 /opt/ 下创建两个目录:software(存放安装包) 和 moduel(软件位置)
  • 将上面两个目录分别赋予创建的普通用户的用户的所有权限
  • 配置普通用户的超级用户权限
#实际工作中并不会这样做,这里只是为了方便
 sudo vim /etc/sudoers 

#在root一行下添加:
AzF	ALL=(ALL)	NOPASSWD:ALL
ping 本地ip
ping 外网ip

1、上传JDK、hadoop的安装包到Linux上的 /opt/moduel/ 下

2、解压

3、配置环境变量

4、编写hadoop的配置文件

5、关闭虚拟机,拍一个快照,

6、克隆虚拟机的当前快照

7、修改克隆后的网络配置文件,使其能够通信

8、配置本地 IP 映射

9、启动集群(第一次需要格式化Namenode),查看节点是否正常启动

10、通过浏览器访问

10、使用脚本实现启动和关闭

参考:集群中jpsall和 xsync命令的使用
参考:集群全启和全关脚本

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

雲小妖

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值