由主节点配置从节点从而构建集群

主节点操作

改名字,改为master,hosts
改hadoop的slaves加四个xml
slaves是加一个节点就要改一次

从节点操作
  1. 新建hadoop用户,修改权限,赋予权限
    ALL =…

  2. 改好主机名,按node01 node02……规则

  3. 配好ssh,保证可以通信
    关防火墙,iptables stop
    关selinux
    自ssh可以,主对从可以免密ssh

  4. 用scp传jdk和hadoop到从节点的tmp目录下
    可能会出现权限问题,使用tmp目录则不要紧,文件夹权限问题

  5. 配jdk和hadoop的环境变量
    新建一个java目录,如usr/local/java,将之放入,hadoop同理
    改./bashrc添加路径
    改./etc/profile添加路径
    source文件 重载刷新
    检查:直接java和hadoop回显相关信息

  6. 配置hadoop
    改五个文件,特别注意,从主节点cp过来的hadoop是已经配好的,无需动
    slaves仍然要改
    检测: reboot
    start-all.sh
    hadoop dfsadmin -report显示正确
    jps主从点显示正常进程
    要关闭安全模式
    dfsadmin safemode leave

  7. 运行实例
    在hdfs新建一个文件夹
    构造一个input输入文件夹带数据
    运行hadoop文件夹中share里的用例
    在hdfs中ls output
    get output到本地再查看内容
    完成

  8. 其他配置
    zookeeper
    hbase
    hive pig mahout
    sqoop flume
    Ambari
    此部分配置spark,依附于hadoop集群



😒 留下您对该文章的评价 😄


评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值