Hadoop + hbase + Zookeeper + spark + scala 集群搭建

本文详细记录了使用Hadoop、HBase、Zookeeper、Spark和Scala在3台CentOS6.4 64位虚拟机上搭建大数据集群的过程,包括环境配置、软件安装、集群配置、文件复制和启动步骤。
摘要由CSDN通过智能技术生成

在学习大数据过程中,搭建环境笔记:

1.装载3个vm  master、slave1、slave2(CentOS6.4 64位)
2.(所有 root用户)新建用户/密码 hadoop/hadoop123
3.(所有 root用户)修改主机名称
$ vi /etc/sysconfig/network


ETWORKING=yes
HOSTNAME=master


ETWORKING=yes
HOSTNAME=slave1


ETWORKING=yes
HOSTNAME=slave2


4.(所有 root用户)配置静态IP,只改贴的部分其他不动
$ vi /etc/sysconfig/network-scripts/ifcfg-eth0




BOOTPROTO="static"
IPADDR=192.168.246.175
NETMASK=255.255.0.0
GATEWAY=192.168.246.1
DNS1=8.8.8.8
#TYPE="Ethernet"


BOOTPROTO="static"
IPADDR=192.168.246.176
NETMASK=255.255.0.0
GATEWAY=192.168.246.1
DNS1=8.8.8.8
#TYPE="Ethernet"


BOOTPROTO="static"
IPADDR=192.168.246.177
NETMASK=255.255.0.0
GATEWAY=192.168.246.1
DNS1=8.8.8.8
#TYPE="Ethernet"


5.(所有 root用户)重启使配置的静态IP生效
$ /etc/init.d/network restart


6.(所有 root用户)配置hosts
$ vi /etc/hosts


192.168.246.175 master
192.168.246.176 slave1
192.168.246.177 slave2


7.(所有 root用户)永久关闭防火墙 并重启使之生效
$ chkconfig iptables off
$ shutdown -r now


8.配置无密码SSH连接
(主机master hadoop用户)生成公钥 并 发布到 分机slave1、slave2
$ ssh-keygen -t rsa
$ ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@master
$ ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@slave1
$ ssh-copy-id -i ~/.ssh/id_rsa.pub hadoop@slave2


8. (所有 root用户)安装jdk
将安装包放在/opt目录下
$ cd /opt
$ tar -zxvf jdk-7u79-linux-x64.tar.gz


9.(所有 root用户)配置环境变量 并 使文件生效
$ vi /etc/profile


export JAVA_HOME=/opt/jdk1.7.0_79
export PATH=$PATH:$JAVA_HOME/bin


$ source /etc/profile




-- (所有 root用户) 取得/opt权限给hadoop用户
$ chown -R hadoop /opt


10.(主机master hadoop用户)安装hadoop


将安装包放在/opt目录下
$ cd /opt
$ tar -zxvf hadoop-2.5.2.tar.gz

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值