hadoop分布式的配置

hadoop分布式的配置

分析:

  >>准备3台以上机器(每台机器时间一致,相差30秒以内)
  >> 安装jdk
  >>配置环境变量
  >>防火墙暂时关闭
  >>安装hadoop
  >>配置环境变量
  >>编辑hadoop配置文件
  >>设置sshd免密码登陆
  >>格式化HDFS
  >>在主节点上启动 start-dfs.sh

1.必须有JDK1.7,并且JDK的环境变量必须配置好

安装jdk
rpm -ivh jdk-7u79-linux-x64.rpm
配置环境变量:vi ~/.bash_profile
在文件的最后添加:
export JAVA_HOME=/usr/java/default
export PATH= P A T H : PATH: PATH:JAVA_HOME/bin
source ~/.bash_profile

2.关闭防火墙

service iptables stop
chkconfig iptables off

3.安装hadoop,环境变量配置好,编辑Hadoop配置文件

1.上传tar,并且解压。并且配置hadoop的环境变量
a) tar -zxvf hadoop-2.5.2.tar.gz
export HADOOP_HOME=/root/hadoop-2.5.1
export PATH= P A T H : PATH: PATH:HADOOP_HOME/bin:$HADOOP_HOME/sbin
2.编辑hadoop配置文件:hadoop-env.sh, core-site.xml, hdfs-site.xml,
Sleves。 所有的配置文件在/root/hadoop-2.5.2/etc/hadoop目录中
Hadoop-env.sh
更改第25行

export JAVA_HOME=/usr/java/default
-------------------core-site.xml配置-------------------
<property>
        <name>fs.defaultFS</name>
        <value>hdfs://node5:9000</value> 表示namenode的主机名
    </property>
<property>
        <name>hadoop.tmp.dir</name>
        <value>/hadoop</value>
</property>

----------------Hdfs-site.xml 配置------------------
<property>
<name>dfs.namenode.secondary.http-address</name> 配置SN的主机名
<value>node6:50090</value>
</property>
<property>
<name>dfs.namenode.secondary.https-address</name>
<value>node6:50091</value>
</property>

------------------Slaves 配置---------------
所有datanode的主机名
node1
node2
node3

4.设置sshd免密码登陆和拷贝文件

1.设置sshd免密码登陆。
a) 找一台主节点:启动服务。
i. 执行命令生成密钥。ssh-keygen
ii. 拷贝主节点的公钥到所有节点中去。
. ssh-copy-id -i id_rsa.pub root@node2
2.拷贝文件:hosts,bash_profile hadoop目录
a) scp /etc/hosts root@hadoop2:/etc/
b) scp ~/.bash_profile root@hadoop2:~
c) scp -r /root/hadoop-2.5.2 root@hadoop2:~

5.格式化HDFS

格式化HDFS: hdfs namenode –format 必须在主节点上

6.在主节点上启动 start-dfs.sh

在主节点上启动 start-dfs.sh
评论 4
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值