银河计算机网络,hadoop安装配置

本文详细指导如何在CentOS 6.4环境中安装JDK 1.7,配置SSH无密码登录,以及搭建Hadoop 2.7.1集群,包括环境变量设置、Hadoop配置和启动步骤。重点涉及核心配置文件如hadoop-env.sh, yarn-env.sh等。
摘要由CSDN通过智能技术生成

一、安装环境硬件:虚拟机操作系统:Centos 6.4 64位IP:192.168.1.100主机名:admin安装用户:root

二、安装JDK安装JDK1.7或者以上版本。这里安装jdk1.7.0_79。下载地址:,下载jdk-7u79-linux-x64.gz,解压到/usr/java/jdk1.7.0_79。2,在/root/.bash_profile中添加如下配置:

export JAVA_HOME=/usr/java/jdk1.7.0_79

export PATH=$JAVA_HOME/bin:$PATH

3,使环境变量生效,#source ~/.bash_profile4,安装验证# java -versionjava version "1.7.0_79"

Java(TM) SE Runtime Environment (build 1.7.0_79-b15)

Java HotSpot(TM) 64-Bit Server VM (build 24.79-b02, mixed mode)

三,配置SSH无密码登陆

$ ssh-keygen -t dsa -P'' -f ~/.ssh/id_dsa

$ cat ~/.ssh/id_dsa.pub >> ~/.ssh/authorized_keys

验证ssh,# ssh localhost不需要输入密码即可登录。

如果你是集群的形式,那么可以参考http://blog.csdn.net/se7en_q/article/details/47671425

2,解压安装1),复制hadoop-2.7.1.tar.gz到/usr/hadoop目录下,然后#tar -xzvf hadoop-2.7.1.tar.gz解压,解压后目录为:/usr/hadoop/hadoop-2.7.1

2),在/usr/hadoop/目录下,建立tmp、hdfs/name、hdfs/data目录,执行如下命令#mkdir /usr/hadoop/tmp

#mkdir /usr/hadoop/hdfs

#mkdir /usr/hadoop/hdfs/data

#mkdir /usr/hadoop/hdfs/name

3),设置环境变量,#vi ~/.bash_profile

# set hadooppath

exportHADOOP_HOME=/usr/hadoop/hadoop-2.7.1

export PATH=$PATH:$HADOOP_HOME/bin

4),使环境变量生效,$source ~/.bash_profile

3,Hadoop配置进入$HADOOP_HOME/etc/hadoop目录,配置hadoop-env.sh等。涉及的配置文件如下:hadoop-2.7.1/etc/hadoop/hadoop-env.sh

hadoop-2.7.1/etc/hadoop/yarn-env.sh

hadoop-2.7.1/etc/hadoop/core-site.xml

hadoop-2.7.1/etc/hadoop/hdfs-site.xml

hadoop-2.7.1/etc/hadoop/mapred-site.xml

hadoop-2.7.1/etc/hadoop/yarn-site.xml

1)配置hadoop-env.sh

# The java implementation to use.

#export JAVA_HOME=${JAVA_HOME}

export JAVA_HOME=/usr/java/jdk1.7.0_79

2)配置yarn-env.sh

#export JAVA_HOME=/home/y/libexec/jdk1.7.0/

export JAVA_HOME=/usr/java/jdk1.7.0_79

3)配置core-site.xml添加如下配置:

fs.default.name

hdfs://localhost:9000

HDFS的URI,文件系统://namenode标识:端口号

hadoop.tmp.dir

/usr/hadoop/tmp

namenode上本地的hadoop临时文件夹

4),配置hdfs-site.xml添加如下配置

dfs.name.dir

/usr/hadoop/hdfs/name

namenode上存储hdfs名字空间元数据

dfs.data.dir

/usr/hadoop/hdfs/data

datanode上数据块的物理存储位置

dfs.replication

1

副本个数,配置默认是3,应小于datanode机器数量

5),配置mapred-site.xml添加如下配置:

mapreduce.framework.name

yarn

6),配置yarn-site.xml添加如下配置:

yarn.nodemanager.aux-services

mapreduce_shuffle

yarn.resourcemanager.webapp.address

192.168.1.100:8099

4,Hadoop启动1)格式化namenode

$ bin/hdfs namenode –format

2)启动NameNode和DataNode守护进程

$ sbin/start-dfs.sh

3)启动ResourceManager和NodeManager守护进程

$ sbin/start-yarn.sh

5,启动验证1)执行jps命令,有如下进程,说明Hadoop正常启动

# jps

6097 NodeManager

11044 Jps

7497 -- process information unavailable

8256 Worker

5999 ResourceManager

5122 SecondaryNameNode

8106 Master

4836 NameNode

4957 DataNode

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值