Spark大数据实战之三:Hadoop配置

一、Hadoop基础配置

第1步,下载安装包

网址:http://archive.apache.org/dist/hadoop/common/hadoop-2.5.2/
在这里插入图片描述

第2步,移动到lala主目录下,并解压

解压语句:

tar -xvf hadoop-2.5.2.tar.gz

解压后如下图所示:
在这里插入图片描述

第3步,配置 hadoop-env.sh

打开hadoop-env.sh,配置JDK路径

gedit /home/lala/hadoop-2.5.2/etc/hadoop/hadoop-env.sh

在这里插入图片描述

在文件靠前的部分找到下面一行代码:

# export JAVA_HOME=${JAVA_HOME}

将该语句修改成:

export JAVA_HOME=/usr/java/jdk1.7.0_71/

注:需要去掉#号,并按照实际Java路径进行配置

在这里插入图片描述

第4步,配置yarn-env.sh

打开yarn-env.sh,配置JDK路径

gedit etc/hadoop/yarn-env.sh

在这里插入图片描述

在文件靠前的部分找到下面一行代码:

# export JAVA_HOME=/home/y/libexec/jdk1.6.0/

在这里插入图片描述

将该语句修改成:

export JAVA_HOME=/usr/java/jdk1.7.0_71/

注:需要去掉#号,并按照实际Java路径进行配置
在这里插入图片描述

第5步,配置 core-site.xml

分别在master、slave1、slave2上切换至lala用户,然后在主目录下创建数据目录

mkdir /home/lala/hadoopdata

打开 core-site.xml文件

gedit hadoop-2.5.2/etc/hadoop/core-site.xml

在这里插入图片描述在这里插入图片描述

复制如下代码,覆盖core-site.xml中的全部内容

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this fille. -->
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://master:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/lala/hadoopdata</value>
</property>
</configuration>

在这里插入图片描述

第6步,配置hdfs-site.xml

打开hdfs-site.xml文件

gedit hadoop-2.5.2/etc/hadoop/hdfs-site.xml

在这里插入图片描述
在这里插入图片描述

复制如下代码,覆盖hdfs-site.xml中的全部内容

<?xml version="1.0" encoding="UTF-8"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<!-- Put site-specific property overrides in this fille. -->
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>

在这里插入图片描述

第7步,配置yarn-site.xml

打开yarn-site.xmll文件

gedit hadoop-2.5.2/etc/hadoop/yarn-site.xml

在这里插入图片描述
在这里插入图片描述

复制如下代码,覆盖yarn-site.xml中的全部内容

<?xml version = 1.0?>
<configuration>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
<property>
<name>yarn.resourcemanager.address</name>
<value>master:18040</value>
</property>
<property>
<name>yarn.resourcemanager.scheduler.address</name>
<value>master:18030</value>
</property>
<property>
<name>yarn.resourcemanager.resource-tracker.address</name>
<value>master:18025</value>
</property>
<property>
<name>yarn.resourcemanager.admin.address</name>
<value>master:18141</value>
</property>
<property>
<name>yarn.resourcemanager.webapp.address</name>
<value>master:18088</value>
</property>
</configuration>

在这里插入图片描述

第8步,配置mapred-site.xml

复制/home/lala/hadoop-2.5.2/etc/hadoop/目录下的 mapred-site.xml.template 文件,另存为改目录下的mapred-site.xml

cp hadoop-2.5.2/etc/hadoop/mapred-site.xml.template hadoop-2.5.2/etc/hadoop/mapred-site.xml

在这里插入图片描述
在这里插入图片描述
打开mapred-site.xml 文件

gedit hadoop-2.5.2/etc/hadoop/mapred-site.xml 

复制如下代码,覆盖mapred-site.xml 中的全部内容

<?xml version="1.0"?>
<?xml-stylesheet type="text/xsl" href="configuration.xsl"?>
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>

在这里插入图片描述

第9步,配置slaves文件

打开slaves文件

gedit hadoop-2.5.2/etc/hadoop/slaves

在这里插入图片描述

在这里插入图片描述

用下面的代码替换slaves中的内容

slave1
slave2

在这里插入图片描述
注:此处可以给出其他两个节点的IP地址,也可以给出机器名,要求每个占一行

二、从节点配置

将master节点lala用户主目录下的hadoop-2.5.2文件夹分别复制到每个节点的lala用户目录下

scp -r hadoop-2.5.2 slave1:~/
scp -r hadoop-2.5.2 slave2:~/

在这里插入图片描述

三、配置系统文件

分别在master、slave1、slave2上以lala用户执行下面步骤

第1步,配置系统文件

gedit ~/.bash_profile

第2步,在打开的.bash_profile中配置环境变量

export HADOOP_HOME=/home/lala/hadoop-2.5.2
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH

在这里插入图片描述

第3步,使其配置生效

source .bash_profile

在这里插入图片描述

四、启动Hadoop集群

第1步,格式化文件系统

在master节点上执行下面格式化命令

hdfs namenode -format

在这里插入图片描述
注:一旦执行该语句,可能造成无法 ssh slave1,ssh slave2,所以测试下,如果不能ssh,那就需要关闭当前窗口,重新打开一个新的,然后执行下面两句,再次测试,如果都能ssh通,那么进入第2步。

# chmod 700 ~/.ssh
# chmod 600 ~/.ssh/authorized_keys

第2步,启动Hadoop

lala用户进入hadoop-2.5.2文件夹

cd /home/lala/hadoop-2.5.2

执行启动命令

sbin/start-all.sh

弹窗询问,输入yes

第3步,验证

master终端窗口执行jps指令后会出现4个进程,在slave1、slave2的终端窗口执行会出现3个进程
在这里插入图片描述

  • 0
    点赞
  • 5
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值