hadoop安装和配置

本文hadoop的版本为hadoop-2.6.4

下面还有些细节:免密码登录、将 节点配好的配置传输到其他节点

一、安装java jdk

   1、下载java jdk1.7版本,放在/home/apps目录下,

   2解压:tar -zxvf java-jdk*****.jar

   3、vim /etc/profile

 

1

2

3

4

5

#在文件最后添加

export JAVA_HOME=/home/apps/jdk1.7

export PATH=$PATH:$JAVA_HOME/bin

#刷新配置

source /etc/profile

  4、检测是否成功安装:java -version

二、安装hadoop

1、使用自建的用户登录,我用的是hadoop用户登录,在根目录下建一个apps文件夹。

2、解压hadoop到apps目录中:tar -zxvf hadoop-2.6.4.tar.gz -C /home/apps/

3、进入目录:/home/apps/hadoop-2.6.4/etc/hadoop

三、修改配置文件

1、修改hadoop-env.sh,配置java jdk路径,大概在27行配置,如下:

export JAVA_HOME=/home/apps/jdk1.7

2、修改core-site.xml,配置内容如下

 

1

2

3

4

5

6

7

8

9

10

11

12

<configuration>

    <!-- 指定HDFS老大(namenode)的通信地址 -->

<property>

    <name>fs.defaultFS</name>

    <value>hdfs://node1:9000</value>

</property>

    <!-- 指定hadoop运行时产生文件的存储路径 -->

<property>

        <name>hadoop.tmp.dir</name>

        <value>/home/apps/hadoop-2.6.4/tmp</value>

</property>

</configuration>

3、修改hdfs-site.xml,修改配置如下

 

1

2

3

4

5

<!-- 设置hdfs副本数量 -->

<property>

    <name>dfs.replication</name>

    <value>2</value>

</property>

 

<property>
            <name>dfs.secondary.http.address</name>
            <value>node1:50090</value>
 </property>

4、修改mapred-site.xml 由于在配置文件目录下没有,需要修改名称:mv mapred-site.xml.template mapred-site.xml

 

<configuration>
<!-- 通知框架MR使用YARN -->
<property>
    <name>mapreduce.framework.name</name>
    <value>yarn</value>
</property>
</configuration>

 

5、修改yarn-site.xml,修改内容如下

 

1

2

3

4

5

6

7

8

9

10

11

<configuration>

<!-- reducer取数据的方式是mapreduce_shuffle -->

<property>

    <name>yarn.nodemanager.aux-services</name>

    <value>mapreduce_shuffle</value>

</property>

<property>

    <name>yarn.resourcemanager.hostname</name>

    <value>node1</value>

</property>

</configuration>

 

6、免密码登录:

在node1节点上:ssh-keygen

ssh-copy-id node1

ssh-copy-id node2

ssh-copy-id node3

ssh-copy-id node4

sudo scp -r /home/apps/hadoop-2.6.4 node2:/home/apps/hadoop-2.6.4

sudo scp -r /home/apps/hadoop-2.6.4 node3:/home/apps/hadoop-2.6.4

sudo scp -r /home/apps/hadoop-2.6.4 node4:/home/apps/hadoop-2.6.4


 

7、配置:/home/apps/hadoop-2.6.4/etc/hadoop/slaves(配置datanode的主机名

Node2

Node 3

Node 4

 

8、讲hadoop添加到环境变量,然后更新一下环境变量:source /etc/profile

export JAVA_HOME=//home/apps/jdk1.7
export HADOOP_HOME=/home/apps/hadoop-2.6.4
export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin

sudo scp -r /etc/profile node2:/etc/profile

sudo scp -r /etc/profile node3:/etc/profile

sudo scp -r /etc/profile node4:/etc/profile

source /etc/profile

四、启动hadoop

1、格式化hadoop,进入目录:/home/apps/hadoop-2.6.4/etc/hadoop,执行下列之一命令即可

hadoop namenode -format  (过时)

hdfs namenode -format

2、启动hdfs和yarn

先启动HDFS
sbin/start-dfs.sh

再启动YARN
sbin/start-yarn.sh

3、验证是否成功,使用命令:jps,输出如下即表示配置成功。

?

1

2

3

4

5

6

7

12272 Jps

4135 JobTracker

9500 SecondaryNameNode

9943 NodeManager

9664 ResourceManager

8898 NameNode

9174 DataNode

4、可以在浏览器中查看hdfs和mr的状态.hdfs管理界面:http://localhost:50070  MR的管理界面:http://localhost:8088 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值