在单节点和多节点上的Hadoop设置

我们将描述在单节点和多节点上的Hadoop设置。 将详细描述Hadoop环境的设置和配置。 首先,您需要下载以下软件(rpm)。

  • Java JDK RPM
  • Apache Hadoop 0.20.204.0 RPM

A)单节点系统Hadoop设置

1)在Red Hat或CentOS 5+系统上安装JDK。

$ ./jdk-6u26-linux-x64-rpm.bin.sh

Java已安装,并将JAVA_HOME设置为/ usr / java / default

2)安装Apache Hadoop 0.20.204。

$ rpm -i hadoop-0.20.204.0-1.i386.rpm

3)设置Apache Hadoop配置并启动Hadoop进程。

$ /usr/sbin/hadoop-setup-single-node.sh

设置向导将指导您完成一系列问题以设置Hadoop。 对所有问题回答“是”后,Hadoop应该正在运行。

在HDFS上为您自己创建一个用户帐户。

$ /usr/sbin/hadoop-create-user.sh -u $USER

B)多节点Hadoop设置

1)在所有节点上同时安装JDK和Hadoop 0.20.204.0 RPM

2)在所有节点上生成hadoop配置:

$ /usr/sbin/hadoop-setup-conf.sh \

  --namenode-url=hdfs://${namenode}:9000/ \

  --jobtracker-url=${jobtracker}:9001 \

  --conf-dir=/etc/hadoop \

  --hdfs-dir=/var/lib/hadoop/hdfs \

  --namenode-dir=/var/lib/hadoop/hdfs/namenode \

  --mapred-dir=/var/lib/hadoop/mapred \

  --datanode-dir=/var/lib/hadoop/hdfs/data \

  --log-dir=/var/log/hadoop \

  --auto

其中$ {namenode}和$ {jobtracker}应替换为namenode和jobtracker的主机名。

3)格式化namenode并设置默认的HDFS布局。

$ /usr/sbin/hadoop-setup-hdfs.sh

4)启动所有数据节点。

$ /etc/init.d/hadoop-datanode start

5)启动作业跟踪器节点。

$ /etc/init.d/hadoop-jobtracker start

6)启动任务跟踪器节点。

$ /etc/init.d/hadoop-tasktracker start

7)在HDFS上为您自己创建一个用户帐户。

$ /usr/sbin/hadoop-create-user.sh -u $USER

C)Hadoop的安装环境

$ vi ~/.bash_profile

在INSERT模式下,设置JAVA_HOME的路径

汇出JAVA_HOME

通过单击esc:wq保存文件

运行.bash_profile

$ source ~/.bash_profile

在Hadoop环境文件中设置JAVA_HOME路径

$ /etc/hadoop/hadoop-env.sh

D)Hadoop的配置

使用以下内容:

conf / core-site.xml:

<configuration>
  <property>
    <name>fs.default.name</name>
    <value>hdfs://localhost:9000</value>
  </property>
</configuration>

conf / hdfs-site.xml:

<configuration>
  <property>
    <name>dfs.replication</name>
    <value>1</value>
  </property>
</configuration>

conf / mapred-site.xml:

<configuration>
  <property>
    <name>mapred.job.tracker</name>
    <value>localhost:9001</value>
  </property>
</configuration>

E)Hadoop命令

$ hadoop
$ hadoop namenode –format (Format the namenode, If ask to
answer press ‘Y’)
$ hadoop namenode (Start the namenode)
$ find / -name start-dfs.sh (find the file in directory)
$ cd usr/sbin (Go to respective directory directly)
$ start-dfs.sh
$ start-mapred.sh

$ hadoop fs –ls / (Shows the HDFS root folder)
$ hadooop fs –put input/file01 /input/file01 (Copy local input/file01 to
HDFS root /input/file01)


翻译自: https://www.javacodegeeks.com/2013/05/hadoop-setup-on-single-node-and-multi-node.html

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值