Hadoop的安装和部署

1.       环境概述

系统:RedHat linux enterprise5

Jdkjdk1.6

HadoopHadoop-0.19.2

节点数目:两台(可自行扩充)

2.       匿名登录设置

设置机器的hosts

转换问root用户,修改/etc/hosts文件,内容如下:

# Do not remove the following line, or various programs

# that require network functionality will fail.

127.0.0.1       localhost.localdomain   localhost

::1     localhost6.localdomain6 localhost6

192.168.0.121   hwellzen-bj-1.compute   hwellzen-bj-1

192.168.0.122   hwellzen-bj-2.compute   hwellzen-bj-2

 

注意:以上的内容有回车符的时候才进行换行。将两台机器的hosts都设置问以上的内容,然后分别重启系统。

设置匿名登录

Ø  转换用户到你需要设置匿名登录的用户下,本安装用户为liuzj,执行

[liuzj@hwellzen-bj-1 ~]$ssh-keygen  -t  rsa

这个命令将为hwellzen-bj-1上的用户liuzj生成其密钥对,询问其保存路径时直接回车采用默认路径,当提示要为生成的密钥输入passphrase的时候,直接回车,也就是将其设定为空密码。生成的密钥对id_rsaid_rsa.pub,默认存储在/home/liuzj/.ssh目录下。

执行命令:

cp id_rsa.pub authorized_keys

可以实现用户在本地匿名登录,现象为

[liuzj@hwellzen-bj-1 ~]$ssh hwellzen-bj-1

Last login: Tue Aug 11 09:31:49 2009 from 192.168.0.129

[liuzj@hwellzen-bj-1 ~]$

 

 

 

Ø  登录到另一台机器上执行相同的命令

[liuzj@hwellzen-bj-1 ~]$ssh-keygen  -t  rsa

Ø  现在两台机器的密钥都有了,现在激动人心 的时刻到了。设置hwellzen-bj-1hwellzen-bj-2的匿名登录:

hwellzen-bj-1的密钥id_rsa.pub拷贝到hwellzen-bj-2上,使用命令:

[liuzj@hwellzen-bj-1 ~]$ scp .ssh/id_rsa.pub hwellzen-bj-2:/home/liuzj

登录到hwellzen-bj-2,将hwellzen-bj-1的密钥加入到匿名的文件中

[liuzj@hwellzen-bj-2 ~]$ cat id_rsa.pub >> .ssh/authorized_keys

试试吧,登录到hwellzen-bj-1执行命令[liuzj@hwellzen-bj-1 ~]$ ssh hwellzen-bj-2

我这里的现象:

[liuzj@hwellzen-bj-1 ~]$ ssh hwellzen-bj-2

Last login: Tue Aug 11 09:31:49 2009 from 192.168.0.129

[liuzj@hwellzen-bj-2 ~]$

好了,最后用以上的方法自己设置,hwellzen-bj-2匿名登录到hwellzen-bj-1

注意:生成设置匿名登录之前要把hosts设置好,然后重启。

3.       Jdk安装

Ø  jdk-6u2-linux-i586.bin拷贝到hwellzen-bj-1

Ø  转换为root用户,设置jdk-6u2-linux-i586.bin为可执行的文件,

Chmod u+x jdk-6u2-linux-i586.bin

Ø        创建目录/usr/local/java,并cd到该目录,将jdk-6u2-linux-i586.bin拷贝到该目录(装完删了),执行命令:

./ jdk-6u2-linux-i586.bin

文件安装完成

Ø  设置配置所有用户都可以用,编辑vi /etc/profile,在文件的最后添加以下内容

PATH=/usr/local/java/jdk1.6.0_02/bin:$PATH

JAVA_HOME=/usr/local/java/jdk1.6.0_02

export PATH JAVA_HOME

Ø  将设置生效执行命令:

source  /etc/profile

Ø  安装完啦,看看现在的java版本呗:

执行命令:java –version

[liuzj@hwellzen-bj-2 ~]$ java -version

java version "1.6.0_02"

Java(TM) SE Runtime Environment (build 1.6.0_02-b05)

Java HotSpot(TM) Client VM (build 1.6.0_02-b05, mixed mode, sharing)

[liuzj@hwellzen-bj-2 ~]$

                     

4.       Hadoop安装

Ø  解压hadoop文件

hadoop-0.19.2.tar.gz解压到,用户liuzj下使用的命令为

[liuzj@hwellzen-bj-2 ~]$ tar zxvf hadoop-0.19.2.tar.gz

最终解压后的目录为:

[liuzj@hwellzen-bj-2 hadoop-0.19.2]$ pwd

/home/liuzj/hadoop-0.19.2

注意:保证各台机器安装的目录机构都是相同的。

Ø  配置文件设置

需要配置的文件:hadoop-env.shslavesmastershadoop-site.xml

hadoop-env.sh配置javahome,内容为

# The java implementation to use.  Required.

 export JAVA_HOME=/usr/local/java/jdk1.6.0_02

slaves配置子节点,内容为

hwellzen-bj-2

hwellzen-bj-1

masters配置主节点,内容为

hwellzen-bj-1

hadoop-site.xml配置的内容比较多,内容为

<configuration>

<property>

   <name>fs.default.name</name>

   <value>hdfs://hwellzen-bj-1:4310/</value>

</property>

<property>

   <name>mapred.job.tracker</name>//

   <value>hdfs://hwellzen-bj-1:4311/</value>

</property>

<property>

   <name>dfs.replication</name>

   <value>2</value>

</property>

<property>

    <name>hadoop.tmp.dir</name>

    <value>/home/liuzj/hadoop-0.19.2/tmp</value>

</property>

<property>

  <name>dfs.name.dir</name>

  <value>/home/liuzj/hadoop-0.19.2/filesystem/name/</value>

</property>

<property>
  <name>dfs.data.dir</name>
  <value>/opt/hadoop-0.19.2/filesystem/data</value>
  <description>Determines where on the local filesystem an DFS data node should store its blocks. If this is a comma-delimited list of directories, then data will be stored in all named directories, typically on different devices. Directories that do not exist are ignored.</description>
</property>

<property>

   <name>mapred.child.java.opts</name>

   <value>-Xmx512m</value>

</property>

</configuration>

格式化dfs:

                     [liuzj@hwellzen-bj-1 hadoop-0.19.2]$ bin/hadoop namenode -format

 

 

启动hadoop

[liuzj@hwellzen-bj-1 hadoop-0.19.2]$ bin/start-all.sh

访问

 

http://192.168.0.121:50070/dfshealth.jsp

http://192.168.0.121:50030/jobtracker.jsp

 

注意:保证hadoop的需要用的端口都是可以访问的,本人在配置的时候因为防火墙组织了端口的访问造成hadoop的启动失败,后来关闭的防火墙,启动成功。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
您好!要进行Hadoop安装部署和调试,您可以按照以下步骤进行操作: 1. 下载Hadoop:从Apache Hadoop官方网站(https://hadoop.apache.org/)下载最新版本的Hadoop软件包。 2. 解压缩软件包:将下载的软件包解压缩到您选择的目录中。 3. 配置环境变量:打开Hadoop的主配置文件(hadoop-env.sh),设置JAVA_HOME和HADOOP_HOME两个环境变量,确保正确指向Java和Hadoop安装路径。 4. 配置Hadoop集群:编辑Hadoop的核心配置文件(core-site.xml)和HDFS配置文件(hdfs-site.xml),配置Hadoop集群的相关参数,例如文件系统URI、数据存储路径、副本数量等。 5. 配置MapReduce:编辑MapReduce配置文件(mapred-site.xml),设置MapReduce任务运行的相关参数,例如任务跟踪器和任务分配器。 6. 配置YARN:编辑YARN配置文件(yarn-site.xml),设置YARN资源管理器和节点管理器的相关参数,例如集群资源分配、容器运行时环境等。 7. 格式化HDFS:运行Hadoop提供的格式化命令格式化HDFS文件系统,以便在启动Hadoop集群时创建必要的目录和文件。 8. 启动Hadoop集群:使用启动脚本启动Hadoop集群,包括启动HDFS和YARN服务。您可以使用start-dfs.sh和start-yarn.sh脚本分别启动HDFS和YARN。 9. 验证集群状态:使用Hadoop提供的命令(例如hdfs dfsadmin -report和yarn node -list)验证Hadoop集群的状态,确保所有服务和节点都正常运行。 10. 提交任务:使用Hadoop提供的命令(例如hadoop jar)提交MapReduce任务,并监控任务运行状态。 11. 调试和故障排除:在调试和故障排除过程中,您可以查看Hadoop日志文件(位于HADOOP_HOME/logs目录下)以及相关命令的输出,以找出问题的原因并进行修复。 这些是进行Hadoop安装部署和调试的基本步骤,您可以根据您的需求和环境进行相应的配置和调整。希望对您有所帮助!如果您还有其他问题,请随时提问。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值