【分布式】hadoop安装篇(3)安装准备和Standalone安装

下载

http://hadoop.apache.org/releases.html 中获取相关的版本。

安装参考:

java环境和hadoop环境准备

Java安装在/home/wei/jdk1.8.0_172。同时将2和3版本的hadoop分别解压在/home/wei/hadoop/hadoop-2.9.0和/home/wei/hadoop/hadoop-3.1.0目录下。

环境变量文件的位置:

  • 如果是全局变量,我们在/etc/profile下面进行配置。当然这种情况,java的路径就应该是/usr/java/jdk1.8.0_172,或者/usr/lib/jvm/jdk1.8.0_172。用户重新登录有效
  • 如果是用户wei的配置,则设置在~/.profile中。用户重新登录有效。
  • 在我的实验环境中,同时存在两个版本的hadoop,所以我们编写两个不同的环境文件,然后用source <环境文件>来手动生效。

在相应的环境文件中加入:

export JAVA_HOME="/home/wei/jdk1.8.0_172"
export CLASSPATH=".:$JAVA_HOME/lib"
 
HADOOP_HOME=/home/wei/hadoop/hadoop-2.9.0
export HADOOP_HOME

PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$JAVA_HOME/bin:$PATH
export PATH

有没有引号,都没有关系,上面同时给出两种情况。当然,我们在同一个文件中,应该使用统一的书写格式。

可以用下面的命令来试一下:

$ java -version
$ hadoop

Standalone 模式

本地模式就是一个java程序,只用于测试MapReduce,没有NDFS。本地模式不需要做任何的设置,只要设置好环境即可。

这里唯一需要配置的是指定JAVA的运行环境,如果我们不使用缺省的JAVA_HOME,而进行特定的指定,可以在etc/hadoop/hadoop-evn.sh中,对下面这样进行修改,设置指定的路径。

# export JAVA_HOME=${JAVA_HOME}
export JAVA_HOME=/home/wei/jdk1.8.0_172

我们进行一下测试

【创建MapReduce输入目录】
$ mkdir input 
【将一些文件放入MapReduce的输入目录,作为计算的一些输入信息】
$ cp etc/hadoop/*.xml input
【hadoop提供了一些测试例子,具体为share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.0.jar,下面是个例子】
【hadoop jar有点类似java中的java jar】
$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.0.jar grep input output 'dfs[a-z.]+'
【output/为输入,里面有两个文件,输出的内容具体在part-r-00000中。】
$ cat output/*

【我们给出另一个测试例子,xxx.jar后面有点想jar中的执行的class,wordcount为统计文字的数量。】
$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.0.jar wordcount
Usage: wordcount <in> [<in>...] <out>
$ hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.9.0.jar wordcount input/hadoop-policy.xml output/wc
【 结果放置在output/wc/part-r-00000 中】



评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值