下面介绍怎么在linux系统上设置和配置一个单节点的Hadoop,让你可以使用Hadoop的MapReduce和HDFS(Hadoop Distributed File System)做一些简单的操作。
准备工作
1)下载Hadoop;
2)为你的linux系统安装JDK,推荐的JDK版本可以在这里(http://wiki.apache.org/hadoop/HadoopJavaVersions)查看;
3)为你的系统安装ssh。
2)为你的linux系统安装JDK,推荐的JDK版本可以在这里(http://wiki.apache.org/hadoop/HadoopJavaVersions)查看;
3)为你的系统安装ssh。
设置环境变量
1)为Hadoop设置JDK信息:
export JAVA_HOME=/usr/java/latest
2)将Hadoop解压到某个目录,例如/usr/test目录下。
然后编辑文件/etc/profile增加:
export HADOOP_INSTALL=/usr/test/hadoop-2.7.1
export PATH=$PATH:$HADOOP_INSTALL/bin
保存文件,然后使用命令source /etc/profile重新编译使配置生效。
执行下面的命令,如果配置正确,则会正确输出Hadoop的版本信息:
hadoop version
export JAVA_HOME=/usr/java/latest
2)将Hadoop解压到某个目录,例如/usr/test目录下。
然后编辑文件/etc/profile增加:
export HADOOP_INSTALL=/usr/test/hadoop-2.7.1
export PATH=$PATH:$HADOOP_INSTALL/bin
保存文件,然后使用命令source /etc/profile重新编译使配置生效。
执行下面的命令,如果配置正确,则会正确输出Hadoop的版本信息:
hadoop version