1、安装JDK
(1)将jdk-8u191-linux-i586.rpm文件复制到“/usr/local”文件夹中,可以双击安装(这种方式简单,但是路径不能自定义,需要找到jdk的安装路径,所以建议使用命令行方式,可以指定路径,练习命令行的使用),也可以使用命令行的方式,首先进入到“/usr/local”路径中,键入命令:rpm –ivh –-prefix=/usr/java/ jdk-8u191-linux-i586.rpm
。然后将路径名“jdk1.8.0_191-i586”更改为“jdk”。
(2)设置JDK的环境变量(默认路径),在文件/etc/profile中增加以下两条语句
export JAVA_HOME=/usr/java/jdk
export PATH=.:$PATH:$JAVA_HOME/bin
可以采用图形界面方式,可以采用vim方式,可以使用“java -version”命令来验证JDK是否安装成功。
2、安装Hadoop
(1)将hadoop-1.1.2.tar.gz文件复制到“/usr/local”文件夹中,可以双击直接解压(这种方式简单,但是建议使用命令行方式,练习命令行的使用),也可以使用命令行的方式:tar -xzvf /usr/local/hadoop-1.1.2.tar.gz。然后最好将解压后的文件夹名称改为hadoop,这样是为了添加环境变量和使用方便。
(2)设置hadoop的环境变量,在文件/etc/profile中增加以下两条语句
export HADOOP_HOME=/usr/local/hadoop
export PATH=.:$HADOOP_HOME/bin:$PATH:$JAVA_HOME/bin
注意:环境变量的设置,需要使用“source /etc/profile”命令来时给文件生效。
3、修改Hadoop配置文件。 需要修改的文件都在hadoop目录下的conf文件夹中。
(1)修改hadoop-env.sh文件:在最后增加语句
export JAVA_HOME=/usr/java/jdk
(2)修改core-site.xml文件(配置核心文件):在 之间添加如下内容:
<property>
<name>hadoop.tmp.dir</name>
<value>/usr/local/hadoop/tmp</value>
<description>direcory of hadoop</description>
</property>
<property>
<name>fs.default.name</name>
<value>hdfs://master:9000</value>
<description>direcory of HDFS</description>
</property>
(3)修改hdfs-site.xml文件(HDFS配置文件):在 之间添加如下内容:
<property>
<name>dfs.replication</name>
<value>1</value>
<description>存储副本数</description>
</property>
(4)修改mapred-site.xml文件(MapReduce配置文件):在 之间添加如下内容:
<property>
<name>mapred.job.tracker</name>
<value>master:9001</value>
<description>JobTracker的访问路径</description>
</property>