1、下载jdk
http://www.oracle.com/technetwork/java/javase/downloads/jdk7-downloads-1880260.html
2、下载hadoop
http://mirrors.cnnic.cn/apache/hadoop/common/stable/
下载hadoop-2.7.1.tar.gz文件
hadoop-2.7.1.-src.tar.gz为源代码文件
3、安装jdk
配置路径
# yumh add
JAVA_HOME=/usr/lib/java-1.8.0/jdk1.8.0_121
JRE_HOME=/usr/lib//usr/lib/java-1.8.0/jdk1.8.0_121/jre
CLASS_PATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar:$JRE_HOME/lib
PATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH
export JAVA_HOME JRE_HOME CLASS_PATH PATH
4、测试成功
java -version
5、安装ssh
apt-get install ssh
6、测试ssh安装结果
ps -e | grep ssh
cd ~/.ssh/ # 若没有该目录,请先执行一次ssh localhost
ssh-keygen -t rsa # 会有提示,都按回车就可以
cat id_rsa.pub >> authorized_keys # 加入授权
修改配置文件/hadoop/etc/hadoop/下的hadoop-env.sh文件
将export JAVA_HOEM=${JAVA_HOME}修改为
export JAVA_HOEM= 路径/java/jdk1.7.0_79
修改hadoop配置文件/conf/下的hadoop-env.sh文件
添加或修改JAVA_HOME
命令: echo $JAVA_HOME
显示JAVA_HOME的配置路径
export JAVA_HOME=路径
使修改后的文件生效
source hadoop-env.sh
系统配置样例
export HADOOP_HOME=/home/yumh/hadoop-2.6.0
export PATH=$PATH:$HADOOP_HOME/bin
export HADOOP_CONF_DIR=$HADOOP_HOME/etc/hadoop
export SPARK_HOME=/home/yumh/spark-1.6.0-bin-hadoop2.6
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin
export SCALA_HOME=/usr/lib/scala-2.11.6
export PATH=$PATH:$SCALA_HOME/bin
export SPARK_LOCAL_IP=192.168.122.65