目录
1、安装过程讲解
. 上传jdk和hadoop2.7.3
. 使用普通用户登陆,在home目录下创建bd文件夹(非必需)
. 分别解压jdk和hadoop2.7.3,并测试
. 配置普通用户的环境变量,.bashrc(也可以直接在etc/profile进行配置)
. 测试echo $JAVA_HOME
-
安装过程讲解:
修改配置5个配置文件
hadoop-env.sh
core-site.xml
hdfs-site.xml
mapred-sit.xml(将mapred-sit.xml.template重命令)
yarn-site.xml
使用jdk下面的bin目录中的jps来查看下进程
或者查看日志,在hadoop解压目录中logs里面
在主机windows里面的system32/drivers/etc/hosts里面添加linux主机名对应
的linux里面的ip
通过浏览器进行访问8088端口和50070端口进行测试
--
修改配置5个配置文件
hadoop-env.sh
# The java implementation to use.
export JAVA_HOME=/home/hadoop/bd/jdk1.8.0_144
core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.153.111:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/home/hadoop/bd/hadoop-2.7.3/tmp</value>
</property>
</configuration>
hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
mapred-sit.xml(将mapred-sit.xml.template重命令)
<!-- 指定mr运行在yarn上 -->
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
yarn-site.xml
<configuration>
<!-- 指定YARN的老大(ResourceManager)的地址 -->
<property>
<name>yarn.resourcemanager.hostname</name>
<value>192.168.153.111</value>
</property>
<!-- reducer获取数据的方式 -->
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
启动:
./start-all.sh
当前路径:/usr/local/hadoop-2.7.3/sbin,输入命令:jps,会有5个进程,说明成功安装
2、安装成功后运行
关闭防火墙,然后输入:
http://192.168.199.25:8088/cluster
安装成功