前期操作
- 下载 hadoop 安装包至安装目录
安装目录:/opt
hadoop版本:hadoop-2.6.0-cdh5.14.2.tar.gz
- 解压安装包至软件目录(最好更名,以便之后方便配置文件)
tar -zxf hadoop-2.6.0-cdh5.14.2.tar.gz
mv hadoop-2.6.0-cdh5.14.2 soft/hadoop260
- 进入文件,准备配置
因为需要用到 java 的路径,可以代码查找,并复制至剪贴板备用
cd /opt/soft/hadoop260/etc/hadoop
echo $JAVA_HOME
修改配置文件
注:注意修改路径和IP地址之类的变更项
- 配置 jdk 路径
#更换 JAVA_HOME 的路径
vi hadoop-env.sh
export JAVA_HOME=/opt/soft/jdk180
- 修改核心配置文件
设置默认文件系统(本地默认 file:/位置)此处端口与HBASE端口设成一样
创建临时存储文件路径
授权访问用户为所有 root 型
授权访问用户为任意组的 root 型
vi core-site.xml
<configuration>
<property>
<name>fs.defaultFS</name>
<value>hdfs://192.168.56.101:9000</value>
</property>
<property>
<name>hadoop.tmp.dir</name>
<value>/opt/soft/hadoop260/tmp</value>
</property>
<property>
<name>hadoop.proxyuser.root.hosts</name>
<value>*</value>
</property>
<property>
<name>hadoop.proxyuser.root.groups</name>
<value>*</value>
</property>
</configuration>
- 设置文件副本个数
这里:最少3个伪分布只写1个,我只用一台机子模拟
vi hdfs-site.xml
<configuration>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuration>
- 设置映射化简模型框架
这里需要复制 mapred-site.xml.template 临时文件,并在复制后的文件中配置(注意命名)
设置框架为 yarn
cp mapred-site.xml.template mapred-site.xml
vi mapred-site.xml
<configuration>
<property>
<name>mapreduce.framework.name</name>
<value>yarn</value>
</property>
</configuration>
- 设置 yarn 站点+节点
设置 yarn 站点名称为:localhost
设置辅助节点管理
vi yarn-site.xml
<configuration>
<!-- Site specific YARN configuration properties -->
<property>
<name>yarn.resourcemanager.localhost</name>
<value>localhost</value>
</property>
<property>
<name>yarn.nodemanager.aux-services</name>
<value>mapreduce_shuffle</value>
</property>
</configuration>
- 添加环境变量的相关项
vi /etc/profile
#末行添加配置项
export HADOOP_HOME=/opt/soft/hadoop260
export HADOOP_MAPRED_HOME=$HADOOP_HOME
export HADOOP_COMMON_HOME=$HADOOP_HOME
export HADOOP_HDFS_HOME=$HADOOP_HOME
export YARN_HOME=$HADOOP_HOME
export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native
export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin
export HADOOP_INSTALL=$HADOOP_HOME
启动调试是否配置成功
- 加载环境变量配置文件
source /etc/profile
- 格式化 NameNode
hadoop namenode -format
- 启动 Hadoop
start-all.sh
- 检验启动是否成功
后台进程应该有相关的5项
网页键入 192.168.56.101:50070 页面显示为:
检验成功,即安装成功,祝大家好运,谢谢!!!