hadoop环境搭建单机(cdh版本)

image.png

1.下载安装包

      下载地址http://hadoop.apache.org/

下载hadoop-2.6.0-cdh5.12.2

2.安装tar -zxvf  hadoop-2.6.0-cdh5.12.2.tar.gz

image.png

3.创建文件夹储存hadoop,给hadoop重命名

image.png

4.进入etc文件夹选择hadoop文件夹  cd hadoop

image.png

5.开始配置hadoop-env.sh   修改其中的JAVA_HOME路径

image.png

image.png

6.配置core-site.xml

image.png

fs.defaultFS默认文件系统的名称,用来确定主机、端口等对于一个文件系统.

hadoop.tmp.dir是hadoop的临时文件目录

hadoop.proxyuser.root.users 远程使用root登录的用户

hadoop.proxyuser.root.groups远程root组的用户登录


 image.png

7.修改hdfs-site.xml   

image.png

dfs.replication文件副本数量,副本数量默认按128M进行切分,若小于此值的话则不切分!一个文件,上传到hdfs上时指定的是几个副本就是几个。以后你修改了副本数,对已经上传了的文件也不会起作用。

image.png

8.复制mapred-site.xml.template 并修改内容

image.png

使用 Yarn 框架执行 map-reduce 处理程序

image.png

9.配置yarn-site.xml

image.png

yarn.resourcemanager.address提供客户端访问的地址。客户端通过该地址向RM提交应用程序,杀死应用程序等

 

yarn.nodemanager.aux-services通过该配置项,用户可以自定义一些服务,例如Map-Reduce的shuffle功能就是采用这种方式实现的,这样就可以在NodeManager上扩展自己的服务。

 

Shuffle把一组有一定规则的数据尽量转换成一组无规则的数据,越随机越好,从Map输出到Reduce输入的整个过程可以广义地称为Shuffle。


 image.png

10修改etc/profile,添加以下内容

export HADOOP_HOME=/opt/bigdata/hadoop260 

export HADOOP_MAPRED_HOME=$HADOOP_HOME 

export HADOOP_COMMON_HOME=$HADOOP_HOME 

export HADOOP_HDFS_HOME=$HADOOP_HOME 

export YARN_HOME=$HADOOP_HOME 

export HADOOP_COMMON_LIB_NATIVE_DIR=$HADOOP_HOME/lib/native 

export PATH=$PATH:$HADOOP_HOME/sbin:$HADOOP_HOME/bin 

export HADOOP_INSTALL=$HADOOP_HOME

 

 

11.格式化

hdfs namenode -format

 

12、启动start-all.sh 

    关闭是stop-all.sh

image.png

13、jps查看所有进程是否开启

image.png

14、访问

http://192.168.56.110:50070