今天在这给大家分享一下单节点下hadoop的安装和配置
1,在Linux下解压hadoop安装包hadoop-2.6.0-cdh5.4.3.tar.gz 执行命令 tar -zxvf hadoop-2.6.0-cdh5.4.3.tar.gz
2,解压之后进入hadoop解压目录下的/etc/hadoop下。配置hadoop的环境和内容,下面是一些配置文件的配置
1.配置core-site.xml。
2,配置 hdfs-site.xml文件
这个文件的配置是配置你的以后文件上传和下载地址。里面需要的目录,需要你自己创建,并按照你自己的路径填写
3,配置yarn-site.xml文件
5,配置mapred-site.xml
上面那些最主要的配置配完之后,下面就是环境变量和jdk环境变量的配置了
在根目录下的/etc/profile文件里配置hadoop的环境变量
上面的环境变量配好之后就要配置hadoop的jdk环境的配置需要在hadoop-env.sh。mapred-env.sh,yarn-env.sh配置你装的jdk环境,如图
上面之后就全部配置好了,下面就要为第一次的运行做准备,格式化结点,输入命令hdfs namenode -format
之后就要启动hadoop了,进入hadoop sbin目录下运行start-all.sh,出现五个进程hadoop说明成功启动
之后在浏览器里输入 http://主机IP:8088,http://主机IP:50070如果可以进去网页,说明hadoop配置成功