centos7环境下搭建hadoop环境,以及相关配置

随之科技的进步,大数据应用已经变得越来越广泛,相关大数据的相关技术越来越成熟,闲暇之余,就基于centos7环境下搭建hadoop环境,做相关步骤演示,如有不合理之处,敬请大神指教。

1,准备一个centos7系统,安装jdk,并配置环境变量(网上步骤很多,本次不在详细介绍);

2.修改系统名字, vim etc/hostname


localhost.localdomain 修改为hadoop02(随意的),


3.创建hahdoop文件,将hahdoop安装到该文件夹下

mkdir hahdoop


解压hadoop,tar -zxvf hadoop-2.7.1_64bit.tar.gz  -C hahdoop


4.配置hadoop环境变量;

vim /etc/profile

修改前只有jdk的环境变量


修改后

export JAVA_HOME=/usr/java/jdk1.8.0_111
export HADOOP_HOME=/root/hahdoop/hadoop-2.7.1/
export CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/sbin:$HADOOP_HOME/bin:$ANT_HOME/bin


5.修改hadoop的配置文件:

进行hadoop目录下的etc中hadoop中:cd hahdoop/hadoop-2.7.1/etc/hadoop/

5.1修改hadoop-env.sh文件

vim hadoop-env.sh      //25行,添加jdk的路径,和环境变量一致

修改前


修改后

5.2修改hdfs-site.xml文件

添加:<property>
               <name>dfs.replication</name>
               <value>3</value>
         </property>
         <property>
                <name>dfs.permissions</name>
                <value>false</value>
          </property>

修改前

修改后:

5.3修改mapred-site.xml.template文件,将该文件改名为mapred-site.xml,

mv mapred-site.xml.template mapred-site.xml

并添加:<property>
                   <name>mapreduce.framework.name</name>
                   <value>yarn</value>
              </property>

修改前:


修改后:

5.4修改core-site.xml文件

添加:

<property>

      <name>fs.defaultFS</name>

      <value>hdfs://hadoop02:9000</value>
</property>
<property>
      <name>hadoop.tmp.dir</name>
      <value>/root/hahdoop/hadoop-2.7.1/tmp</value>
</property>

修改前:

修改后:


5.5修改yarn-site.xml文件

添加:<property>
                <name>yarn.resourcemanager.hostname</name>
                <value>hadoop02</value>
          </property>
          <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
           </property>

修改前:

修改后:

5.6修改slaves文件,将localhost修改为hadoop02

6,配置文件修改完毕,开始创建tmp目录,返回hadoop目录下

执行命令bin/hdfs namenode -format


出现Storage directory /root/hahdoop/hadoop-2.7.1/tmp/dfs/name has been successfully formatted.即表示配置成功


启动hadoop,sbin/start-all.sh


执行后,遇到确定就是输入yes,遇到输入密码就是输入开机密码


7.开放50070端口,或者关闭防火墙,我这里关闭防火墙吧


8.在地址栏中输入地址和端口即可访问默认的hadoop环境系统   192.168.1.9:50070


  • 2
    点赞
  • 9
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值