大数据:Hadoop:单机搭建(2.0+)

一、环境准备

物理机

  •         软件安装:VMware + centOS10  secureCRT&FX  IDEA
  •         网段设定:虚拟机 网段    192.168.8.1        
  •         网络配置:VMnet1  ip     192.168.8.88   255.255.255.0
  •         主机映射:host文件       C:\Windows\System32\drivers\etc\hosts  192.168.8.101 node1

虚拟机

  •         免密切换root       vim /etc/sudoers       node1   ALL=(ALL)   NOPASSWD: ALL
  •         网络设置             192.168.8.101        255.255.255.0       192.168.8.1
  •         主机名                 vim /etc/sysconfig/network       HOSTNAME=node1
  •         主机映射              vim /etc/hosts   
    192.168.8.101  node1
  •         关闭防火墙            service iptables stop
  •         关闭防火墙自启     chkconfig iptables off
  •         创建文件夹            mkdir /cluster        mkdir /usr/java        mkdir /softs
  •         -------------------------------------------------- 重启 + 互ping + 备份 + 上传文件 ---------------------------------------------------------
  •         ssh免密访问                cd ~        cd .ssh/        ssh-keygen -t rsa-
    ssh-copy-id 192.168.8.101

二、软件安装

安装JDK

  •        解压                  tar -zxvf jdk-8u231-linux-x64.tar.gz -C /usr/java/
  •       修改环境变量     vim /etc/profile
    export JAVA_HOME=/usr/java/jdk1.8.0_231
    export HADOOP_HOME=/cluster/hadoop-2.7.3
    export PATH=$PATH:$JAVA_HOME/bin:$HADOOP_HOME/bin
  •       刷新环境变量     source /etc/profile

安装Hadoop

  •       解压                     tar -zxvf hadoop-2.7.3.tar.gz -C /cluster/
  •        vim hadoop-env.sh
    export JAVA_HOME=/usr/java/jdk1.8.0_231
  •      vim core-site.xml
    <configuration>
        <!-- 指定HDFS里的老大(namenode)的通信地址 -->
        <property>
             <name>fs.defaultFS</name>
             <value>hdfs://node1:9000</value>
        </property>
    
            <!-- 指定hadoop运行时产生文件的存储路径 -->
    	<property>
    		<name>hadoop.tmp.dir</name>
    		<value>/cluster/hadoop-2.7.3/tmp</value>
    	</property>
    </configuration>
    
    	
  •         vim hdfs-site.xml 
    <configuration>
    	<!-- 设置hdfs副本数量 -->
    	<property>
    		<name>dfs.replication</name>
    		<value>1</value>
    	</property>
    </configuration>
  •        vim mapred-site.xml      mv mapred-site.xml.template mapred-site.xml   
    <configuration>
    	<!-- 通知框架MR使用YARN -->
    	<property>
    		<name>mapreduce.framework.name</name>
    		<value>yarn</value>
    	</property>
    </configuration>
  •       vim yarn-site.xml

    <configuration>
    	<!-- 指定YARN的老大(ResourceManager)的地址 -->
    	<property>
    		<name>yarn.resourcemanager.hostname</name>
    		<value>node1</value>
    	</property>
    
    	<!-- reducer获取数据的方式 -->
    	<property>
    		<name>yarn.nodemanager.aux-services</name>
    		<value>mapreduce_shuffle</value>
    	</property>
    </configuration>

     

三、初始化+验证

  •        格式化HDFS(namenode)            hdfs namenode -format 

  •       启动hadoop             ./start-all.sh        或者分别启动(    启动HDFS:  ./start-dfs.sh    启动YARN : ./start-yarn.sh   )              

  •       进程验证  jps   6个    NameNode  Jps  SecondaryNameNode  NodeManager  ResourceManager  DataNode

  •       浏览器验证:

    • HDFS管理界面:   http://192.168.8.101:50070  

    • MR管理界面:       http://192.168.8.101:8088 

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值