red hat 7 64位 安装jdk和hadoop记录

redhat 7 64位

1.停掉防火墙命令

systemctl stop firewalld.service
停止防火墙命令(重启也无法开启)

systemctl disable firewalld.service

2.更改主机域名

vi /ctx/hosts
打开后输入自己主机名比如新增一行

192.168.23.110 dapeng110

3.解压文件

tar -zxvf 要解压得文件名 -C 解压到哪一个路径

tar -zxvf hadoop-2.7.3.tar.gz -C /root/training

4.设置环境变量(编辑文件 vi + 路径)

vi ~/.bash_profile

----打开文件后相关得操作-----------------
i或者a 开始编辑   esc退出
shift+: 到指令行  wq是保存并退出
           q!是不保存退出

===如何设置行号!!!
一般模式下(摁下esc键,即返回到一般模式下) 
输入:set nu 
取消行号:set nonu 

可以做一个设置 永久打开文件自带行号

打开 vim ~/.vimrc

在里面加入  set nu 

保存退出即可!!

===如果文件冲突出现 Found a swap file by the name

是因为上次编辑文件非法退出 出现异常 会在操作的文件所在的目录下生成一个swp文件

此文件为隐藏文件  使用命令 ls -a 查看

找到这个文件 执行 rm .文件名.swp

删除即可 

----打开文件后相关得操作-----------------

 

设置完环境变量后要执行一下 ,执行命令如下:

source ~/.bash_profile 这样重启之后环境变量依旧存在

 

----jdk环境变量得设置

    JAVA_HOME=/root/training/jdk1.8.0_144
     export JAVA_HOME
     PATH=$JAVA_HOME/bin:$PATH
      export PATH
      
----hadoop得环境变量

HADOOP_HOME=/root/training/hadoop-2.7.3
export HADOOP_HOME

PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
export PATH

 

这里插一句  如果你不晓得一个命令 可以输入后 按两次tab会给出提示

比如输入start 按两次tab可以出来提示第一次是按回车

第二次是按两次Tab

 

好了 以上就安装成功了

接下来 我们配置hadoop

三种模式

1.本地模式(只需要一台电脑)

    没有HDFS,只能测试MapReduce程序

配置简单只要配置一个hadoop安装目录/etc/hadoop/hadoop-env.sh 文件中得 JAVA_HOME属性指位环境变量中得java_home 

修改为

配置完成 

2.伪分布模式(只需要一台电脑)

    是在一个电脑上模拟一个分布式的环境,说白了就是假的,但是具有Hadoop的所有功能

     其中 HDFS的NameNode SecondaryNameNode DataNade 

           yarn 的 ResourceManager NodeManager都是在一个节点中

配置如下

---1.配置一个hadoop安装目录/etc/hadoop/hadoop-env.sh 文件中得 JAVA_HOME属性指位环境变量中得java_home 实现方式参照上面

---2.修改

hdfs-site.xml 设置

            <!--冗余度-->
            <property>
               <name>dfs.replication</name>
               <value>1</value>
            </property>

            <!--禁用HDFS的权限检查-->
            <property>
               <name>dfs.permissions</name>
               <value>false</value>
            </property>

---3.修改

    core-site.xml 配置
            <!--NameNode的地址-->
            <!--端口9000是客户端连接端口-->
            <property>
               <name>fs.defaultFS</name>
               <value>hdfs://dapeng110:9000</value>
            </property>

            <!--HDFS保存数据的目录-->
            <!--默认值是Linux的tmp目录-->
            <property>
               <name>hadoop.tmp.dir</name>
               <value>/root/training/hadoop-2.7.3/tmp</value>
            </property>

---4.使用cp mapred-site.xml.template mapred-site.xml命令复制出

    mapred-site.xml文件并配置
                <!--MR运行的框架-->
                <property>
                   <name>mapreduce.framework.name</name>
                   <value>yarn</value>
                </property>

---5。修改

yarn-site.xml
                    <!--配置ResourceManager的地址-->
                    <property>
                       <name>yarn.resourcemanager.hostname</name>
                       <value>dapeng110</value>
                    </property>

                    <!--执行MR的任务采用shuffle洗牌方式-->
                    <property>
                       <name>yarn.nodemanager.aux-services</name>
                       <value>mapreduce_shuffle</value>
                    </property>

---6.在使用前先格式话NameNode

当出现如下图所示信息表示配置完成

 

3.全分布模式(最少需要三台电脑)

首先创建三个虚拟机安装好Linux JDK 免密码登陆,配置主机名称,环境变量

1.修改主机 /etc/hosts文件,增加ip和别名

2.依次修改配置文件
        hdfs-site.xml

            <!--冗余度-->
            <property>
               <name>dfs.replication</name>
               <value>2</value>
            </property>

            <!--禁用HDFS的权限检查-->
            <property>
               <name>dfs.permissions</name>
               <value>false</value>
            </property>

        core-site.xml
            <!--NameNode的地址-->
            <!--端口9000是客户端连接端口-->
            <property>
               <name>fs.defaultFS</name>
               <value>hdfs://dapeng111:9000</value>
            </property>

            <!--HDFS保存数据的目录-->
            <!--默认值是Linux的tmp目录-->
            <property>
               <name>hadoop.tmp.dir</name>
               <value>/root/training/hadoop-2.7.3/tmp</value>
            </property>
        
        mapred-site.xml
            <!--MR运行的框架-->
            <property>
               <name>mapreduce.framework.name</name>
               <value>yarn</value>
            </property>

        yarn-site.xml
            <!--配置ResourceManager的地址-->
            <property>
               <name>yarn.resourcemanager.hostname</name>
               <value>dapeng111</value>
            </property>

            <!--执行MR的任务采用洗牌方式-->
            <property>
               <name>yarn.nodemanager.aux-services</name>
               <value>mapreduce_shuffle</value>
            </property>
            
        slaves 从节点地址
        使用vi slaves 命令更改 /root/training/hadoop-2.7.3/etc/hadoop目录下的slaves文件
        将localhost修改为从属机器 dapeng112和dapeng113

     

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值