hadoop2.6.0-cdh5.7伪分布式安装(2018-12-7)

1、安装jdk

  • 解压 : tar -zxvf jdk-8u191-linux-x64.tar.gz -C /home/hadoop/app/
  • 配置环境变量 : vim ~/.bash_profile
    添加:
export JAVA_HOME=/home/hadoop/app/jdk1.8.0_191
export PATH=$JAVA_HOME/bin:$PATH
  • 使环境变量生效 : source ~/.bash_profile
  • 验证java : java -version

2、安装ssh

  • yum 安装: yum install ssh
  • 免密登录ssh : ssh-keygen -t rsa
  • 拷贝文件: cp ~/.ssh/id_rsa.pub ~/.ssh/authorized_keys

3、下载并解压hadoop

  • 下载 : 直接去cdh网站下载
  • 解压 : tar -zxvf hadoop-2.6.0-cdh5.7.0.tar.gz -C ../app/

4、hadoop 配置文件的修改(hadoop_home/etc/hadoop)

vim hadoop-env.sh
// -----------------------------------------------------------------------(修改)
export JAVA_HOME=/home/hadoop/app/jdk1.8.0_191

// =========================================
vim core-site.xml 
// ------------------------------------------------------------------------
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://hadoop:8020</value>
    </property>
    <property>
        <name>hadoop.tmp.dir</name>
        <value>/home/hadoop/app/tmp</value>
    </property>
</configuration>
// =========================================
vim hdfs-site.xml 
// ------------------------  副本节点 由于是伪分布式 节点只有一个,所以指定节点为1  -------------------
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>
    </property>
</configuration>

// ------------------------  配置slaves -------------------
slaves

5、启动hdfs

  • 格式化文件系统(仅第一次执行即可,不要重复执行): hdfs namenode -format
  • 启动hdfs : sbin/start-dfs.sh
  • 验证是否成功:
# jps
7796 SecondaryNameNode
7529 NameNode
7615 DataNode

浏览器访问方式: http://192.168.80.83:50070

6、 停止hdfs

  • sbin/stop-dfs.sh

7、 Java API 操作HDFS文件

public void listFiles() throws Exception {
        Path filePath = new Path("/hdfsapi/test/");
        FileStatus[] fileStaStatus = fileSystem.listStatus(filePath);
        for (FileStatus fileStatus : fileStaStatus) {
            boolean isDir = fileStatus.isDirectory();
            String status = isDir ? "文件夹" : "文件";
            short replication = fileStatus.getReplication();
            Long len = fileStatus.getLen();
            String path = fileStatus.getPath().toString();
            // 打印文件信息
            System.out.println(status + "\t" + replication + "\t" + len + "\t" + path);
        }
    }

文件 3 243793920 hdfs://192.168.80.83:8020/hdfsapi/test/MySQL-5.6.tar
文件 3 12 hdfs://192.168.80.83:8020/hdfsapi/test/b.txt
文件 3 983911 hdfs://192.168.80.83:8020/hdfsapi/test/mysql-connector-java-5.1.38.jar

  • 问题 : 我们已经在hdfs-site.xml 中设置了副本系数为1,为什么此时查询文件看到的是3呢?
    public void listFiles() throws Exception {
        Path filePath = new Path("/");
        FileStatus[] fileStaStatus = fileSystem.listStatus(filePath);
        for (FileStatus fileStatus : fileStaStatus) {
            boolean isDir = fileStatus.isDirectory();
            String status = isDir ? "文件夹" : "文件";
            short replication = fileStatus.getReplication();
            Long len = fileStatus.getLen();
            String path = fileStatus.getPath().toString();

            System.out.println(status + "\t" + replication + "\t" + len + "\t" + path);
        }
    }

文件 1 311585484 hdfs://192.168.80.83:8020/hadoop-2.6.0-cdh5.7.0.tar.gz
文件夹 0 0 hdfs://192.168.80.83:8020/hdfsapi
文件 1 51 hdfs://192.168.80.83:8020/hello.txt

  • 解释 : 如果是通过hdfs shell的方式put上去的,那么才会采用默认的副本系数1,如果用java api上传上去的,在本地我们并没有手工设置副本系数,所以采用的是hadoop默认的3

8、Hadoop1.x 时:

  • MapReduce : Master/Slave 架构,一个JobTracker带多个TaskTracker
  • JobTracker : 负责资源管理和作业调度
  • TaskTracker : 定期向JT汇报本届点的健康状况,资源使用情况,作业执行情况;接受来自JT的命令: 启动/杀死任务
  • YARN(Yet Another Resource Negotiator) : 不同计算机框架可以共享同一个HDFS集群上的数据,享受整体的资源调度
  • XXX on YARN 好处 :与其他计算框架共享集群资源,按资源需要分配,进而提高集群资源的利用率
  • XXX : Spark/MapReduce/Storm/Flink

9、YARN 架构

  • 1、ResourceManager(RM):
    整个集群同一时间提供服务的RM只有一个,负责集群资源的统一管理和调度;
    处理客户端的请求:提交一个作业,杀死一个作业;
    监控我们的NM,一旦某个NM挂了,那么该NM上运行的任务需要告诉我们的AM来如何进行处理

  • 2、NodeManager(NM):
    整个集群中有多个,负责自己本身节点资源管理和使用;
    定时向RM汇报本节点的资源使用情况;
    接收并处理来自RM各种命令:启动/关闭Container
    处理来自AM的命令
    单个节点的资源管理

  • 3、ApplicationMasger(AM)
    每个应用程序对应一个:MR、Spark,负责应用程序的管理
    为应用程序向RM申请资源(core、memory),分配给内部task
    需要与NM通信:启动/停止task,task是运行在container里面,AM也是运行在container里面

  • 4、Container
    封装了CPU、Memory等资源的一个容器
    是一个任务运行环境的抽象

  • 5、Client
    提交作业
    查询作业的进度
    杀死作业

10 、YARN 环境搭建

  • mapred-site.xml
<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
</configuration>
  • yarn-site.xml
<configuration>
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
</configuration>
  • 启动YARN相关进程:sbin/start-yarn.sh
  • 验证
    jps : ResourceManager NodeManager
    http://localhost:8088/
  • 停止yarm相关的进程:sbin/stop-yarn.sh

11、测试yarn

  • 提交作业到YARN上运行:/home/hadoop/app/hadoop-2.6.0-cdh5.7.0/share/hadoop/mapreduce/hadoop-mapreduce-examples-2.6.0-cdh5.7.0.jar
  • 使用 (hadoop jar): hadoop jar hadoop-mapreduce-examples-2.6.0-cdh5.7.0.jar pi 2 3
好的,下面是Hadoop安装教程-单机-分布式配置-Hadoop2.6.0-Ubuntu14.04详细教程教学: 1. 安装Java Hadoop是基于Java开发的,因此需要先安装Java。可以在终端中输入以下命令进行安装: ```bash sudo apt-get update sudo apt-get install default-jdk ``` 2. 下载Hadoop 可以在Hadoop官网下载Hadoop压缩包,也可以在终端中输入以下命令进行下载: ```bash wget https://archive.apache.org/dist/hadoop/core/hadoop-2.6.0/hadoop-2.6.0.tar.gz ``` 3. 解压Hadoop 在终端中输入以下命令解压Hadoop压缩包: ```bash tar -xzvf hadoop-2.6.0.tar.gz ``` 4. 配置Hadoop环境变量 打开终端中的/etc/environment文件,并在其中添加以下内容: ```bash export HADOOP_HOME=/path/to/hadoop export PATH=$PATH:$HADOOP_HOME/bin ``` 其中,/path/to/hadoopHadoop所在的路径。保存文件后,输入以下命令使配置生效: ```bash source /etc/environment ``` 5. 配置Hadoop 进入Hadoop目录,编辑etc/hadoop/hadoop-env.sh文件。找到以下行: ```bash export JAVA_HOME=${JAVA_HOME} ``` 将其修改为: ```bash export JAVA_HOME=/usr/lib/jvm/default-java ``` 保存文件并关闭。 6. 配置HDFS 进入etc/hadoop目录,编辑hdfs-site.xml文件。添加以下内容: ```xml <configuration> <property> <name>dfs.replication</name> <value>1</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/path/to/hadoop/data/dfs/namenode</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/path/to/hadoop/data/dfs/datanode</value> </property> </configuration> ``` 其中,/path/to/hadoop/data为Hadoop数据存储路径。 7. 配置YARN 进入etc/hadoop目录,编辑yarn-site.xml文件。添加以下内容: ```xml <configuration> <property> <name>yarn.nodemanager.aux-services</name> <value>mapreduce_shuffle</value> </property> <property> <name>yarn.nodemanager.aux-services.mapreduce.shuffle.class</name> <value>org.apache.hadoop.mapred.ShuffleHandler</value> </property> </configuration> ``` 8. 配置MapReduce 进入etc/hadoop目录,编辑mapred-site.xml文件。添加以下内容: ```xml <configuration> <property> <name>mapreduce.framework.name</name> <value>yarn</value> </property> </configuration> ``` 9. 格式化HDFS 在终端中输入以下命令格式化HDFS: ```bash hdfs namenode -format ``` 10. 启动Hadoop 在终端中输入以下命令启动Hadoop: ```bash start-all.sh ``` 11. 验证Hadoop 在浏览器中输入http://localhost:50070,即可访问Hadoop Web UI。在该页面中可以查看HDFS的状态、数据块、节点等信息。 以上就是Hadoop安装教程-单机-分布式配置-Hadoop2.6.0-Ubuntu14.04详细教程教学。希望对你有所帮助!
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值