第二章 大数据处理框架 Hadoop

hadoop简介

空~


hadoop有两大核心

  1. HDFS
  2. MapReduce

hadoop特性
高可靠性、高效性、高可扩展性

企业应用

在这里插入图片描述

hadoop不同版本
在这里插入图片描述
Apache Hadoop
在这里插入图片描述

hadoop1.0到2.0的变化
在这里插入图片描述

选择Hadoop版本的参考因素

  1. 是否开源(即是否免费)。
  2. 是否是稳定版本。
  3. 是否实践检验。
  4. 是否有强有社区的支持。

Hadoop项目结构

在这里插入图片描述

Hadoop集群部署

安装方式

  1. 单机模式
  2. 伪分布式模式 在单个节点上以伪分布式的方式运行
  3. 分布式模式 使用多个节点构成集群环境

Hadoop的安装与集群的部署

这里使用2台云服务器(阿里云和腾讯云各一台)构成部署分布式集群。一台作为namenode一台作为datanode
除非特殊说明,否则下面的操作需要在每台服务器上实现。


云服务器信息(部分)

server_name内网ip外网ip
master172.17.0.9129.*.*.*
slave1172.19.65.188101.*.*.*

注意:因为hadoop运行涉及到很多端口,所以笔者在此之前在云服务器网站中将安全组中的所有端口都打开了,否则可能会出错

对于阿里云需要在/etc/cloud/templates/hosts.redhat.tmpl文件中将参数manage_etc_hosts改为False。然后在文件/etc/cloud/cloud.cfg中将manage_etc_hosts: localhost注释掉。这样,对文件hosts文件进行配置后,重启也不会恢复原状。

1. 创建用户
(1) 这条命令创建了可以登陆的 hadoop 用户,并使用 /bin/bash 作为 shell。以后的安装都是使用hadoop用户

su              # 上述提到的以 root 用户登录
useradd -m hadoop -s /bin/bash   # 创建新用户hadoop
passwd hadoop
visudo	#在root ALL=(ALL) ALL行下面添加一行hadoop ALL=(ALL) ALL

2. 网络配置
在centos7/Ubuntu中,当我们需要修改主机名时:

sudo vim /etc/hostname#输入新主机名。这里我们将一台命名为master,一台为slave1

修改ip映射

sudo vim /etc/hosts

#实际内容(因为这两台服务器不在同一个局域网,所以本机需要使用内网ip,而另一台需要使用外网ip!!)
#原来就有的内容
127.0.0.1       localhost       localhost.localdomain   localhost4      localhost4.localdomain4
::1             localhost       localhost.localdomain   localhost6      localhost6.localdomain6
#添加的
172.17.0.9	master
101.*.*.*	slave1

修改完需要重启一下
ping slave1 #看是否可以连通


3. 无密登录

cd ~/.ssh/                     # 若没有该目录,请先执行一次ssh localhost
ssh-keygen -t rsa              # 会有提示,都按回车就可以
cat id_rsa.pub >> authorized_keys  # 加入授权
chmod 600 ./authorized_keys    # 修改文件权限

接着将master结点的公钥上传给slave1结点:

scp ~/.ssh/id_rsa.pub hadoop@slave1:/home/hadoop/
cat ~/id_rsa.pub >> ~/.ssh/authorized_keys

slave1结点也需要将自己的公钥传给master结点


4. 安装java
(1) 首先下载jdk,然后将这个文件解压到指定的文件夹下,推荐/usr/local/。
jdk9以及以上,可能需要自行将javax.activation.jar添加到指定目录(/usr/local/hadoop/share/hadoop/common/lib 参考目录)。

tar –zvxf jdk-8u111-linux-x64.tar.gz –C /usr/local/
cd /usr/local/
sudo mv jdk-8u111-linux-x64 java            # 将文件夹名改为hadoop
sudo chown -R hadoop:hadoop java        # 修改文件权限

(2) 配置JDK环境变量
vim ~/.bashrc,增加如下配置

export JAVA_HOME=/usr/local/java
export PATH=$JAVA_HOME/bin:$PATH

(3) 让环境变量生效

source ~/.bashrc 

(4) 检验是否成功

echo $JAVA_HOME     # 检验变量值
java -version
$JAVA_HOME/bin/java -version  # 与直接执行 java -version 一样

5. 安装hadoop
(1) 首先下载hadoop,然后将这个问价解压到指定的文件夹下,推荐/usr/local/。

tar -zxvf hadoop-2.7.3.tar.gz -C /usr/local/
cd /usr/local/
sudo mv ./hadoop-2.6.0/ ./hadoop            # 将文件夹名改为hadoop
sudo chown -R hadoop:hadoop ./hadoop        # 修改文件权限

(2) 配置hadoop的系统变量(非必须)
vi ~/.bashrc,增加如下配置

export HADOOP_HOME=/usr/local/hadoop
export PATH=$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$JAVA_HOME/bin:$PATH

(3) 环境生效

source ~/.bashrc

(4) 检测是否可用

cd /usr/local/hadoop
./bin/hadoop version

6. 配置集群
修改配置文件(/usr/local/hadoop/etc/hadoop)
(1) 文件slaves(或workers),将datanode的主机名加入其中。(这个文件是namenode所特有的)
(2) 修改文件core-site.xml:

<configuration>
        <property>
                <name>fs.defaultFS</name>
                <value>hdfs://master:9000</value>
        </property>
        <property>
                <name>hadoop.tmp.dir</name>
                <value>file:/usr/local/hadoop/tmp</value>
                <description>Abase for other temporary directories.</description>
        </property>
</configuration>

(3) 修改文件hdfs-site.xml:

<configuration>
        <property>
                <name>dfs.namenode.secondary.http-address</name>
                <value>master:50090</value>
        </property>
        <property>
                <name>dfs.replication</name>
                <value>1</value>
        </property>
        <property>
                <name>dfs.namenode.name.dir</name>
                <value>file:/usr/local/hadoop/tmp/dfs/name</value>
        </property>
        <property>
                <name>dfs.datanode.data.dir</name>
                <value>file:/usr/local/hadoop/tmp/dfs/data</value>
        </property>
</configuration>

(4) 修改文件mapred-site.xml (可能需要先重命名,默认文件名为 mapred-site.xml.template:

<configuration>
        <property>
                <name>mapreduce.framework.name</name>
                <value>yarn</value>
        </property>
        <property>
                <name>mapreduce.jobhistory.address</name>
                <value>master:10020</value>
        </property>
        <property>
                <name>mapreduce.jobhistory.webapp.address</name>
                <value>master:19888</value>
        </property>
</configuration>

(5) 修改文件yarn-site.xml:

<configuration>
        <property>
                <name>yarn.resourcemanager.hostname</name>
                <value>master</value>
        </property>
        <property>
                <name>yarn.nodemanager.aux-services</name>
                <value>mapreduce_shuffle</value>
        </property>
</configuration>

然后将/usr/local/hadoop文件夹复制到各个节点上,同时要删掉datanode上的slaves(或workers)

centos系统需要关闭防火墙

#若是centos7,通过如下命令
systemctl stop firewalld.service    # 关闭firewall
systemctl disable firewalld.service # 禁止firewall开机启动

首次启动hadoop需要进行格式化,以后就不需要了,只需要格式化一次,否则会出问题!

hdfs namenode -format       # 首次运行需要执行初始化,之后不需要

接着启动:

start-dfs.sh
start-yarn.sh
mr-jobhistory-daemon.sh start historyserver

这时,通过在namenode上jps可以看到NameNode、ResourceManager、SecondrryNameNode、JobHistoryServer进程,少一个都表示出错。
在datanode上,可以看到DataNode 和 NodeManager 进程。
可以在namenode上使用命令hdfs dfsadmin -report查看datanode是否正常。在这里,如果如果 Live datanodes 为1,则说明集群启动成功。


关于三种shell命令方式的区别

  1. hadoop fs适用于任何不同的文件系统,比如本地文件系统和HDFS文件系统
  2. hadoop dfs只能适用于HDFS文件系统
  3. hdfs dfs跟hadoop dfs的命令作用一样,也只能适用于HDFS文件系统

整个hadoop集群中主要的节点有:

  • NameNode 可以通过冷备份(Secondary NameNode)对其进行恢复
  • DataNode

MapReduce两大核心组件:

  • JobTracker
  • TaskTracker

热备份定义:一旦NameNode出问题,备份文件立马顶上去。

集群硬件推荐配置图
在这里插入图片描述

Hadoop集群基准测试

  1. hadoop自带有一些基准测试程序,被打包在测试程序jar文件中。
  2. 用TestDFSIO基准测试来测试HDFS的IO性能。
  3. 用排序测试MapReduce
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值