hadoop分布式系统

127 篇文章 0 订阅
36 篇文章 0 订阅

一、hadoop

1.hadoop简介

Hadoop是一个由Apache基金会所开发的分布式系统基础架构。
Hadoop的框架最核心的设计就是:

  • HDFS
  • MapReduce

2.hadoop的技术主要模块

1)Hdfs主要模块:

  • NameNode:是整个文件系统的管理节点。维护整个文件系统的文件目录树,文件/目录的元数据和
    每个文件对应的数据块列表。接收用户的请求。
  • DataNode:是HA(高可用性)的一个解决方案,是备用镜像,但不支持热备

HDFS为海量的数据提供了存储,而MapReduce则为海量的数据提供了计算。
2)Yarn主要模块:

  • ResourceManager
  • NodeManager

3.hadoop的优点

  • 高可靠性。Hadoop按位存储和处理数据的能力值得人们信赖。
  • 高扩展性。Hadoop是在可用的计算机集簇间分配数据并完成计算任务的,这些集簇可以方便地扩展到数以千计的节点中。
  • 高效性。Hadoop能够在节点之间动态地移动数据,并保证各个节点的动态平衡,因此处理速度非常快。
  • 高容错性。Hadoop能够自动保存数据的多个副本,并且能够自动将失败的任务重新分配。
  • 低成本。与一体机、商用数据仓库以及QlikView、Yonghong Z-Suite等数据集市相比,hadoop是开源的,项目的软件成本因此会大大降低。

4.hadoop大数据处理的意义

Hadoop得以在大数据处理应用中广泛应用得益于其自身在数据提取、变形和加载(ETL)方面上的天然优势。Hadoop的分布式架构,将大数据处理引擎尽可能的靠近存储,对例如像ETL这样的批处理操作相对合适,因为类似这样操作的批处理结果可以直接走向存储。Hadoop的MapReduce功能实现了将单个任务打碎,并将碎片任务(Map)发送到多个节点上,之后再以单个数据集的形式加载(Reduce)到数据仓库里。

二、部署hadoop

linux主机ip
hadoop1172.25.1.1
hadoop2172.25.1.2
hadoop3172.25.1.3
hadoop4172.25.1.4

软件 =====> 点击下载 提取码: 6br1

1.搭建单机版hadoop

1.建立用户,设置密码

[root@hadoop1 ~]# useradd -u 1000 hadoop
[root@hadoop1 ~]# passwd hadoop

2.hadoop的安装配置
此时需要切换到hadoop用户操作,把需要用的压缩包放到hadoop家目录下

[root@hadoop1 ~]# ls
hadoop-3.0.3.tar.gz  jdk-8u181-linux-x64.tar.gz
[root@hadoop1 ~]# mv * /home/hadoop/
[root@hadoop1 ~]# su - hadoop
Last login: Mon Apr 15 08:46:38 EDT 2019 on pts/0
[hadoop@hadoop1 ~]$ ls
hadoop-3.0.3.tar.gz  jdk-8u181-linux-x64.tar.gz
[hadoop@hadoop1 ~]$ tar zxf jdk-8u181-linux-x64.tar.gz
[hadoop@hadoop1 ~]$ ln -s jdk1.8.0_181/ java
[hadoop@hadoop1 ~]$ tar zxf hadoop-3.0.3.tar.gz
[hadoop@hadoop1 ~]$ ln -s hadoop-3.0.3 hadoop
[hadoop@hadoop1 ~]$ ls
hadoop        hadoop-3.0.3.tar.gz  jdk1.8.0_181
hadoop-3.0.3  java                 jdk-8u181-linux-x64.tar.gz

3.配置环境变量

[hadoop@hadoop1 ~]$ cd hadoop/etc/hadoop/
[hadoop@hadoop1 hadoop]$ vim hadoop-env.sh 
 54 export JAVA_HOME=/home/hadoop/java
 [hadoop@hadoop1 ~]$ vim .bash_profile
PATH=$PATH:$HOME/.local/bin:$HOME/bin:$HOME/java/bin
[hadoop@hadoop1 ~]$ source .bash_profile
[hadoop@hadoop1 ~]$ jps
11629 Jps

4.测试

[hadoop@hadoop1 hadoop]$ pwd
/home/hadoop/hadoop
[hadoop@hadoop1 hadoop]$ mkdir input
[hadoop@hadoop1 hadoop]$ cp etc/hadoop/*.xml input/
[hadoop@hadoop1 hadoop]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.3.jar grep input output 'dfs[a-z.]+'
	File Input Format Counters 
		Bytes Read=123
	File Output Format Counters 
		Bytes Written=23																					##这就表示成功了
[hadoop@hadoop1 hadoop]$ cd output/
[hadoop@hadoop1 output]$ ls
part-r-00000  _SUCCESS
[hadoop@hadoop1 output]$ cat *
1	dfsadmin

2.搭建伪分布式hadoop

1.编辑配置文件

[hadoop@hadoop1 hadoop]$ pwd
/home/hadoop/hadoop/etc/hadoop
[hadoop@hadoop1 hadoop]$ vim core-site.xml 
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://localhost:9000</value>
    </property>
</configuration>
[hadoop@hadoop1 hadoop]$ vim hdfs-site.xml
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>1</value>     ##自己充当节点
    </property>
</configuration>

2.生成密钥做ssh免密

[hadoop@hadoop1 hadoop]$ ssh-keygen
[hadoop@hadoop1 hadoop]$ ssh-copy-id localhost

3.格式化,并开启服务

[hadoop@hadoop1 hadoop]$ bin/hdfs namenode -format
[hadoop@hadoop1 hadoop]$ cd sbin/
[hadoop@hadoop1 sbin]$ ./start-dfs.sh 
Starting namenodes on [localhost]
Starting datanodes
Starting secondary namenodes [hadoop1]
hadoop1: Warning: Permanently added 'hadoop1,fe80::5054:ff:fe9a:f1f5%eth0' (ECDSA) to the list of known hosts.

4.浏览器查看http://172.25.1.1:9870
在这里插入图片描述
5.测试并上传

[hadoop@hadoop1 hadoop]$ bin/hdfs dfs -mkdir -p /user/hadoop
[hadoop@hadoop1 hadoop]$ bin/hdfs dfs -ls
[hadoop@hadoop1 hadoop]$ bin/hdfs dfs -put input
[hadoop@hadoop1 hadoop]$ bin/hdfs dfs -ls
Found 1 items
drwxr-xr-x   - hadoop supergroup          0 2019-04-15 09:20 input

在这里插入图片描述
删除input和output文件,重新执行命令

[hadoop@hadoop1 hadoop]$ rm -fr input/ output/
[hadoop@hadoop1 hadoop]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.3.jar grep input output 'dfs[a-z.]+'
[hadoop@hadoop1 hadoop]$ ls
bin  include  libexec      logs        README.txt  share
etc  lib      LICENSE.txt  NOTICE.txt  sbin

此时input和output不会出现在当前目录下,而是上传到了分布式文件系统中,网页上可以看到

[hadoop@hadoop1 hadoop]$ bin/hdfs dfs -cat output/*
1	dfsadmin
[hadoop@hadoop1 hadoop]$ bin/hdfs dfs -get output				##从分布式系统中get下来output目录
[hadoop@hadoop1 hadoop]$ cd output/
[hadoop@hadoop1 output]$ ls
part-r-00000  _SUCCESS
[hadoop@hadoop1 output]$ cat *
1	dfsadmin

三、分布式hadoop

1.首先停掉服务

[hadoop@hadoop1 hadoop]$ sbin/stop-dfs.sh			##我这里因为是关机以后第二天写的文章,所以不需要关闭该服务
[hadoop@hadoop1 ~]$ jps
2112 Jps
[hadoop@hadoop1 ~]$ cd /tmp/
[hadoop@hadoop1 tmp]$ rm -fr *								##删除所有的hadoop文件

2.新开hadoop2和hadoop3,新建用户

[root@hadoop2 ~]# useradd -u 1000 hadoop
[root@hadoop3 ~]# useradd -u 1000 hadoop

安装nfs-utils

[root@hadoop1 ~]# yum install -y nfs-utils
[root@hadoop2 ~]# yum install -y nfs-utils
[root@hadoop3 ~]# yum install -y nfs-utils

开启服务

[root@hadoop1 ~]# systemctl start rpcbind
[root@hadoop2 ~]# systemctl start rpcbind
[root@hadoop3 ~]# systemctl start rpcbind

3.hadoop1开启nfs存储,并共享

[root@hadoop1 ~]# systemctl start nfs-server
[root@hadoop1 ~]# vim /etc/exports
/home/hadoop   *(rw,anonuid=1000,anongid=1000)
[root@hadoop1 ~]# exportfs -rv
exporting *:/home/hadoop
[root@hadoop1 ~]# showmount -e
Export list for hadoop1:
/home/hadoop *

4.hadoop3、hadoop4挂载

[root@hadoop2 ~]# mount 172.25.1.1:/home/hadoop /home/hadoop
[root@hadoop2 ~]# df
Filesystem              1K-blocks    Used Available Use% Mounted on
/dev/mapper/rhel-root    17811456 1098404  16713052   7% /
devtmpfs                   497300       0    497300   0% /dev
tmpfs                      508264       0    508264   0% /dev/shm
tmpfs                      508264   13072    495192   3% /run
tmpfs                      508264       0    508264   0% /sys/fs/cgroup
/dev/sda1                 1038336  141476    896860  14% /boot
tmpfs                      101656       0    101656   0% /run/user/0
172.25.1.1:/home/hadoop  17811456 2796416  15015040  16% /home/hadoop

[root@hadoop3 ~]# mount 172.25.1.1:/home/hadoop /home/hadoop
[root@hadoop3 ~]# df
Filesystem              1K-blocks    Used Available Use% Mounted on
/dev/mapper/rhel-root    17811456 1097584  16713872   7% /
devtmpfs                   497300       0    497300   0% /dev
tmpfs                      508264       0    508264   0% /dev/shm
tmpfs                      508264   13072    495192   3% /run
tmpfs                      508264       0    508264   0% /sys/fs/cgroup
/dev/sda1                 1038336  141476    896860  14% /boot
tmpfs                      101656       0    101656   0% /run/user/0
172.25.1.1:/home/hadoop  17811456 2796416  15015040  16% /home/hadoop

这样我们就可以免密登陆hadoop2和hadoop3了,因为我们共享了家目录,里面含有ssh的公钥和私钥
5.重新编辑配置文件

[root@hadoop1 ~]# su - hadoop
Last login: Mon Apr 15 23:12:09 EDT 2019 on pts/0
[hadoop@hadoop1 ~]$ cd hadoop/etc/hadoop/
[hadoop@hadoop1 hadoop]$ vim core-site.xml 
<configuration>
    <property>
        <name>fs.defaultFS</name>
        <value>hdfs://172.25.1.1:9000</value>
    </property>
</configuration>
[hadoop@hadoop1 hadoop]$ vim hdfs-site.xml 
<configuration>
    <property>
        <name>dfs.replication</name>
        <value>2</value>     ##改为两个节点
    </property>
</configuration>
[hadoop@hadoop1 hadoop]$ vim workers 
172.25.1.2
172.25.1.3

此时我们会发现其他节点的也有了这个文件,因为是共享的
在这里插入图片描述
6.格式化,并启动hadoop服务

[hadoop@hadoop1 hadoop]$ bin/hdfs namenode -format
[hadoop@hadoop1 hadoop]$ sbin/start-dfs.sh 
Starting namenodes on [hadoop1]
Starting datanodes
172.25.1.2: Warning: Permanently added '172.25.1.2' (ECDSA) to the list of known hosts.
172.25.1.3: Warning: Permanently added '172.25.1.3' (ECDSA) to the list of known hosts.
Starting secondary namenodes [hadoop1]
[hadoop@hadoop1 hadoop]$ jps
2902 SecondaryNameNode
2682 NameNode
3021 Jps

我们在hadoop2上也可以看到进程
在这里插入图片描述
7.测试

[hadoop@hadoop1 hadoop]$ bin/hdfs dfs -mkdir -p /user/hadoop
[hadoop@hadoop1 hadoop]$ bin/hdfs dfs -mkdir input
[hadoop@hadoop1 hadoop]$ bin/hdfs dfs -put etc/hadoop/*.xml input
[hadoop@hadoop1 hadoop]$ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.0.3.jar grep input output 'dfs[a-z.]+'

网页上查看,有两个数据节点
在这里插入图片描述
这里我的节点一直初步来,后来发现是我的解析有问题,我怕是感冒脑子坏了
在这里插入图片描述
hadoop4模拟客户端

[hadoop@hadoop4 hadoop]$ useradd -u  1000 hadoop
[hadoop@hadoop4 hadoop]$ yum  install -y  nfs-utils
[hadoop@hadoop4 hadoop]$ systemctl start rpcbind
[hadoop@hadoop4 hadoop]$ mount 172.25.14.1:/home/hadoop /home/hadoop
[hadoop@hadoop4 hadoop]$ su - hadoop
[hadoop@hadoop4 hadoop]$ vim /home/hadoop/hadoop/etc/hadoop/workers
172.25.1.2
172.25.1.3
172.25.1.4

然后在hadoop1把hadoop重启
在这里插入图片描述
新建并上传文件
在这里插入图片描述
然后在网页端查看

在这里插入图片描述
ok~

  • 0
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值