大数据技术入门-03-hadoop的运行模式

系列文章目录

大数据技术入门-01-安装Centos

大数据技术入门-02-hadoop的环境搭建


文章目录

前言

一、本地模式

         1.1创建目录

1.2需要执行命令来统计单词的个数

 二、完全分布式

2.1编写集群分发脚本

(1)编写脚本

(2)修改脚本的权限-具有可执行权限

(3)将脚本赋值到/bin中,方便全局调用

(4)测试脚本

(5)检查

2.2免密设置

结语


前言

当你往前走的时候,要一路撒下花朵,因为同样的道路你决不会走第二遍。


hadoop的运行模式分为本地模式、伪分布式、完全分布式。

一、本地模式

1.1创建目录

创建一个wcinput目录,并进入目录,创建一个文件word.txt,并输入一些单词,保存。

[hyh@hadoop102 hadoop-3.1.3]$ mkdir wcinput
[hyh@hadoop102 hadoop-3.1.3]$ cd wcinput
[hyh@hadoop102 wcinput]$ vim word.txt

1.2需要执行命令来统计单词的个数

执行命令hadoop-3.1.3/share/hadoop/mapreduce下的hadoop-mapreduce-examples-3.1.3.jar来统计单词的个数。

hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-3.1.3.jar wordcount wcinput wcoutput

 结果如下,根据wcinput中的单词进行统计:


 二、完全分布式

步骤整体如下:

1)三台客户机(关闭防火墙,静态 ip, 主机名 )
2) 安装 jdk
3 )配置环境变量
4 )安装 hadoop
5 )配置环境变量
6) 配置集群
7 )单点启动
8 )配置 ssh
9 )群起并测试集群

2.1编写集群分发脚本


scp : 完全拷贝内容,不做任何比较
rsync: 远程同步工具 , 主要用于备份和镜像,速度快,不会对重复的文件进行拷贝
语法:
rsync -av 要拷贝的文件路径 / 名称 目的用户 @ 主机名 :目录的路径 / 名称
-a: 归档拷贝
-v 显示复制过程
案例: 把 hadoop102 机器上的 /opt/software 目录同步到 hadoop103 机器上 /opt/software 目录下。
[hyh@hadoop102 opt]$ rsync -av /opt/software/* chenxp@hadoop103:/opt/software/

 (1)编写脚本

  1. 功能:循环复制文件到所有的节点的相同目录下
  2. 期望的脚本:脚本名 要同步的文件名称
  3. 脚本的实现:
/home/hyh/bin 这个目录下存放要编写的脚本,hyh 用户可以在系统任何地方直接执行xrsync.sh
#!/bin/bash
#1.判断参数个数
if [ $# -lt 1 ]
then
    echo Not enough argument!
    exit
fi
#2.遍历集群中所有机器
for host in hadoop102 hadoop103 hadoop104
do
    echo ===========$host==========
    #3.遍历所有的目录,一个一个的发送
    for file in $@
    do
        #4.判断文件是否存在
        if [ -e $file ]
        then
            #5.获取当前文件的父目录
            pdir=$(cd -P $(dirname $file);pwd)
            #6.获取当前文件名
            fname=$(basename $file)
            ssh $host "mkdir -p $pdir"
            #分发文件
            rsync -av $pdir/$fname $host:$pdir
        else
            echo $file does not exist!
        fi
    done
done

(2)修改脚本的权限-具有可执行权限

[hyh@hadoop102 bin]$ chmod +x xsync.sh

 (3)将脚本赋值到/bin中,方便全局调用

[hyh@hadoop102 bin]$ sudo cp xsync.sh /bin/

 (4)测试脚本

[hyh@hadoop102 bin]$ ./xsync.sh /home/chenxp/bin

(5)检查

hadoop103 hadoop104 /home/chenxp/ 是否有 bin 目录, bin 是否存在 xsync .sh 文件。

2.2免密设置


在使用 ssh 进行连接的时候会出现如下的鉴权
The authenticity of host 'hadoop104 (192.168.81.104)' can't be established.
ECDSA key fingerprint is SHA256:GjywmiM7XB61LXLg459aNXGsD23R6PtVgbvSmj9YDCI.
ECDSA key fingerprint is MD5:dc:d5:11:cf:ca:27:49:46:7a:43:f6:16:1e:10:d1:58.
Are you sure you want to continue connecting (yes/no)? yes
Warning: Permanently added 'hadoop104,192.168.81.104' (ECDSA) to the list of known
hosts.
hyh@hadoop104's password:
此时需要配置免密
免密的原理
生成密钥对,前提要进入/home/chenxp/.ssh

 生成密钥, 并查看密钥,此时在.ssh目录下回生成id_rsa私钥和id_rsa.pub公钥:

[hyh@hadoop102 .ssh]$ ssh-keygen -t rsa

 执行完操作以后,查看目录下文件:

 hadoop102的密钥对拷贝到hadoop103 hadoop104 hadoop102

[hyh@hadoop102 .ssh]$ ssh-copy-id hadoop103
[hyh@hadoop102 .ssh]$ ssh-copy-id hadoop104
[hyh@hadoop102 .ssh]$ ssh-copy-id hadoop102
ps known_hosts 文件是存放该机器访问过的机器的公钥
注意:还需要在hadoop103hadoop104重复上面的操作

结语

        在本系列文章中,介绍了大数据Hadoop方向技术。从本地模式到完全分布式的运行模式进行了详细的说明和演示。

        在本地模式下,创建了一个包含单词的文件,并使用Hadoop的示例程序进行单词统计。通过这个简单的例子,了解了Hadoop的基本工作原理和使用方法。

        而在完全分布式环境中,介绍了搭建Hadoop集群的步骤,包括安装JDK、配置环境变量、安装Hadoop等。我们还通过编写脚本和使用rsync工具,实现了文件在集群中的分发和同步。此外,还介绍了如何设置免密登录,以方便在集群节点之间进行SSH连接。

        通过本系列文章的学习,你应该对Hadoop和Spark的基本概念和运行模式有了更深入的了解。希望这些知识能够帮助你在大数据领域取得更好的成果。

        在你的大数据之旅中,记得始终保持前进的姿态,将你的学习和实践散发出美丽的花朵,因为每一次的经历都是独一无二的。祝愿你在大数据方向上取得巨大的成功!

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
### 回答1: Hadoop是一个开源的分布式计算框架,主要用于处理大规模数据集。它的核心是HDFS(Hadoop分布式文件系统)和MapReduce计算模型。 Spark是一个快速、通用的大数据处理引擎,可以在内存中进行数据处理,比Hadoop MapReduce更快。它支持多种数据源,包括HDFS、HBase、Cassandra等。 Storm是一个分布式实时计算系统,可以处理实时数据流。它的核心是Storm集群,可以在多个节点上运行,实现高可用性和可扩展性。 Flink是一个分布式流处理框架,可以处理实时数据流和批处理数据。它的核心是DataStream API,可以进行流式计算和窗口计算。 Samza是一个分布式流处理框架,可以处理实时数据流。它的核心是Kafka和YARN,可以实现高可用性和可扩展性。 ### 回答2: 大数据框架是指一组用于处理大规模数据的软件工具。随着大数据及其分析应用的不断增长,数十个大数据框架已经随着时间而推出,其中包括hadoop、spark、storm、flink、samza等。下面将对这几种大数据框架进行详细介绍。 1. Hadoop Hadoop是一个在大数据应用领域最流行的框架。它是以Java语言开发的,是一个分布式的计算平台。通过它,用户能够处理超过普通计算机可以承受的数据量。Hadoop集群由多个计算机组成,在不同的计算机上存储和计算数据。Hadoop的主要组件包括HDFS(分布式文件系统),MapReduce计算模型(可以实现大规模数据的并行处理)。 2. Spark Spark是一个基于内存的计算框架,可以实现大数据的快速处理。与Hadoop相比,Spark运行速度更快,因为它可以在内存中执行计算任务。Spark可以通过Java、Scala和Python编写,还支持Spark SQL(基于SQL的查询),Spark Streaming(处理实时数据流)、MLlib(机器学习库)等功能模块。 3. Storm Storm也是一个实时数据处理框架。它能够实现一种“实时数据流”的处理模式,这在需要对流式数据进行实时处理和计算的场景中非常有用。Storm是一个分布式的框架,包括多个节点,支持高可靠性、水平扩展、非常灵活的拓扑连接等功能。 4. Flink Flink是一个高度可扩展、分布式的计算框架。它支持流式处理和批处理。通过内存进行数据计算,速度更快,同时也支持实时流式数据处理。Flink将传统的批量处理和流式处理集成到了一个框架中,将批量计算看成一种特殊形式的流式计算。 5. Samza Samza是一个其他不同大数据框架的组件,它是一个分布式流处理器,可以处理大量的流数据。它可以作为批处理系统的组件来使用,提供可靠的消息传递、基于字符串的状态存储、多维度流处理和都市需求等功能。Samza主要用于大规模流式数据的分析和处理,通常和其他的大数据处理框架一起使用。 总体来说,以上这几种大数据框架适用于不同的场景和需求。在实际应用时,需要根据具体情况进行选择和使用,以达到最佳的效果和效率。 ### 回答3: 大数据框架是当今大数据技术领域中越来越重要的一部分。在众多大数据框架中,Hadoop、Spark、Storm、Flink和Samza是其中最常用的框架。 Hadoop是由Apache基金会开发的开源框架,主要用于存储和处理大数据。它的核心组件包括HDFS和MapReduce。HDFS是一个分布式文件系统,通常用于存储大数据,而MapReduce是一种分布式数据处理模型,用于对大数据进行批处理。 Spark是另一个Apache开源项目,也是用于大数据处理的框架。与Hadoop不同的是,Spark使用内存计算,这意味着它可以比Hadoop更快地处理大量数据。Spark支持多种编程语言,包括Java、Scala和Python,也支持SQL查询和图形计算。 Storm是另一个Apache开源项目,主要用于流式数据处理。与Hadoop和Spark不同的是,Storm能够实时处理流数据,而不需要等待离线批处理。Storm支持容错和高可用性,并支持多种编程语言,包括Java、Scala和Clojure。 Flink是由Apache开发的开源流处理框架。与Storm类似,Flink也可以进行实时数据处理,并支持批处理模式。Flink的主要特点是低延迟和高吞吐量,同时支持复杂事件处理和机器学习。 最后,Samza也是另一个Apache开源框架,主要用于流式数据处理。与Storm和Flink不同的是,Samza的焦点是可扩展性和容错性。Samza的主要优点之一是它与Kafka集成良好,Kafka是一个分布式消息队列。 总之,Hadoop、Spark、Storm、Flink和Samza都是在大数据领域中广泛应用的重要框架。每个框架都有自己的特点和优劣,应根据具体的大数据需求和场景进行选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值