大数据学习笔记(四)-Hadoop集群脚本分发和群起

前面,已经搭建好了三台服务器,并实现了单机器启动,现在,将要实现集群启动,并使用xsync.sh煎熬本实现集群之间的配置分发,集群群起,这样就只需在一台机器上操作,就可以配置集群了。直接开干:

1.配置集群分发脚本

  • scp(secure copy)安全拷贝
scp    -r          $pdir/$fname        $user@hadoop$host:$pdir/$fname
命令   递归       要拷贝的文件路径/名称    目的用户@主机:目的路径/名称

将hadoop101中/etc/profile文件拷贝到hadoop102的/etc/profile上。
[root@hadoop101 ~]$ sudo scp /etc/profile root@hadoop102:/etc/profile

  • rsync 远程同步工具
rsync主要用于备份和镜像。具有速度快、避免复制相同内容和支持符号链接的优点。
rsync和scp区别:用rsync做文件的复制要比scp的速度快,rsync只对差异文件做更新。scp是把所有文件都复制过去。

基本语法
rsync    -rvl       $pdir/$fname              $user@hadoop$host:$pdir/$fname
命令   选项参数   要拷贝的文件路径/名称    目的用户@主机:目的路径/名称

把hadoop101机器上的/opt/software目录同步到hadoop102服务器的root用户下的/opt/目录
[root@hadoop101 opt]$ rsync -rvl /opt/software/ root@hadoop102:/opt/software
  • xsync集群分发脚本
需求:循环复制文件到所有节点的相同目录下
需求分析:
rsync命令原始拷贝:
rsync  -rvl     /opt/module  		 root@hadoop103:/opt/
期望脚本:
xsync要同步的文件名称

在root/bin 目录下新建xsync.sh文件
具体脚本如下:

#!/bin/bash
#1 获取输入参数个数,如果没有参数,直接退出
pcount=$#
if((pcount==0)); then
echo no args;
exit;
fi

#2 获取文件名称
p1=$1
fname=`basename $p1`
echo fname=$fname

#3 获取上级目录到绝对路径
pdir=`cd -P $(dirname $p1); pwd`
echo pdir=$pdir

#4 获取当前用户名称
user=`whoami`

#5 循环
for((host=102; host<105; host++)); do
        echo ------------------- hadoop$host --------------
        rsync -rvl $pdir/$fname $user@hadoop$host:$pdir
done

修改脚本 xsync 具有执行权限

[root@hadoop102 bin]$ chmod 777 xsync.sh

2.集群部署规划

hadoop102hadoop103hadoop104
HDFSNameNode、DataNodeDataNodeSecondaryNameNode、 DataNode
YARNNodeManagerResourceManager、NodeManagerNodeManager
2.1 核心配置文件配置:
(1)核心配置文件
配置core-site.xml
[root@hadoop102 hadoop]$ vi core-site.xml
在该文件中编写如下配置
<!-- 指定HDFS中NameNode的地址 -->
<property>
	  <name>fs.defaultFS</name>
      <value>hdfs://hadoop102:9000</value>
</property>

<!-- 指定Hadoop运行时产生文件的存储目录 -->
<property>
		<name>hadoop.tmp.dir</name>
		<value>/opt/module/hadoop-2.7.2/data/tmp</value>
</property>

(2)HDFS配置文件
配置hadoop-env.sh
[root@hadoop102 hadoop]$ vi hadoop-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
配置hdfs-site.xml
[root@hadoop102 hadoop]$ vi hdfs-site.xml
在该文件中编写如下配置
<property>
		<name>dfs.replication</name>
		<value>3</value>
</property>

<!-- 指定Hadoop辅助名称节点主机配置 -->
<property>
      <name>dfs.namenode.secondary.http-address</name>
      <value>hadoop104:50090</value>
</property>

(3)YARN配置文件
配置yarn-env.sh
[root@hadoop102 hadoop]$ vi yarn-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
配置yarn-site.xml
[root@hadoop102 hadoop]$ vi yarn-site.xml
在该文件中增加如下配置
<!-- Reducer获取数据的方式 -->
<property>
		<name>yarn.nodemanager.aux-services</name>
		<value>mapreduce_shuffle</value>
</property>

<!-- 指定YARN的ResourceManager的地址 -->
<property>
		<name>yarn.resourcemanager.hostname</name>
		<value>hadoop103</value>
</property>

(4)MapReduce配置文件
配置mapred-env.sh
[root@hadoop102 hadoop]$ vi mapred-env.sh
export JAVA_HOME=/opt/module/jdk1.8.0_144
配置mapred-site.xml
[root@hadoop102 hadoop]$ cp mapred-site.xml.template mapred-site.xml

[root@hadoop102 hadoop]$ vi mapred-site.xml
在该文件中增加如下配置
<!-- 指定MR运行在Yarn上 -->
<property>
		<name>mapreduce.framework.name</name>
		<value>yarn</value>
</property>
3.在集群上分发配置好的Hadoop配置文件
[root@hadoop102 hadoop]$ xsync /opt/module/hadoop-2.7.2/
4.查看文件分发情况
[root@hadoop103 hadoop]$ cat /opt/module/hadoop-2.7.2/etc/hadoop/core-site.xml

2.2 SSH无密登录配置
生成公钥和私钥:
[root@hadoop102 .ssh]$ ssh-keygen -t rsa
将公钥拷贝到要免密登录的目标机器上
[root@hadoop102 .ssh]$ ssh-copy-id hadoop102
[root@hadoop102 .ssh]$ ssh-copy-id hadoop103
[root@hadoop102 .ssh]$ ssh-copy-id hadoop104

注意:
还需要在hadoop102上采用root账号,配置一下无密登录到hadoop102、hadoop103、hadoop104;
还需要在hadoop103上采用root账号配置一下无密登录到hadoop102、hadoop103、hadoop104服务器上。

2.3 群起集群
  • 配置slaves
[root@hadoop102 hadoop]$ vi slaves
在该文件中增加如下内容:
hadoop102
hadoop103
hadoop104
注意:该文件中添加的内容结尾不允许有空格,文件中不允许有空行。

同步所有节点配置文件
[root@hadoop102 hadoop]$ xsync slaves
  • 启动集群
(1)如果集群是第一次启动,需要格式化NameNode(注意格式化之前,一定要先停止上次启动的所有namenode和datanode进程,然后再删除data和log数据)
[root@hadoop102 hadoop-2.7.2]$ bin/hdfs namenode -format
(2)启动HDFS
[root@hadoop102 hadoop-2.7.2]$ sbin/start-dfs.sh
(3)启动YARN
[root@hadoop103 hadoop-2.7.2]$ sbin/start-yarn.sh
注意:NameNode和ResourceManger如果不是同一台机器,不能在NameNode上启动 YARN,应该在ResouceManager所在的机器上启动YARN。

jps 查看各服务器情况:
[root@hadoop102 hadoop-2.7.2]# jps
6386 NameNode
6770 NodeManager
6511 DataNode

[root@hadoop103 hadoop-2.7.2]# jps
5008 NodeManager
4775 DataNode
4908 ResourceManager

[root@hadoop104 module]# jps
5282 NodeManager
5095 DataNode
5191 SecondaryNameNode

在这里插入图片描述
Web端查看SecondaryNameNode
在这里插入图片描述
在这里插入图片描述
上传文件测试:

[root@hadoop104 hadoop-2.7.2]# hdfs dfs -mkdir -p /user/root/input
[root@hadoop104 hadoop-2.7.2]# hdfs dfs -put wcinput/wc.input /user/root/input
[root@hadoop104 hadoop-2.7.2]# bin/hadoop fs -put /opt/software/hadoop-2.7.2.tar.gz  /user/root/input
[root@hadoop104 hadoop-2.7.2]# 

在这里插入图片描述
在这里插入图片描述
查看文件存放位置:

[root@hadoop102 hadoop-2.7.2]# ll
总用量 32
drwxr-xr-x. 2 10011 10011   194 1月   4 17:32 bin
drwxr-xr-x. 3 root  root     17 3月  10 15:03 data
drwxr-xr-x. 3 10011 10011    20 1月  26 2016 etc
drwxr-xr-x. 2 10011 10011   106 1月   4 17:32 include
drwxr-xr-x. 2 root  root    187 1月   4 17:32 input
drwxr-xr-x. 3 10011 10011    20 1月  26 2016 lib
drwxr-xr-x. 2 10011 10011   239 1月   4 17:32 libexec
-rw-r--r--. 1 root  root  15429 1月   4 17:32 LICENSE.txt
drwxr-xr-x. 3 root  root   4096 3月  10 15:17 logs
-rw-r--r--. 1 root  root    101 1月   4 17:32 NOTICE.txt
drwxr-xr-x. 2 root  root     88 1月   4 17:32 output
-rw-r--r--. 1 root  root   1366 1月   4 17:32 README.txt
drwxr-xr-x. 2 10011 10011  4096 1月   4 17:32 sbin
drwxr-xr-x. 4 10011 10011    31 1月  26 2016 share
drwxr-xr-x. 2 root  root     22 1月   4 17:32 wcinput
drwxr-xr-x. 2 root  root     88 1月   4 17:32 wcoutput
[root@hadoop102 hadoop-2.7.2]# cd data
......
......
[root@hadoop102 subdir0]# cd subdir0/
[root@hadoop102 subdir0]# ll
总用量 208712
-rw-r--r--. 1 root root        45 3月  10 15:28 blk_1073741825
-rw-r--r--. 1 root root        11 3月  10 15:28 blk_1073741825_1001.meta
-rw-r--r--. 1 root root 134217728 3月  10 15:29 blk_1073741826
-rw-r--r--. 1 root root   1048583 3月  10 15:29 blk_1073741826_1002.meta
-rw-r--r--. 1 root root  77829046 3月  10 15:29 blk_1073741827
-rw-r--r--. 1 root root    608047 3月  10 15:29 blk_1073741827_1003.meta
[root@hadoop102 subdir0]# pwd
/opt/module/hadoop-2.7.2/data/tmp/dfs/data/current/BP-1958721629-192.168.18.102-1615360361097/current/finalized/subdir0/subdir0

在这里插入图片描述

集群整体停止:

各个模块分开启动/停止(配置ssh是前提)常用
	(1)整体启动/停止HDFS
		start-dfs.sh   /  stop-dfs.sh
	(2)整体启动/停止YARN
		start-yarn.sh  /  stop-yarn.sh

在这里插入图片描述

  • 1
    点赞
  • 1
    收藏
    觉得还不错? 一键收藏
  • 打赏
    打赏
  • 1
    评论
### 回答1: Hadoop是一个开源的分布式计算框架,主要用于处理大规模数据集。它的核心是HDFS(Hadoop分布式文件系统)和MapReduce计算模型。 Spark是一个快速、通用的大数据处理引擎,可以在内存中进行数据处理,比Hadoop MapReduce更快。它支持多种数据源,包括HDFS、HBase、Cassandra等。 Storm是一个分布式实时计算系统,可以处理实时数据流。它的核心是Storm集群,可以在多个节点上运行,实现高可用性和可扩展性。 Flink是一个分布式流处理框架,可以处理实时数据流和批处理数据。它的核心是DataStream API,可以进行流式计算和窗口计算。 Samza是一个分布式流处理框架,可以处理实时数据流。它的核心是Kafka和YARN,可以实现高可用性和可扩展性。 ### 回答2: 大数据框架是指一组用于处理大规模数据的软件工具。随着大数据及其分析应用的不断增长,数十个大数据框架已经随着时间而推出,其中包括hadoop、spark、storm、flink、samza等。下面将对这几种大数据框架进行详细介绍。 1. Hadoop Hadoop是一个在大数据应用领域最流行的框架。它是以Java语言开发的,是一个分布式的计算平台。通过它,用户能够处理超过普通计算机可以承受的数据量。Hadoop集群由多个计算机组成,在不同的计算机上存储和计算数据。Hadoop的主要组件包括HDFS(分布式文件系统),MapReduce计算模型(可以实现大规模数据的并行处理)。 2. Spark Spark是一个基于内存的计算框架,可以实现大数据的快速处理。与Hadoop相比,Spark运行速度更快,因为它可以在内存中执行计算任务。Spark可以通过Java、Scala和Python编写,还支持Spark SQL(基于SQL的查询),Spark Streaming(处理实时数据流)、MLlib(机器学习库)等功能模块。 3. Storm Storm也是一个实时数据处理框架。它能够实现一种“实时数据流”的处理模式,这在需要对流式数据进行实时处理和计算的场景中非常有用。Storm是一个分布式的框架,包括多个节点,支持高可靠性、水平扩展、非常灵活的拓扑连接等功能。 4. Flink Flink是一个高度可扩展、分布式的计算框架。它支持流式处理和批处理。通过内存进行数据计算,速度更快,同时也支持实时流式数据处理。Flink将传统的批量处理和流式处理集成到了一个框架中,将批量计算看成一种特殊形式的流式计算。 5. Samza Samza是一个其他不同大数据框架的组件,它是一个分布式流处理器,可以处理大量的流数据。它可以作为批处理系统的组件来使用,提供可靠的消息传递、基于字符串的状态存储、多维度流处理和都市需求等功能。Samza主要用于大规模流式数据的分析和处理,通常和其他的大数据处理框架一起使用。 总体来说,以上这几种大数据框架适用于不同的场景和需求。在实际应用时,需要根据具体情况进行选择和使用,以达到最佳的效果和效率。 ### 回答3: 大数据框架是当今大数据技术领域中越来越重要的一部分。在众多大数据框架中,Hadoop、Spark、Storm、Flink和Samza是其中最常用的框架。 Hadoop是由Apache基金会开发的开源框架,主要用于存储和处理大数据。它的核心组件包括HDFS和MapReduce。HDFS是一个分布式文件系统,通常用于存储大数据,而MapReduce是一种分布式数据处理模型,用于对大数据进行批处理。 Spark是另一个Apache开源项目,也是用于大数据处理的框架。与Hadoop不同的是,Spark使用内存计算,这意味着它可以比Hadoop更快地处理大量数据。Spark支持多种编程语言,包括Java、Scala和Python,也支持SQL查询和图形计算。 Storm是另一个Apache开源项目,主要用于流式数据处理。与Hadoop和Spark不同的是,Storm能够实时处理流数据,而不需要等待离线批处理。Storm支持容错和高可用性,并支持多种编程语言,包括Java、Scala和Clojure。 Flink是由Apache开发的开源流处理框架。与Storm类似,Flink也可以进行实时数据处理,并支持批处理模式。Flink的主要特点是低延迟和高吞吐量,同时支持复杂事件处理和机器学习。 最后,Samza也是另一个Apache开源框架,主要用于流式数据处理。与Storm和Flink不同的是,Samza的焦点是可扩展性和容错性。Samza的主要优点之一是它与Kafka集成良好,Kafka是一个分布式消息队列。 总之,Hadoop、Spark、Storm、Flink和Samza都是在大数据领域中广泛应用的重要框架。每个框架都有自己的特点和优劣,应根据具体的大数据需求和场景进行选择。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包

打赏作者

木子丶Li

你的鼓励将是我创作的最大动力

¥1 ¥2 ¥4 ¥6 ¥10 ¥20
扫码支付:¥1
获取中
扫码支付

您的余额不足,请更换扫码支付或充值

打赏作者

实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值