大数据之Storm的安装部署和客户端使用

  1. 下载Storm

Storm下载地址:http://storm.apache.org/downloads.html

  1. 通过工具上传Storm压缩包

  1. 解压Storm

[hadoop@master software]$ tar zxvf apache-storm-1.2.3.tar.gz -C /opt/module/

  1. 安装Storm

4.1配置Storm

  1. 进入到Storm安装目录的conf文件夹

[hadoop@master module]$ cd /opt/module/apache-storm-1.2.3/conf

  1. 修改storm.yaml文件,配置相关参数

[hadoop@master conf]$ vim storm.yaml

在配置文件中添加如下内容

配置Storm集群的Zookeeper集群主机列表

配置指定supervisor的工作节点,可以运行的worker数量,每个worker占用一个端口来接收消息,最多分配5个;默认情况下每个节点可以运行4worker,分别在

6700670167026703,此处定义几个端口,则就表示可以运行几个worker

storm.zookeeper.servers:

- "master"

- "slave1"

- "slave2"

#nimbus

nimbus.host: "master"

ui.port: 8081

supervisor.slots.ports:

- 6700

- 6701

- 6702

- 6703

storm.local.dir: "/opt/module/apache‐storm‐1.2.3/workspace"

NimbusSupervisor守护进程需要在本地磁盘上存储少量状态信息。需要我们手动在

每台Supervisor机器上创建此目录,并授予适当的权限

[hadoop@master apache-storm-1.2.3]$ cd /opt/module/apache-storm-1.2.3

[hadoop@master apache-storm-1.2.3]$ mkdir workspace

  1. 发送Storm到slave1,slave2

[hadoop@master module]$ scp -r /opt/module/apache-storm-1.2.3/ slave1:/opt/module/

[hadoop@master module]$ scp -r /opt/module/apache-storm-1.2.3/ slave2:/opt/module/

4.2 启动Storm

1.启动Zookeeper集群(查看第三章文档)

2.在master上启动nimbus(此窗口会被nimbus占用,请另开一个窗口进行其他操作)

[hadoop@master apache-storm-1.2.3]$ bin/storm nimbus

3.在slave1,slave2上启动supervisor(此窗口会被supervisor占用,请另开一个窗口进行其他操作)

[hadoop@slave2 module]$ cd /opt/module/apache-storm-1.2.3/

[hadoop@slave2 apache-storm-1.2.3]$ bin/storm supervisor

  1. 在master上启动Storm UI

[hadoop@master apache-storm-1.2.3]$ bin/storm ui

  1. 查看Storm UI

http://master:8081/

4.3 客户端基本配置详解

storm.zookeeper.servers:ZooKeeper服务器列表

storm.zookeeper.port:ZooKeeper连接端口

storm.local.dir:storm使用的本地文件系统目录(必须存在并且storm进程可读写)

storm.cluster.mode:Storm集群运行模式([distributed|local])

storm.local.mode.zmq:Local模式下是否使用ZeroMQ作消息系统,如果设置为false则使用java消息系统。默认为false

storm.zookeeper.root:ZooKeeper中Storm的根目录位置

storm.zookeeper.session.timeout:客户端连接ZooKeeper超时时间

storm.id 运行中拓扑的id,由storm name和一个唯一随机数组成。

nimbus.host:nimbus服务器地址

nimbus.thrift.port:nimbus的thrift监听端口

nimbus.childopts:通过storm-deploy项目部署时指定给nimbus进程的jvm

选项

nimbus.task.timeout.secs:心跳超时时间,超时后nimbus会认为task死掉

并重分配给另一个地址。

nimbus.monitor.freq.secs:nimbus检查心跳和重分配任务的时间间隔.注意如果是机器宕掉nimbus会立即接管并处理。

nimbus.supervisor.timeout.secs:supervisor的心跳超时时间,一旦超过

nimbus会认为该supervisor已死并停止为它分发新任务.

nimbus.task.launch.secs:task启动时的一个特殊超时设置.在启动后第一次心跳前会使用该值来临时替代nimbus.task.timeout.secs.

nimbus.reassign:当发现task失败时nimbus是否重新分配执行。默认为真, 不建议修改。

nimbus.file.copy.expiration.secs:nimbus判断上传/下载链接的超时时间, 当空闲时间超过该设定时nimbus会认为链接死掉并主动断开

ui.port:Storm UI的服务端口

drpc.servers:DRPC服务器列表,以便DRPCSpout知道和谁通讯drpc.port:Storm DRPC的服务端口

supervisor.slots.ports:supervisor上能够运行workers的端口列表.每个

worker占用一个端口,且每个端口只运行一个worker.通过这项配置可以调整每台机器上运行的worker数.(调整slot数/每机)

supervisor.childopts:在storm-deploy项目中使用,用来配置supervisor守护进程的jvm选项

supervisor.worker.timeout.secs:supervisor中的worker心跳超时时间,一旦超时supervisor会尝试重启worker进程.

supervisor.worker.start.timeout.secs:supervisor初始启动时,worker的心跳超时时间,当超过该时间supervisor会尝试重启worker。因为JVM初始启动和配置会带来的额外消耗,从而使得第一次心跳会超过

supervisor.worker.timeout.secs的设定

supervisor.enable:supervisor是否应当运行分配给他的workers.默认为true, 该选项用来进行Storm的单元测试,一般不应修改.

supervisor.heartbeat.frequency.secs:supervisor心跳发送频率(多久发送一次)

supervisor.monitor.frequency.secs:supervisor检查worker心跳的频率

worker.childopts:supervisor启动worker时使用的jvm选项.所有的”%ID%”字串会被替换为对应worker的标识符

worker.heartbeat.frequency.secs:worker的心跳发送时间间隔

task.heartbeat.frequency.secs:task汇报状态心跳时间间隔

task.refresh.poll.secs:task与其他tasks之间链接同步的频率.(如果task被重分配,其他tasks向它发送消息需要刷新连接).一般来讲,重分配发生时其他tasks会理解得到通知。该配置仅仅为了防止未通知的情况。

topology.debug:如果设置成true,Storm将记录发射的每条信息。

topology.optimize:master是否在合适时机通过在单个线程内运行多个task 以达到优化topologies的目的.

topology.workers:执行该topology集群中应当启动的进程数量.每个进程内部将以线程方式执行一定数目的tasks.topology的组件结合该参数和并行度提示来优化性能

topology.ackers:topology中启动的acker任务数.Acker保存由spout发送的

tuples的记录,并探测tuple何时被完全处理.当Acker探测到tuple被处理完毕时会向

spout发送确认信息.通常应当根据topology的吞吐量来确定acker的数目,但一般不需要太多.当设置为0时,相当于禁用了消息可靠性,storm会在spout发送tuples后立即进行确认.

topology.message.timeout.secs:topology中spout发送消息的最大处理超时时间.如果一条消息在该时间窗口内未被成功ack,Storm会告知spout这条消息失

败。而部分spout实现了失败消息重播功能。

topology.kryo.register:注册到Kryo(Storm底层的序列化框架)的序列化方案列表.序列化方案可以是一个类名,或者是com.esotericsoftware.kryo.Serializer的实现.

topology.skip.missing.kryo.registrations:Storm是否应该跳过它不能识别的kryo序列化方案.如果设置为否task可能会装载失败或者在运行时抛出错误.

topology.max.task.parallelism:在一个topology中能够允许的最大组件并行度.该项配置主要用在本地模式中测试线程数限制.

topology.max.spout.pending:一个spout task中处于pending状态的最大的tuples数量.该配置应用于单个task,而不是整个spouts或topology.

topology.state.synchronization.timeout.secs:组件同步状态源的最大超时时间(保留选项,暂未使用)

topology.stats.sample.rate:用来产生task统计信息的tuples抽样百分比

topology.fall.back.on.java.serialization:topology中是否使用java的序列化方案

zmq.threads:每个worker进程内zeromq通讯用到的线程数

zmq.linger.millis:当连接关闭时,链接尝试重新发送消息到目标主机的持续时长.这是一个不常用的高级选项,基本上可以忽略.

java.library.path:JVM启动(如Nimbus,Supervisor和workers)时的

java.library.path设置.该选项告诉JVM在哪些路径下定位本地库.

5.shell使用

Storm常用命令:

jar

kill

activate

deactivate

rebalance

repl

classpath

localconfvalue

remoteconfvalue

nimbus

supervisor

ui

drpc

1.jar

语法:storm jar topology-jar-path class ...

使用指定参数运行class的main方法。~/.storm路径下的Storm相关jar包和配置文档会被加入类路径。进程会进行设置,这样StormSubmitter在提交拓扑时会上传topology-jar-path下的jar包。

2.kill

语法:storm kill topology-name [-w wait-time-secs]

终止名为topology-name的拓扑。Storm首先停用拓扑的Spout并等待拓扑的超时时间,以便所有处理中的消息有机会被处理完毕。然后Storm会终止工作线程并清理状态。用户可以通过-w参数设置Storm在停用Spout和终止工作线程之间的等待时间。

3.activate

语法:storm activate topology-name

激活指定的拓扑的Spout。

4.deactivate

语法:storm deactivate topology-name

停用指定的拓扑的Spout。

5.rebalance

语法:storm rebalance topology-name [-w wait-time-secs]

有时用户可能希望迁移运行拓扑的工作进程。例如,用户的集群有10个节点,每个节点上有4个工作进程,这时用户向集群新增了10个节点,并且希望工作进程能够迁移到新的节点上,从而每个节点只有2个工作进程。一种方法是终止进程然后重新提交,但是Storm提供了”rebalance”命令来更轻松地完成这个任务。

rebalance首先指定消息超时时间(使用-w参数)并停用拓扑,然后将工作进程平均分配到集群中的节点上。拓扑之后将会恢复到之前的状态(停用的拓扑仍然停用,激活的拓扑将自动激活)。

6.repl

语法:storm repl

使用Storm类路径内的jar包和配置打开一个Clojure REPL。调试时非常有用。

7.classpath

语法:storm classpath

打印Storm客户端运行命令时使用的类路径。

8.localconfvalue

语法:storm localconfvalue conf-name

打印本地Storm配置中名为conf-name的配置项的值。本地Storm配置为~/.storm/storm.yaml和defaults.yaml合并之后的结果。

9.remoteconfvalue

语法:storm remoteconfvalue conf-name

打印远程Storm配置中名为conf-name的配置项的值。远程Storm配置为$STORM-PATH/conf/storm.yaml和defaults.yaml合并之后的结果。此命令必须在集群中的机器上运行。

10.nimbus

语法:storm nimbus

启动nimbus守护进程。此命令应在类似daemontools或monit的工具的监控之下运行。

11.supervisor

语法:storm supervisor

启动supervisor守护进程。此命令应在类似daemontools或monit的工具的监控之下运行。

12.ui

语法:storm ui

启动UI守护进程。UI提供了一个Web接口用户展示运行中的拓扑的各种详细信息。此命令应在类似daemontools或monit的工具的监控之下运行。

13.drpc

语法:storm drpc

启动DRPC守护进程。此命令应在类似daemontools或monit的工具的监控之下运行。

  • 0
    点赞
  • 4
    收藏
    觉得还不错? 一键收藏
  • 1
    评论
大数据平台自动化部署是一项相对复杂而且需要耗费一定时间的工作,但它能够大大提高大数据平台的部署效率和可靠性。下面是一个基于Hadoop生态的自动化部署平台的搭建步骤: 1. 确定部署环境 首先需要确定部署环境的配置,包括硬件配置、操作系统、网络等。一般来说,大数据平台需要较高的计算、存储和网络性能,推荐使用64位操作系统,至少8GB内存,至少2个CPU核心。 2. 安装Java Hadoop大数据平台是基于Java开发的,因此需要安装Java运行环境。可以从Oracle官网下载JDK安装包,然后按照提示进行安装。 3. 安装Hadoop Hadoop大数据平台的核心组件之一,需要先安装Hadoop。可以从Apache官网下载Hadoop安装包,并按照官方文档进行安装和配置。 4. 安装Zookeeper Zookeeper是一个分布式协调服务,是Hadoop集群中必不可少的组件之一。可以从Apache官网下载Zookeeper安装包,然后按照官方文档进行安装和配置。 5. 安装Hive Hive是一个基于Hadoop的数据仓库工具,可以方便地进行数据分析和查询。可以从Apache官网下载Hive安装包,然后按照官方文档进行安装和配置。 6. 安装HBase HBase是一个分布式的NoSQL数据库,可以存储海量数据。可以从Apache官网下载HBase安装包,然后按照官方文档进行安装和配置。 7. 安装Spark Spark是一个快速、通用、可扩展的大数据处理引擎。可以从Apache官网下载Spark安装包,然后按照官方文档进行安装和配置。 8. 安装其他组件 根据实际需求,可以安装其他大数据组件,比如Kafka、Flume、Storm等。 9. 配置自动化部署工具 选择一个适合自己的自动化部署工具,比如Puppet、Ansible、Chef等,并按照其官方文档进行配置和使用。 10. 编写部署脚本 根据自己的需求和实际情况,编写自动化部署脚本,包括安装和配置大数据组件、启动和停止服务等。 11. 测试和调试 完成自动化部署平台的搭建后,需要进行测试和调试,确保每个组件都能正常运行,部署过程中没有任何问题。 以上就是基于Hadoop生态的自动化部署平台的搭建步骤。需要注意的是,每个组件的安装和配置都比较复杂,需要仔细阅读官方文档,并按照要求进行操作。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论 1
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值