storm介绍

Storm介绍

Storm是Twitter开源的分布式实时大数据处理框架,最早开源于github,从0.9.1版本之后,归于Apache社区,被业界称为实时版Hadoop。随着越来越多的场景对Hadoop的MapReduce高延迟无法容忍,比如网站统计、推荐系统、预警系统、金融系统(高频交易、股票)等等,大数据实时处理解决方案(流计算)的应用日趋广泛,目前已是分布式技术领域最新爆发点,而Storm更是流计算技术中的佼佼者和主流。

Storm的核心组件

  • Nimbus:即Storm的Master,负责资源分配和任务调度。一个Storm集群只有一个Nimbus。
  • Supervisor:即Storm的Slave,负责接收Nimbus分配的任务,管理所有Worker,一个Supervisor节点中包含多个Worker进程。
  • Worker:工作进程,每个工作进程中都有多个Task。
  • Task:任务,在 Storm 集群中每个 Spout 和 Bolt 都由若干个任务(tasks)来执行。每个任务都与一个执行线程相对应。
  • Topology:计算拓扑,Storm 的拓扑是对实时计算应用逻辑的封装,它的作用与 MapReduce 的任务(Job)很相似,区别在于 MapReduce 的一个 Job 在得到结果之后总会结束,而拓扑会一直在集群中运行,直到你手动去终止它。拓扑还可以理解成由一系列通过数据流(Stream Grouping)相互关联的 Spout 和 Bolt 组成的的拓扑结构。
  • Stream:数据流(Streams)是 Storm 中最核心的抽象概念。一个数据流指的是在分布式环境中并行创建、处理的一组元组(tuple)的无界序列。数据流可以由一种能够表述数据流中元组的域(fields)的模式来定义。
  • Spout:数据源(Spout)是拓扑中数据流的来源。一般 Spout 会从一个外部的数据源读取元组然后将他们发送到拓扑中。根据需求的不同,Spout 既可以定义为可靠的数据源,也可以定义为不可靠的数据源。一个可靠的 Spout能够在它发送的元组处理失败时重新发送该元组,以确保所有的元组都能得到正确的处理;相对应的,不可靠的 Spout 就不会在元组发送之后对元组进行任何其他的处理。一个 Spout可以发送多个数据流。
  • Bolt:拓扑中所有的数据处理均是由 Bolt 完成的。通过数据过滤(filtering)、函数处理(functions)、聚合(aggregations)、联结(joins)、数据库交互等功能,Bolt 几乎能够完成任何一种数据处理需求。一个 Bolt 可以实现简单的数据流转换,而更复杂的数据流变换通常需要使用多个 Bolt 并通过多个步骤完成。
  • Stream grouping:为拓扑中的每个 Bolt 的确定输入数据流是定义一个拓扑的重要环节。数据流分组定义了在 Bolt 的不同任务(tasks)中划分数据流的方式。在 Storm 中有八种内置的数据流分组方式。
  • Reliability:可靠性。Storm 可以通过拓扑来确保每个发送的元组都能得到正确处理。通过跟踪由 Spout 发出的每个元组构成的元组树可以确定元组是否已经完成处理。每个拓扑都有一个“消息延时”参数,如果 Storm 在延时时间内没有检测到元组是否处理完成,就会将该元组标记为处理失败,并会在稍后重新发送该元组。

Storm程序再Storm集群中运行的示例图如下:

Topology

为什么把Topology单独提出来呢,因为Topology是我们开发程序主要的用的组件。
Topology和MapReduce很相像。
MapReduce是Map进行获取数据,Reduce进行处理数据。
而Topology则是使用Spout获取数据,Bolt来进行计算。
总的来说就是一个Topology由一个或者多个的Spout和Bolt组成。

具体流程是怎么走,可以通过查看下面这张图来进行了解。
示例图:

注:图片来源http://www.tianshouzhi.com/api/tutorials/storm/52。

图片有三种模式,解释如下:
第一种比较简单,就是由一个Spout获取数据,然后交给一个Bolt进行处理;
第二种稍微复杂点,由一个Spout获取数据,然后交给一个Bolt进行处理一部分,然后在交给下一个Bolt进行处理其他部分。
第三种则比较复杂,一个Spout可以同时发送数据到多个Bolt,而一个Bolt也可以接受多个Spout或多个Bolt,最终形成多个数据流。但是这种数据流必须是有方向的,有起点和终点,不然会造成死循环,数据永远也处理不完。就是Spout发给Bolt1,Bolt1发给Bolt2,Bolt2又发给了Bolt1,最终形成了一个环状。

Storm 集群安装

之前已经写过了,这里就不在说明了。
博客地址:http://www.panchengming.com/2018/01/26/pancm70/

Storm Hello World

前面讲了一些Storm概念,可能在理解上不太清楚,那么这里我们就用一个Hello World代码示例来体验下Storm运作的流程吧。

环境准备

在进行代码开发之前,首先得做好相关的准备。
本项目是使用Maven构建的,使用Storm的版本为1.1.1。
Maven的相关依赖如下:

 
  1. <!--storm相关jar -->

  2. <dependency>

  3. <groupId>org.apache.storm</groupId>

  4. <artifactId>storm-core</artifactId>

  5. <version>1.1.1</version>

  6. <scope>provided</scope>

  7. </dependency>

具体流程

在写代码的时候,我们先来明确要用Storm做什么。
那么第一个程序,就简单的输出下信息。
具体步骤如下:

  1. 启动topology,设置好Spout和Bolt。
  2. 将Spout获取的数据传递给Bolt。
  3. Bolt接受Spout的数据进行打印。

Spout

那么首先开始编写Spout类。一般是实现 IRichSpout 或继承BaseRichSpout该类,然后实现该方法。
这里我们继承BaseRichSpout这个类,该类需要实现这几个主要的方法:

一、open

open()方法中是在ISpout接口中定义,在Spout组件初始化时被调用。
有三个参数,它们的作用分别是:

  1. Storm配置的Map;
  2. topology中组件的信息;
  3. 发射tuple的方法;

代码示例:

 
  1. @Override

  2. public void open(Map map, TopologyContext arg1, SpoutOutputCollector collector) {

  3. System.out.println("open:"+map.get("test"));

  4. this.collector = collector;

  5. }

二、nextTuple

nextTuple()方法是Spout实现的核心。
也就是主要执行方法,用于输出信息,通过collector.emit方法发射。

这里我们的数据信息已经写死了,所以这里我们就直接将数据进行发送。
这里设置只发送两次。
代码示例:

 
  1. @Override

  2. public void nextTuple() {

  3. if(count<=2){

  4. System.out.println("第"+count+"次开始发送数据...");

  5. this.collector.emit(new Values(message));

  6. }

  7. count++;

  8. }

三、declareOutputFields

declareOutputFields是在IComponent接口中定义,用于声明数据格式。
即输出的一个Tuple中,包含几个字段。

因为这里我们只发射一个,所以就指定一个。如果是多个,则用逗号隔开。
代码示例:

 
  1. @Override

  2. public void declareOutputFields(OutputFieldsDeclarer declarer) {

  3. System.out.println("定义格式...");

  4. declarer.declare(new Fields(field));

  5. }

四、ack

ack是在ISpout接口中定义,用于表示Tuple处理成功。

代码示例:

 
  1. @Override

  2. public void ack(Object obj) {

  3. System.out.println("ack:"+obj);

  4. }

五、fail

fail是在ISpout接口中定义,用于表示Tuple处理失败。

代码示例:

 
  1. @Override

  2. public void fail(Object obj) {

  3. System.out.println("失败:"+obj);

  4. }

六、close

close是在ISpout接口中定义,用于表示Topology停止。

代码示例:

 
  1. @Override

  2. public void close() {

  3. System.out.println("关闭...");

  4. }

至于还有其他的,这里就不在一一列举了。

Bolt

Bolt是用于处理数据的组件,主要是由execute方法来进行实现。一般来说需要实现 IRichBolt 或继承BaseRichBolt该类,然后实现其方法。
需要实现方法如下:

一、prepare

在Bolt启动前执行,提供Bolt启动环境配置的入口。
参数基本和Sqout一样。
一般对于不可序列化的对象进行实例化。
这里的我们就简单的打印下

 
  1. @Override

  2. public void prepare(Map map, TopologyContext arg1, OutputCollector collector) {

  3. System.out.println("prepare:"+map.get("test"));

  4. this.collector=collector;

  5. }

注:如果是可以序列化的对象,那么最好是使用构造函数。

二、execute

execute()方法是Bolt实现的核心。
也就是执行方法,每次Bolt从流接收一个订阅的tuple,都会调用这个方法。
从tuple中获取消息可以使用 tuple.getString()tuple.getStringByField();这两个方法。个人推荐第二种,可以通过field来指定接收的消息。
注:如果继承的是IRichBolt,则需要手动ack。这里就不用了,BaseRichBolt会自动帮我们应答。
代码示例:

 
  1. @Override

  2. public void execute(Tuple tuple) {

  3. // String msg=tuple.getString(0);

  4. String msg=tuple.getStringByField("test");

  5. //这里我们就不做消息的处理,只打印

  6. System.out.println("Bolt第"+count+"接受的消息:"+msg);

  7. count++;

  8. /**

  9. *

  10. * 没次调用处理一个输入的tuple,所有的tuple都必须在一定时间内应答。

  11. * 可以是ack或者fail。否则,spout就会重发tuple。

  12. */

  13. // collector.ack(tuple);

  14. }

三、declareOutputFields

和Spout的一样。
因为到了这里就不再输出了,所以就什么都没写。

 
  1. @Override

  2. public void declareOutputFields(OutputFieldsDeclarer arg0) {

  3. }

cleanup

cleanup是IBolt接口中定义,用于释放bolt占用的资源。
Storm在终止一个bolt之前会调用这个方法。
因为这里没有什么资源需要释放,所以就简单的打印一句就行了。

 
  1. @Override

  2. public void cleanup() {

  3. System.out.println("资源释放");

  4. }

Topology

这里我们就是用main方法进行提交topology。
不过在提交topology之前,需要进行相应的设置。
这里我就不一一细说了,代码的注释已经很详细了。
代码示例:

 
  1. import org.apache.storm.Config;

  2. import org.apache.storm.LocalCluster;

  3. import org.apache.storm.StormSubmitter;

  4. import org.apache.storm.topology.TopologyBuilder;

  5.  
  6. /**

  7. *

  8. * Title: App

  9. * Description:

  10. * storm测试

  11. * Version:1.0.0

  12. * @author pancm

  13. * @date 2018年3月6日

  14. */

  15. public class App {

  16.  
  17. private static final String str1="test1";

  18. private static final String str2="test2";

  19.  
  20. public static void main(String[] args) {

  21. // TODO Auto-generated method stub

  22. //定义一个拓扑

  23. TopologyBuilder builder=new TopologyBuilder();

  24. //设置一个Executeor(线程),默认一个

  25. builder.setSpout(str1, new TestSpout());

  26. //设置一个Executeor(线程),和一个task

  27. builder.setBolt(str2, new TestBolt(),1).setNumTasks(1).shuffleGrouping(str1);

  28. Config conf = new Config();

  29. conf.put("test", "test");

  30. try{

  31. //运行拓扑

  32. if(args !=null&&args.length>0){ //有参数时,表示向集群提交作业,并把第一个参数当做topology名称

  33. System.out.println("远程模式");

  34. StormSubmitter.submitTopology(args[0], conf, builder.createTopology());

  35. } else{//没有参数时,本地提交

  36. //启动本地模式

  37. System.out.println("本地模式");

  38. LocalCluster cluster = new LocalCluster();

  39. cluster.submitTopology("111" ,conf, builder.createTopology() );

  40. Thread.sleep(10000);

  41. // 关闭本地集群

  42. cluster.shutdown();

  43. }

  44. }catch (Exception e){

  45. e.printStackTrace();

  46. }

  47. }

  48. }

运行该方法,输出结果如下:

 
  1. 本地模式

  2. 定义格式...

  3. open:test

  4. 第1次开始发送数据...

  5. 第2次开始发送数据...

  6. prepare:test

  7. Bolt第1接受的消息:这是个测试消息!

  8. Bolt第2接受的消息:这是个测试消息!

  9. 资源释放

  10. 关闭...

到这里,是不是基本上对Storm的运作有些了解了呢。
这个demo达到了上述的三种模式图中的第一种,一个Spout传输数据, 一个Bolt处理数据。

那么如果我们想达到第二种模式呢,那又该如何做呢?
假如我们想统计下在一段文本中的单词出现频率的话,我们只需执行一下步骤就可以了。
1.首先将Spout中的message消息进行更改为数组,并依次将消息发送到TestBolt。
2.然后TestBolt将获取的数据进行分割,将分割的数据发送到TestBolt2。
3.TestBolt2对数据进行统计,在程序关闭的时候进行打印。
4.Topology成功配置并且启动之后,等待20秒左右,关闭程序,然后得到输出的结果。

代码示例如下:

Spout
用于发送消息。

 
  1. import java.util.Map;

  2. import org.apache.storm.spout.SpoutOutputCollector;

  3. import org.apache.storm.task.TopologyContext;

  4. import org.apache.storm.topology.OutputFieldsDeclarer;

  5. import org.apache.storm.topology.base.BaseRichSpout;

  6. import org.apache.storm.tuple.Fields;

  7. import org.apache.storm.tuple.Values;

  8.  
  9. /**

  10. *

  11. * Title: TestSpout

  12. * Description:

  13. * 发送信息

  14. * Version:1.0.0

  15. * @author pancm

  16. * @date 2018年3月6日

  17. */

  18. public class TestSpout extends BaseRichSpout{

  19.  
  20. private static final long serialVersionUID = 225243592780939490L;

  21.  
  22. private SpoutOutputCollector collector;

  23. private static final String field="word";

  24. private int count=1;

  25. private String[] message = {

  26. "My nickname is xuwujing",

  27. "My blog address is http://www.panchengming.com/",

  28. "My interest is playing games"

  29. };

  30.  
  31. /**

  32. * open()方法中是在ISpout接口中定义,在Spout组件初始化时被调用。

  33. * 有三个参数:

  34. * 1.Storm配置的Map;

  35. * 2.topology中组件的信息;

  36. * 3.发射tuple的方法;

  37. */

  38. @Override

  39. public void open(Map map, TopologyContext arg1, SpoutOutputCollector collector) {

  40. System.out.println("open:"+map.get("test"));

  41. this.collector = collector;

  42. }

  43.  
  44. /**

  45. * nextTuple()方法是Spout实现的核心。

  46. * 也就是主要执行方法,用于输出信息,通过collector.emit方法发射。

  47. */

  48. @Override

  49. public void nextTuple() {

  50.  
  51. if(count<=message.length){

  52. System.out.println("第"+count +"次开始发送数据...");

  53. this.collector.emit(new Values(message[count-1]));

  54. }

  55. count++;

  56. }

  57.  
  58.  
  59. /**

  60. * declareOutputFields是在IComponent接口中定义,用于声明数据格式。

  61. * 即输出的一个Tuple中,包含几个字段。

  62. */

  63. @Override

  64. public void declareOutputFields(OutputFieldsDeclarer declarer) {

  65. System.out.println("定义格式...");

  66. declarer.declare(new Fields(field));

  67. }

  68.  
  69. /**

  70. * 当一个Tuple处理成功时,会调用这个方法

  71. */

  72. @Override

  73. public void ack(Object obj) {

  74. System.out.println("ack:"+obj);

  75. }

  76.  
  77. /**

  78. * 当Topology停止时,会调用这个方法

  79. */

  80. @Override

  81. public void close() {

  82. System.out.println("关闭...");

  83. }

  84.  
  85. /**

  86. * 当一个Tuple处理失败时,会调用这个方法

  87. */

  88. @Override

  89. public void fail(Object obj) {

  90. System.out.println("失败:"+obj);

  91. }

  92.  
  93. }

TestBolt

用于分割单词。

 
  1. import java.util.Map;

  2.  
  3. import org.apache.storm.task.OutputCollector;

  4. import org.apache.storm.task.TopologyContext;

  5. import org.apache.storm.topology.OutputFieldsDeclarer;

  6. import org.apache.storm.topology.base.BaseRichBolt;

  7. import org.apache.storm.tuple.Fields;

  8. import org.apache.storm.tuple.Tuple;

  9. import org.apache.storm.tuple.Values;

  10.  
  11.  
  12. /**

  13. *

  14. * Title: TestBolt

  15. * Description:

  16. * 对单词进行分割

  17. * Version:1.0.0

  18. * @author pancm

  19. * @date 2018年3月16日

  20. */

  21. public class TestBolt extends BaseRichBolt{

  22.  
  23. /**

  24. *

  25. */

  26. private static final long serialVersionUID = 4743224635827696343L;

  27.  
  28. private OutputCollector collector;

  29.  
  30. /**

  31. * 在Bolt启动前执行,提供Bolt启动环境配置的入口

  32. * 一般对于不可序列化的对象进行实例化。

  33. * 注:如果是可以序列化的对象,那么最好是使用构造函数。

  34. */

  35. @Override

  36. public void prepare(Map map, TopologyContext arg1, OutputCollector collector) {

  37. System.out.println("prepare:"+map.get("test"));

  38. this.collector=collector;

  39. }

  40.  
  41. /**

  42. * execute()方法是Bolt实现的核心。

  43. * 也就是执行方法,每次Bolt从流接收一个订阅的tuple,都会调用这个方法。

  44. */

  45. @Override

  46. public void execute(Tuple tuple) {

  47. String msg=tuple.getStringByField("word");

  48. System.out.println("开始分割单词:"+msg);

  49. String[] words = msg.toLowerCase().split(" ");

  50. for (String word : words) {

  51. this.collector.emit(new Values(word));//向下一个bolt发射数据

  52. }

  53.  
  54. }

  55.  
  56. /**

  57. * 声明数据格式

  58. */

  59. @Override

  60. public void declareOutputFields(OutputFieldsDeclarer declarer) {

  61. declarer.declare(new Fields("count"));

  62. }

  63.  
  64. /**

  65. * cleanup是IBolt接口中定义,用于释放bolt占用的资源。

  66. * Storm在终止一个bolt之前会调用这个方法。

  67. */

  68. @Override

  69. public void cleanup() {

  70. System.out.println("TestBolt的资源释放");

  71. }

  72. }

Test2Bolt
用于统计单词出现次数。

 
  1.  
  2. import java.util.HashMap;

  3. import java.util.Map;

  4.  
  5. import org.apache.storm.task.OutputCollector;

  6. import org.apache.storm.task.TopologyContext;

  7. import org.apache.storm.topology.OutputFieldsDeclarer;

  8. import org.apache.storm.topology.base.BaseRichBolt;

  9. import org.apache.storm.tuple.Tuple;

  10.  
  11. /**

  12. *

  13. * Title: Test2Bolt

  14. * Description:

  15. * 统计单词出现的次数

  16. * Version:1.0.0

  17. * @author pancm

  18. * @date 2018年3月16日

  19. */

  20. public class Test2Bolt extends BaseRichBolt{

  21.  
  22. /**

  23. *

  24. */

  25. private static final long serialVersionUID = 4743224635827696343L;

  26.  
  27.  
  28. /**

  29. * 保存单词和对应的计数

  30. */

  31. private HashMap<String, Integer> counts = null;

  32.  
  33. private long count=1;

  34. /**

  35. * 在Bolt启动前执行,提供Bolt启动环境配置的入口

  36. * 一般对于不可序列化的对象进行实例化。

  37. * 注:如果是可以序列化的对象,那么最好是使用构造函数。

  38. */

  39. @Override

  40. public void prepare(Map map, TopologyContext arg1, OutputCollector collector) {

  41. System.out.println("prepare:"+map.get("test"));

  42. this.counts=new HashMap<String, Integer>();

  43. }

  44.  
  45. /**

  46. * execute()方法是Bolt实现的核心。

  47. * 也就是执行方法,每次Bolt从流接收一个订阅的tuple,都会调用这个方法。

  48. *

  49. */

  50. @Override

  51. public void execute(Tuple tuple) {

  52. String msg=tuple.getStringByField("count");

  53. System.out.println("第"+count+"次统计单词出现的次数");

  54. /**

  55. * 如果不包含该单词,说明在该map是第一次出现

  56. * 否则进行加1

  57. */

  58. if (!counts.containsKey(msg)) {

  59. counts.put(msg, 1);

  60. } else {

  61. counts.put(msg, counts.get(msg)+1);

  62. }

  63. count++;

  64. }

  65.  
  66.  
  67. /**

  68. * cleanup是IBolt接口中定义,用于释放bolt占用的资源。

  69. * Storm在终止一个bolt之前会调用这个方法。

  70. */

  71. @Override

  72. public void cleanup() {

  73. System.out.println("===========开始显示单词数量============");

  74. for (Map.Entry<String, Integer> entry : counts.entrySet()) {

  75. System.out.println(entry.getKey() + ": " + entry.getValue());

  76. }

  77. System.out.println("===========结束============");

  78. System.out.println("Test2Bolt的资源释放");

  79. }

  80.  
  81. /**

  82. * 声明数据格式

  83. */

  84. @Override

  85. public void declareOutputFields(OutputFieldsDeclarer arg0) {

  86.  
  87. }

  88. }

Topology

主程序入口。

 
  1. import org.apache.storm.Config;

  2. import org.apache.storm.LocalCluster;

  3. import org.apache.storm.StormSubmitter;

  4. import org.apache.storm.topology.TopologyBuilder;

  5. import org.apache.storm.tuple.Fields;

  6.  
  7. /**

  8. *

  9. * Title: App

  10. * Description:

  11. * storm测试

  12. * Version:1.0.0

  13. * @author pancm

  14. * @date 2018年3月6日

  15. */

  16. public class App {

  17.  
  18. private static final String test_spout="test_spout";

  19. private static final String test_bolt="test_bolt";

  20. private static final String test2_bolt="test2_bolt";

  21.  
  22. public static void main(String[] args) {

  23. //定义一个拓扑

  24. TopologyBuilder builder=new TopologyBuilder();

  25. //设置一个Executeor(线程),默认一个

  26. builder.setSpout(test_spout, new TestSpout(),1);

  27. //shuffleGrouping:表示是随机分组

  28. //设置一个Executeor(线程),和一个task

  29. builder.setBolt(test_bolt, new TestBolt(),1).setNumTasks(1).shuffleGrouping(test_spout);

  30. //fieldsGrouping:表示是按字段分组

  31. //设置一个Executeor(线程),和一个task

  32. builder.setBolt(test2_bolt, new Test2Bolt(),1).setNumTasks(1).fieldsGrouping(test_bolt, new Fields("count"));

  33. Config conf = new Config();

  34. conf.put("test", "test");

  35. try{

  36. //运行拓扑

  37. if(args !=null&&args.length>0){ //有参数时,表示向集群提交作业,并把第一个参数当做topology名称

  38. System.out.println("运行远程模式");

  39. StormSubmitter.submitTopology(args[0], conf, builder.createTopology());

  40. } else{//没有参数时,本地提交

  41. //启动本地模式

  42. System.out.println("运行本地模式");

  43. LocalCluster cluster = new LocalCluster();

  44. cluster.submitTopology("Word-counts" ,conf, builder.createTopology() );

  45. Thread.sleep(20000);

  46. // //关闭本地集群

  47. cluster.shutdown();

  48. }

  49. }catch (Exception e){

  50. e.printStackTrace();

  51. }

  52. }

  53. }

输出结果:

 
  1. 运行本地模式

  2. 定义格式...

  3. open:test

  4. 第1次开始发送数据...

  5. 第2次开始发送数据...

  6. 第3次开始发送数据...

  7. prepare:test

  8. prepare:test

  9. 开始分割单词:My nickname is xuwujing

  10. 开始分割单词:My blog address is http://www.panchengming.com/

  11. 开始分割单词:My interest is playing games

  12. 第1次统计单词出现的次数

  13. 第2次统计单词出现的次数

  14. 第3次统计单词出现的次数

  15. 第4次统计单词出现的次数

  16. 第5次统计单词出现的次数

  17. 第6次统计单词出现的次数

  18. 第7次统计单词出现的次数

  19. 第8次统计单词出现的次数

  20. 第9次统计单词出现的次数

  21. 第10次统计单词出现的次数

  22. 第11次统计单词出现的次数

  23. 第12次统计单词出现的次数

  24. 第13次统计单词出现的次数

  25. 第14次统计单词出现的次数

  26. ===========开始显示单词数量============

  27. address: 1

  28. interest: 1

  29. nickname: 1

  30. games: 1

  31. is: 3

  32. xuwujing: 1

  33. playing: 1

  34. my: 3

  35. blog: 1

  36. http://www.panchengming.com/: 1

  37. ===========结束============

  38. Test2Bolt的资源释放

  39. TestBolt的资源释放

  40. 关闭...

上述的是本地模式运行,如果想在Storm集群中进行使用,只需要将程序打包为jar,然后将程序上传到storm集群中,
输入:

storm jar xxx.jar xxx xxx
说明:第一个xxx是storm程序打包的包名,第二个xxx是运行主程序的路径,第三个xxx则表示主程序输入的参数,这个可以随意。

如果是使用maven打包的话,则需要在pom.xml加上

 
  1. <plugin>

  2. <artifactId>maven-assembly-plugin</artifactId>

  3. <configuration>

  4. <descriptorRefs>

  5. <descriptorRef>jar-with-dependencies</descriptorRef>

  6. </descriptorRefs>

  7. <archive>

  8. <manifest>

  9. <mainClass>com.pancm.storm.App</mainClass>

  10. </manifest>

  11. </archive>

  12. </configuration>

  13. </plugin>

成功运行程序之后,可以在Storm集群的UI界面查看该程序的状态。

到此,本文结束,谢谢阅读!

如果你对生活感觉到了绝望,请不要气馁。因为这样只会让你更加绝望! 所谓的希望往往都是在绝望中萌发的,所以,请不要放弃希望!

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值