前面说过了Storm的测试项目,那么此时我们更想自己写一个小项目来练练手,首先我们自己的Windows系统上首先应该安装好maven,然后启动Eclipse for JavaEE版本,接下来开始建立项目并开发
注意,在开发过程中,无论是Windows还是Linux都要完全关闭防火墙,避免网络的问题
单击"File"->"New"->"Maven Project"
接下来的界面默认即可,单击Next
下一步,继续单击Next即可
然后,在Group Id输入:org.apache.storm 在Artifact Id输入:firststorm 这里可以自己定义,在Version中输入版本号:0.9.6,这里其实默认0.1.0没有问题,这个和storm的版本号没有任何关系,这里是我们项目的版本号,因为只是测试,输入0.9.6是为了更简单;Package包名会自动根据输入生成,我们默认即可,然后单击Finish,稍等右下角滚动条滚动完毕,一个基本的Maven项目就建立成功了,具体结构和上一个测试案例相同,这时在包org.apache.storm.firststorm下有一个默认的类App.java,由Maven自动生成,这个可以忽略,也可以删除
然后打开项目根目录下的pom.xml文件,这个就是构建项目的配置文件,我们在dependencies标签之间,添加一个节点,代码如下:
org.apache.storm
storm-core
0.9.6
provided
加入位置如下图所示,其他的不用动即可
最终pom.xml的代码如下:
1
2 xsi:schemaLocation="http://maven.apache.org/POM/4.0.0 http://maven.apache.org/xsd/maven-4.0.0.xsd">
3 4.0.0
4
5 org.apache.storm
6 firststorm
7 0.9.6
8 jar
9
10
11 firststorm
12 http://maven.apache.org
13
14
15 UTF-8
16
17
18
19
20 junit
21 junit
22 3.8.1
23 test
24
25
26
27 org.apache.storm
28 storm-core
29 0.9.6
30 provided
31
32
33
更简单的方法我们可以直接复制上一个案例中的pom.xml文件直接使用,现在我们保存pom.xml文件,保存的时候maven会自动下载相关依赖并放到Maven Dependencies下,这些jar包可以点击下拉查看,并且会自动添加到项目classpath中,作为编译使用,等jar包全部下载完毕,现在开始编写具体的计算逻辑了,在这个项目中我们把所有的类都建立在包org.apache.storm.firststorm下
首先建立RandomSpout类作为数据源,并且继承于父类BaseRichSpout,确定后可以看到系统自动补全3个方法:nextTuple,open和declareOutputFields
我们现在就需要重写这3个方法,open方法是数据源的初始化,nextTuple的作用是把Tuple发送至下游,declareOutputFields用来定义输出字段,下面我们手动分配一个数组,并且随机取里面的元素,代码如下:
1 packageorg.apache.storm.firststorm;2
3 importjava.util.Map;4 importjava.util.Random;5
6 importbacktype.storm.spout.SpoutOutputCollector;7 importbacktype.storm.task.TopologyContext;8 importbacktype.storm.topology.OutputFieldsDeclarer;9 importbacktype.storm.topology.base.BaseRichSpout;10 importbacktype.storm.tuple.Fields;11 importbacktype.storm.tuple.Values;12
13 public class RandomSpout extendsBaseRichSpout {14
15 privateSpoutOutputCollector collector;16 private static String[] words = {"Hadoop","Storm","Apache","Linux","Nginx","Tomcat","Spark"};17
18
19 public voidnextTuple() {20 String word = words[newRandom().nextInt(words.length)];21 collector.emit(newValues(word));22
23 }24
25 public voidopen(Map arg0, TopologyContext arg1, SpoutOutputCollector arg2) {26 this.collector =arg2;27 }28
29 public voiddeclareOutputFields(OutputFieldsDeclarer arg0) {30 arg0.declare(new Fields("randomstring"));31 }32
33 }
代码很简单,肯定可以看懂,然后新建一个类SenqueceBolt,继承于BaseBasicBolt类,并且重写方法execute和declareOutputFields,这个类就是用于执行具体的作业,准确的说是execute方法用来执行相关的计算,这里只是简单的输出,代码如下:
1 packageorg.apache.storm.firststorm;2
3 importbacktype.storm.topology.BasicOutputCollector;4 importbacktype.storm.topology.OutputFieldsDeclarer;5 importbacktype.storm.topology.base.BaseBasicBolt;6 importbacktype.storm.tuple.Tuple;7
8 public class SenqueceBolt extendsBaseBasicBolt {9
10 public voidexecute(Tuple arg0, BasicOutputCollector arg1) {11 String word = (String) arg0.getValue(0);12 String out = "Hello " + word + "!";13 System.out.println(out);14 }15
16 public voiddeclareOutputFields(OutputFieldsDeclarer arg0) {17
18 }19
20 }
最后建立一个类FirstStorm,这个类是主类,在main方法中定义Topology,并且综合设置Spout和Bolt,从而调用其中的方法,这里流式计算时间设置为30s,代码如下:
1 packageorg.apache.storm.firststorm;2
3 importbacktype.storm.Config;4 importbacktype.storm.LocalCluster;5 importbacktype.storm.StormSubmitter;6 importbacktype.storm.generated.AlreadyAliveException;7 importbacktype.storm.generated.InvalidTopologyException;8 importbacktype.storm.topology.TopologyBuilder;9 importbacktype.storm.utils.Utils;10
11 public classFirstStorm {12
13 public static voidmain(String[] args) {14 TopologyBuilder builder = newTopologyBuilder();15 builder.setSpout("spout", newRandomSpout());16 builder.setBolt("bolt", new SenqueceBolt()).shuffleGrouping("spout");17 Config conf = newConfig();18 conf.setDebug(false);19 if(args != null && args.length > 0) {20 conf.setNumWorkers(3);21 try{22 StormSubmitter.submitTopology(args[0], conf, builder.createTopology());23 } catch(AlreadyAliveException e) {24 //TODO Auto-generated catch block
25 e.printStackTrace();26 } catch(InvalidTopologyException e) {27 //TODO Auto-generated catch block
28 e.printStackTrace();29 }30 } else{31 LocalCluster cluster = newLocalCluster();32 cluster.submitTopology("firststorm", conf, builder.createTopology());33 Utils.sleep(30000);34 cluster.killTopology("firststorm");35 cluster.shutdown();36 }37 }38
39 }
到这里一个简单的storm项目就开发完毕了,然后可以用本地模式运行,跑起来之后某一时刻输出结果如下:
接下来我们将这个项目放到Storm服务器集群中运行,这里不要把Storm的jar包加进来,因为运行的时候,Storm环境会自动加载并协调集群运行,方法有很多,可以使用插件上传,也可以使用本地Storm客户端配置一下numbus.host进行提交,也可以在服务器节点上执行,执行后nimbus会得到任务并分发给各个supervisor去执行,首先我们应该将项目打包,右击项目,选择Export
然后导出类型选择Java下的JAR file,点击Next
然后单击Brower确定输出位置和文件名或者直接在输入框输入jar包的名称,然后单击Finish完成打包
打包之后我们可以在输出位置看见一个jar文件
然后我们将这个文件上传到服务器,这里上传到了storm安装目录下,然后这个时候在主节点storm安装目录下执行: bin/storm nimbus & 在从节点目录下分别执行 bin/storm supervisor & 启动整个集群的storm服务,也可以执行 bin/storm ui & 启动UI管理界面更直观的看到执行结果,当然对于单机环境启动或者不启动storm服务都可以,这个时候,执行下面命令运行本次项目的程序:
bin/storm jar firststorm.jar org.apache.storm.firststorm.FirstStorm
这里就是调用了FirstStorm类中的main方法,如果程序中对参数进行了处理,后面还可以跟上参数,回车确认执行之后,系统会进行初始化集群的工作,几秒后任务开始执行,执行过程中某一时刻的滚动输出如下:
到这里,第一个Storm入门项目的开发和测试运行都完毕了,更复杂的计算逻辑模式也基本相同,主要就是Maven项目中出现了更复杂的模块和调用,整个运行的流程其实都是差不多的,现在就算步入Storm流式计算的殿堂的大门了,接下来的精彩还需要慢慢体会