storm、jstorm调研系列 (一)
storm、jstorm调研系列 (二)
在前面两个系列中我们讲到了jstorm是怎么一回事,现在,我们开始写自己的jstorm代码(storm代码可以完全的移植到jstorm上)
如果以后有时间,就把jstorm的DRPC和Trident原语以及事务机制还有hook机制,外加自己的源代码的阅读知道的东西写下来,这里在这里做一个记号。其实jstorm还有好多东西自己都没写下来,看以后是否有个空来写一写吧
jstorm的代码结构(针对单条数据处理topology)
public static void main(String[] args) throws Exception {
String zks = "ip:port";//这个是kafka的地址,ip和port请执行填写
//消息的topic
String topic = "user_action"; //订阅的kafka的topic
//strom在zookeeper上的根
String zkRoot = "/jstorm"; //你再配置jstorm的时候指定的jstorm在zookeeper中的根目录
String id = "test_yc28"; //我们的user_id这个随便写
BrokerHosts brokerHosts = new ZkHosts(zks);
SpoutConfig spoutConf = new SpoutConfig(brokerHosts, topic, zkRoot, id);
spoutConf.scheme = new SchemeAsMultiScheme(new StringScheme());
spoutConf.forceFromStart = true;
spoutConf.zkServers = Arrays.asList(new String[] {
"kafka-ip"});//kafka地址,kafka-ip请自行填写
spoutConf.zkPort = 2181;//kafka端口
Config conf = new Config();
conf.setNumWorkers(2);
TopologyBuilder builder = new TopologyBuilder();
builder.setSpout("kafka-reader", new KafkaSpout(spoutConf),3);
builder.setBolt("print-bolt", new KafkaBolt(),3).shuffleGrouping("kafka-reader");
StormSubmitter.submitTopology(topologyName, conf, builder.createTopology());//topologyName在提交topology时给其指定的名字,kill的时候指定这个名字即可
}
public class KafkaBolt implements IBasicBolt{
private static final Logger LOG = LoggerFactory.getLogger(SimpleBolt.class);
@Override
public void prepare(Map stormConf, TopologyContext context) {
LOG.info("Successfully do prepare");
}
@Override
public void execute(Tuple input, BasicOutputCollector collector) {
LOG.info(input.getString(0)+"................................