storm学习大综合收集二

原 Storm【Storm-Hbase接口】- 系列 1: 简单介绍
发表于1年前(2014-10-16 14:01) 阅读(163) | 评论(0) 0人收藏此文章, 我要收藏
赞0

摘要 如果您的Storm计算的逻辑足够复杂,一旦您的大部分计算依据在计算层完成,那么由于Storm计算的结果可以直接写入到Hbase。以下是一个Storm-hbase的接口。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
package storm.contrib.hbase.bolts;

import static backtype.storm.utils.Utils.tuple;

import java.util.Map;

import org.apache.hadoop.hbase.HBaseConfiguration;

import backtype.storm.task.OutputCollector;
import backtype.storm.task.TopologyContext;
import backtype.storm.topology.BasicOutputCollector;
import backtype.storm.topology.IBasicBolt;
import backtype.storm.topology.OutputFieldsDeclarer;
import backtype.storm.tuple.Fields;
import backtype.storm.tuple.Tuple;

import storm.contrib.hbase.utils.HBaseCommunicator;
import storm.contrib.hbase.utils.HBaseConnector;

/*

一个读取Hbase的Bolt,不断的从Hbase中读取表中的行KEY,和列,通过tuples来发送
* Reads the specified column of HBase table and emits the row key and the column values in the form of tuples
*/
public class HBaseColumnValueLookUpBolt implements IBasicBolt {

private static final long serialVersionUID = 1L;

private String tableName = null, colFamilyName = null, colName = null, rowKeyField = null, columnValue = null;

private static transient HBaseConnector connector = null;
private static transient HBaseConfiguration conf = null;
private static transient HBaseCommunicator communicator = null;
OutputCollector _collector;

/*
 * Constructor initializes the variables storing the hbase table information and connects to hbase
 */
public HBaseColumnValueLookUpBolt(final String hbaseXmlLocation, final String rowKeyField, final String tableName, final String colFamilyName, final String colName) {

    this.tableName = tableName;
    this.colFamilyName = colFamilyName;
    this.colName = colName;
    this.rowKeyField = rowKeyField;

    connector = new HBaseConnector();
    conf = connector.getHBaseConf(hbaseXmlLocation);
    communicator = new HBaseCommunicator(conf);
}

/*
 * emits the value of the column with name @colName and rowkey @rowKey
 * @see backtype.storm.topology.IBasicBolt#execute(backtype.storm.tuple.Tuple, backtype.storm.topology.BasicOutputCollector)
 */
public void execute(Tuple input, BasicOutputCollector collector) {

    String rowKey = input.getStringByField(this.rowKeyField);
    columnValue = communicator.getColEntry(this.tableName, rowKey, this.colFamilyName, this.colName);
    collector.emit(tuple(rowKey, columnValue));
}

public void prepare(Map confMap, TopologyContext context,
        OutputCollector collector) {
    _collector = collector;
}

public void cleanup() {
}

public void declareOutputFields(OutputFieldsDeclarer declarer) {
    declarer.declare(new Fields("rowKey", "columnValue"));
}

public Map<String, Object> getComponentConfiguration() {
    Map<String, Object> map = null;
    return map;
}

public void prepare(Map stormConf, TopologyContext context) {
}

}
?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
package storm.contrib.hbase.bolts;

import static backtype.storm.utils.Utils.tuple;

import java.util.Map;

import org.apache.hadoop.hbase.HBaseConfiguration;

import backtype.storm.task.OutputCollector;
import backtype.storm.task.TopologyContext;
import backtype.storm.topology.BasicOutputCollector;
import backtype.storm.topology.IBasicBolt;
import backtype.storm.topology.OutputFieldsDeclarer;
import backtype.storm.tuple.Fields;
import backtype.storm.tuple.Tuple;

import storm.contrib.hbase.utils.HBaseCommunicator;
import storm.contrib.hbase.utils.HBaseConnector;

/*
* Reads the specified column of HBase table and emits the row key and the column values in the form of tuples
*/
public class HBaseColumnValueLookUpBolt implements IBasicBolt {

private static final long serialVersionUID = 1L;

private String tableName = null, colFamilyName = null, colName = null, rowKeyField = null, columnValue = null;

private static transient HBaseConnector connector = null;
private static transient HBaseConfiguration conf = null;
private static transient HBaseCommunicator communicator = null;
OutputCollector _collector;

/*
 * Constructor initializes the variables storing the hbase table information and connects to hbase
 */
public HBaseColumnValueLookUpBolt(final String hbaseXmlLocation, final String rowKeyField, final String tableName, final String colFamilyName, final String colName) {

    this.tableName = tableName;
    this.colFamilyName = colFamilyName;
    this.colName = colName;
    this.rowKeyField = rowKeyField;

    connector = new HBaseConnector();
    conf = connector.getHBaseConf(hbaseXmlLocation);
    communicator = new HBaseCommunicator(conf);
}

/*
 * emits the value of the column with name @colName and rowkey @rowKey
 * @see backtype.storm.topology.IBasicBolt#execute(backtype.storm.tuple.Tuple, backtype.storm.topology.BasicOutputCollector)
 */
public void execute(Tuple input, BasicOutputCollector collector) {

    String rowKey = input.getStringByField(this.rowKeyField);

    //通过指定我们的 表名,行键,列族,列名,直接通过communitor拿到列的值。
    columnValue = communicator.getColEntry(this.tableName, rowKey, this.colFamilyName, this.colName);
    collector.emit(tuple(rowKey, columnValue));
}

public void prepare(Map confMap, TopologyContext context,
        OutputCollector collector) {
    _collector = collector;
}

public void cleanup() {
}

public void declareOutputFields(OutputFieldsDeclarer declarer) {
    declarer.declare(new Fields("rowKey", "columnValue"));
}

public Map<String, Object> getComponentConfiguration() {
    Map<String, Object> map = null;
    return map;
}

public void prepare(Map stormConf, TopologyContext context) {
}

}

Rowkey

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
package storm.contrib.hbase.spouts;

import backtype.storm.topology.OutputFieldsDeclarer;
import java.util.Map;
import java.util.UUID;

import backtype.storm.spout.SpoutOutputCollector;
import backtype.storm.task.TopologyContext;
import backtype.storm.topology.IRichSpout;
import backtype.storm.tuple.Fields;
import backtype.storm.tuple.Values;
import backtype.storm.utils.Utils;
import java.util.Random;
import org.apache.log4j.Logger;

/*

这个Spout主要是用来发射 Hbase的RowKey,rowkey的集合为自己设置的。
* Spout emitting tuples containing the rowkey of the hbase table
*/
public class RowKeyEmitterSpout implements IRichSpout {

private static final long serialVersionUID = 6814162766489261607L;
public static Logger LOG = Logger.getLogger(RowKeyEmitterSpout.class);
boolean _isDistributed;
SpoutOutputCollector _collector;

public RowKeyEmitterSpout() {
    this(true);
}

public RowKeyEmitterSpout(boolean isDistributed) {
    _isDistributed = isDistributed;
}

public boolean isDistributed() {
    return _isDistributed;
}

public void open(Map conf, TopologyContext context, SpoutOutputCollector collector) {
    _collector = collector;
}

public void close() {
}

public void nextTuple() {
    Utils.sleep(100);
    Thread.yield();
    final String[] words = new String[] {"rowKey1", "rowKey2", "rowKey3", "rowKey4"};
    final Random rand = new Random();
    final String word = words[rand.nextInt(words.length)];
    _collector.emit(new Values(word), UUID.randomUUID());
}

public void ack(Object msgId) {
}

public void fail(Object msgId) {
}

public void declareOutputFields(OutputFieldsDeclarer declarer) {
    declarer.declare(new Fields("word"));
}

public void activate() {
}

public void deactivate() {
}

public Map<String, Object> getComponentConfiguration() {
    return null;
}

}

// 我们用来简单的测试系统的代码,测试接口是否正确

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
package storm.contrib.hbase.spouts;

import java.util.Map;
import java.util.Random;

import backtype.storm.spout.SpoutOutputCollector;
import backtype.storm.task.TopologyContext;
import backtype.storm.topology.IRichSpout;
import backtype.storm.topology.OutputFieldsDeclarer;
import backtype.storm.tuple.Fields;
import backtype.storm.tuple.Values;
import backtype.storm.utils.Utils;

public class TestSpout implements IRichSpout {

SpoutOutputCollector _collector;
Random _rand;  
int count = 0;


public boolean isDistributed() {
    return true;
}

public void open(Map conf, TopologyContext context, SpoutOutputCollector collector) {
    _collector = collector;
    _rand = new Random();
}

public void nextTuple() {
    Utils.sleep(1000);
    String[] words = new String[] { "hello", "tiwari", "indore", "jayati"};
    Integer[] numbers = new Integer[] {
            1,2,3,4,5
    };

    if(count == numbers.length -1) {
        count = 0;
    }
    count ++;
    int number = numbers[count];
    String word = words[count];
    int randomNum = (int) (Math.random()*1000);
    _collector.emit(new Values(word, number));
}


public void close() {        
}


public void ack(Object id) {
}

public void fail(Object id) {
}

public void declareOutputFields(OutputFieldsDeclarer declarer) {
    declarer.declare(new Fields("word", "number"));
}

public void activate() {
}

public void deactivate() {
}

public Map<String, Object> getComponentConfiguration() {
    return null;
}

}
比较简单,也就不做解释了,Storm-hbase的接口并没有像Storm-kafka的接口那样,自身去处理轮询,自身去处理连接的问题。只是简单的构造了一个Hbase的连接,在连接的过程之中,直接构造了一个Connector就可以了。

 看代码即知道。

原 Storm[TOPN -排序] - RollingCountBolt
发表于2年前(2014-09-03 18:01) 阅读(802) | 评论(1) 3人收藏此文章, 我要收藏
赞0

摘要 一个不断滑动的计数器,在内部的构造之上,模拟了一个滑动的窗口的实现。

阅读背景:

1 : 您需要对滑动窗口要初步了解

2 : 您需要了解滑动窗口在滑动的过程之中,滑动chunk的计算过程,尤其是每发射一次,就需要清空一次。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
package com.cc.storm.bolt;

import java.util.HashMap;
import java.util.HashSet;
import java.util.Map;
import java.util.Set;

import backtype.storm.task.OutputCollector;
import backtype.storm.task.TopologyContext;
import backtype.storm.topology.IRichBolt;
import backtype.storm.topology.OutputFieldsDeclarer;
import backtype.storm.tuple.Fields;
import backtype.storm.tuple.Tuple;
import backtype.storm.tuple.Values;
import backtype.storm.utils.Utils;

/**
* 1 在这里我们需要去实现一个滑动窗口,请注意,在我们实现滑动窗口的过程之中清空的是当前滑动窗口的下一个
*
*
*
* @author Yin Shuai
*
*/
public class RollingCountBolt implements IRichBolt {

private static final long serialVersionUID = 1765379339552134320L;

private HashMap<Object, long[]> _objectCounts = new HashMap<Object, long[]>();
private int _numBuckets;
private transient Thread cleaner;
private OutputCollector _collector;

/**
 * _trackMinute
 * 是我们整个滑动窗口的大小,滑动窗口的大小,本质上决定了我们的时间区间,也就是说,假设我们目前滑动窗口的总体大小为15分钟。
 * 那我们的商品点击的实时排序的指标值,好比商品浏览量的计算值,也就是15分钟
 * 
 * 而单个窗口的大小也就是我,我们这个三十分钟在随着时间不断的在推移
 * 
 * 举例说明:在最初的构造过程之中,如果我们的桶的数目为10,那么单个窗口的时间长度为3.
 * 
 * [0,30],[3,33],[6,36],[9,39],[12,42] 统计的数值处在不断的变化之中
 * 
 */
private int _trackMinutes;

public RollingCountBolt(int numBuckets, int trackMinutes) {
    this._numBuckets = numBuckets;
    this._trackMinutes = trackMinutes;
}

public long totalObjects(Object obj) {
    long[] curr = _objectCounts.get(obj);
    long total = 0;
    for (long l : curr) {
        total += l;
    }
    return total;
}

public int currentBucket(int buckets) {
    return currentSecond() / secondsPerBucket(buckets) % buckets;
}

public int currentSecond() {
    return (int) (System.currentTimeMillis() / 1000);
}

/**
 * 
 * @param buckets
 *            你设定的桶的数量
 * @return 依据我们默认的_trackMinutes / buckets 得到每一个桶的数量
 */
public int secondsPerBucket(int buckets) {
    return _trackMinutes * 60 / buckets;
}

public long millisPerBucket(int buckets) {
    return (long) 1000 * secondsPerBucket(buckets);
}

@SuppressWarnings("rawtypes")
@Override
public void prepare(Map stormConf, TopologyContext context,
        OutputCollector collector) {
    // TODO Auto-generated method stub
    _collector = collector;
    cleaner = new Thread(new Runnable() {

        @SuppressWarnings("unchecked")
        @Override
        public void run() {
            // TODO Auto-generated method stub
            int lastBucket = currentBucket(_numBuckets);

            while (true) {

                int currBucket = currentBucket(_numBuckets);
                p("线程while循环: 当前的桶为:" + currBucket);

                if (currBucket != lastBucket) {
                    p("线程while循环:之前的桶数为:" + lastBucket);

                    int bucketToWipe = (currBucket + 1) % _numBuckets;
                    p("线程while循环:要擦除掉的桶为:" + bucketToWipe);

                    synchronized (_objectCounts) {
                        Set objs = new HashSet(_objectCounts.keySet());

                        for (Object obj : objs) {

                            long[] counts = _objectCounts.get(obj);
                            long currBucketVal = counts[bucketToWipe];
                            p("线程while循环:擦除掉的值为:" + currBucketVal);
                            counts[bucketToWipe] = 0;
                            long total = totalObjects(obj);
                            if (currBucketVal != 0) {
                                p("线程while循环:擦除掉的值为不为0:那就发射数据:obj total"
                                        + obj + ":" + total);
                                _collector.emit(new Values(obj, total));

                            }
                            if (total == 0) {

                                p("线程while循环: 总数为0以后,将obj对象删除");
                                _objectCounts.remove(obj);

                            }
                        }
                    }
                    lastBucket = currBucket;
                }

                long delta = millisPerBucket(_numBuckets)
                        - (System.currentTimeMillis() % millisPerBucket(_numBuckets));
                Utils.sleep(delta);

                p("\n");
            }
        }
    });
    cleaner.start();
}

@Override
public void execute(Tuple input) {

    Object obj1 = input.getValue(0);
    Object obj = input.getValue(1);

    int currentBucket = currentBucket(_numBuckets);

    p("execute方法:当前桶:bucket: " + currentBucket);

    synchronized (_objectCounts) {

        long[] curr = _objectCounts.get(obj);

        if (curr == null) {
            curr = new long[_numBuckets];
            _objectCounts.put(obj, curr);
        }

        curr[currentBucket]++;

        System.err
                .print(("execute方法:接受到的merchandiseIDS:" + obj.toString() + ",long数组:"));

        for (long number : curr) {
            System.err.print(number + ":");
        }

        p("execute方法:发射的数据: " + obj + ":" + totalObjects(obj));

        /**
         * 我们不断的发射的也就是我们某一个商品id,在当前滑动窗口,也就是我们的时间周期内的指标计算值
         * 要注意,在排序的过程之中,我们只针对key, 也就是我们的商品id,由此发射给后续的排序bolt依据包含了时间区间的信息
         */

        // 每来一条数据,就会发射一次
        _collector.emit(new Values(obj, totalObjects(obj)));
        _collector.ack(input);
    }

    p("\n");
}

@Override
public void cleanup() {
    // TODO Auto-generated method stub

}

@Override
public void declareOutputFields(OutputFieldsDeclarer declarer) {
    // TODO Auto-generated method stub
    declarer.declare(new Fields("merchandiseID", "count"));
}

@Override
public Map<String, Object> getComponentConfiguration() {
    // TODO Auto-generated method stub
    return null;
}

public void p(Object o) {
    System.err.println(o.toString());
}

}
在这里,最需要我们关注的地方是,滑动窗口每滑动一次,将情况一组数据。 而发射数据的过程之中将统计这一组数

据。

原 Storm【配置项】 - 详细解释
发表于2年前(2014-09-03 16:27) 阅读(3165) | 评论(0) 1人收藏此文章, 我要收藏
赞0

摘要 Storm 全部的配置项都被写入在 backtype.strom.Config类中,此配置项为一直从Storm0.6以来不变化的引用。

配置项 配置说明

storm.zookeeper.servers ZooKeeper服务器列表

storm.zookeeper.port ZooKeeper连接端口

storm.local.dir storm使用的本地文件系统目录(必须存在并且storm进程可读写)

storm.cluster.mode Storm集群运行模式([distributed|local])

storm.local.mode.zmq Local模式下是否使用ZeroMQ作消息系统,如果设置为false则使用java消息系统。默认为false

storm.zookeeper.root ZooKeeper中Storm的根目录位置

storm.zookeeper.session.timeout 客户端连接ZooKeeper超时时间

storm.id 运行中拓扑的id,由storm name和一个唯一随机数组成。

nimbus.host nimbus服务器地址

nimbus.thrift.port nimbus的thrift监听端口

nimbus.childopts 通过storm-deploy项目部署时指定给nimbus进程的jvm选项

nimbus.task.timeout.secs 心跳超时时间,超时后nimbus会认为task死掉并重分配给另一个地址。

nimbus.monitor.freq.secs nimbus检查心跳和重分配任务的时间间隔.注意如果是机器宕掉nimbus会立即接管并处理。

nimbus.supervisor.timeout.secs supervisor的心跳超时时间,一旦超过nimbus会认为该supervisor已死并停止为它分发新任务.

nimbus.task.launch.secs task启动时的一个特殊超时设置.在启动后第一次心跳前会使用该值来临时替代nimbus.task.timeout.secs.

nimbus.reassign 当发现task失败时nimbus是否重新分配执行。默认为真,不建议修改。

nimbus.file.copy.expiration.secs nimbus判断上传/下载链接的超时时间,当空闲时间超过该设定时nimbus会认为链接死掉并主动断开

ui.port Storm UI的服务端口

drpc.servers DRPC服务器列表,以便DRPCSpout知道和谁通讯

drpc.port Storm DRPC的服务端口

supervisor.slots.ports supervisor上能够运行workers的端口列表.每个worker占用一个端口,且每个端口只运行一个worker.通过这项配置可以调整每台机器上运行的worker数.(调整slot数/每机)

supervisor.childopts 在storm-deploy项目中使用,用来配置supervisor守护进程的jvm选项

supervisor.worker.timeout.secs supervisor中的worker心跳超时时间,一旦超时supervisor会尝试重启worker进程.

supervisor.worker.start.timeout.secs supervisor初始启动时,worker的心跳超时时间,当超过该时间supervisor会尝试重启worker。因为JVM初始启动和配置会带来的额外消耗,从而使得第一次心跳会超过supervisor.worker.timeout.secs的设定

supervisor.enable supervisor是否应当运行分配给他的workers.默认为true,该选项用来进行Storm的单元测试,一般不应修改.

supervisor.heartbeat.frequency.secs supervisor心跳发送频率(多久发送一次)

supervisor.monitor.frequency.secs supervisor检查worker心跳的频率

worker.childopts supervisor启动worker时使用的jvm选项.所有的”%ID%”字串会被替换为对应worker的标识符

worker.heartbeat.frequency.secs worker的心跳发送时间间隔

task.heartbeat.frequency.secs task汇报状态心跳时间间隔

task.refresh.poll.secs task与其他tasks之间链接同步的频率.(如果task被重分配,其他tasks向它发送消息需要刷新连接).一般来讲,重分配发生时其他tasks会理解得到通知。该配置仅仅为了防止未通知的情况。

topology.debug 如果设置成true,Storm将记录发射的每条信息。

topology.optimize master是否在合适时机通过在单个线程内运行多个task以达到优化topologies的目的.

topology.workers 执行该topology集群中应当启动的进程数量.每个进程内部将以线程方式执行一定数目的tasks.topology的组件结合该参数和并行度提示来优化性能

topology.ackers topology中启动的acker任务数.Acker保存由spout发送的tuples的记录,并探测tuple何时被完全处理.当Acker探测到tuple被处理完毕时会向spout发送确认信息.通常应当根据topology的吞吐量来确定acker的数目,但一般不需要太多.当设置为0时,相当于禁用了消息可靠性,storm会在spout发送tuples后立即进行确认.

topology.message.timeout.secs topology中spout发送消息的最大处理超时时间.如果一条消息在该时间窗口内未被成功ack,Storm会告知spout这条消息失败。而部分spout实现了失败消息重播功能。

topology.kryo.register 注册到Kryo(Storm底层的序列化框架)的序列化方案列表.序列化方案可以是一个类名,或者是com.esotericsoftware.kryo.Serializer的实现.

topology.skip.missing.kryo.registrations Storm是否应该跳过它不能识别的kryo序列化方案.如果设置为否task可能会装载失败或者在运行时抛出错误.

topology.max.task.parallelism 在一个topology中能够允许的最大组件并行度.该项配置主要用在本地模式中测试线程数限制.

topology.max.spout.pending 一个spout task中处于pending状态的最大的tuples数量.该配置应用于单个task,而不是整个spouts或topology.

topology.state.synchronization.timeout.secs 组件同步状态源的最大超时时间(保留选项,暂未使用)

topology.stats.sample.rate 用来产生task统计信息的tuples抽样百分比

topology.fall.back.on.java.serialization topology中是否使用java的序列化方案

zmq.threads 每个worker进程内zeromq通讯用到的线程数

zmq.linger.millis 当连接关闭时,链接尝试重新发送消息到目标主机的持续时长.这是一个不常用的高级选项,基本上可以忽略.

java.library.path JVM启动(如Nimbus,Supervisor和workers)时的java.library.path设置.该选项告诉JVM在哪些路径下定位本地库.

原 Storm实践2-【storm实时排序TopN】 - TOP10
发表于2年前(2014-09-03 15:45) 阅读(709) | 评论(0) 0人收藏此文章, 我要收藏
赞0

摘要 要计算的是最近一段时间内的热门话题,热门点击图片,热门新闻,热门商品购买,热门商品浏览, 也就是说:每当我们需要实时的求TopN的过程之中,就可以使用这个TOP N模型来处理

阅读背景:1 您需要了解TOP 使用的场景

            2 您需要了解当前的TOPN 处理,和定时区间处理的区别

看代码说话

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
package com.cc.storm;

import com.cc.storm.bolt.MergeBolt;
import com.cc.storm.bolt.RankBolt;
import com.cc.storm.bolt.RollingAllCountBolt;
import com.cc.storm.bolt.RollingCountBolt;
import com.cc.storm.spout.RandomEmitSpout;
import com.cc.storm.spout.RedisPubSubSpout;

import backtype.storm.Config;
import backtype.storm.LocalCluster;
import backtype.storm.StormSubmitter;
import backtype.storm.generated.AlreadyAliveException;
import backtype.storm.generated.InvalidTopologyException;
import backtype.storm.topology.TopologyBuilder;
import backtype.storm.tuple.Fields;

/**
* ToPN是一种常见模式,是对流式数据进行“Streaming topN”的计算:
* 比如要计算的是最近一段时间内的热门话题,热门点击图片,热门商品浏览,热门商品购买
*
* 既然敢要实时的处理,【】【】【】【】【】[] 【】 【】【】【】【】 [] 【】【】【】【】 【】 []
*
* @author Yin Shuai
*/
public class TOP10 {

public static void main(String[] args) throws AlreadyAliveException,
        InvalidTopologyException, InterruptedException {

    final int TOP_N = 10;
    final int time = 1;

    TopologyBuilder builder = new TopologyBuilder();
    builder.setSpout("$datasource$", new RandomEmitSpout(), 1);

    builder.setBolt("$count$", new RollingCountBolt(3, time), 1)
            .fieldsGrouping("$datasource$", new Fields("merchandiseIDS"));

    builder.setBolt("$rank$", new RankBolt(TOP_N), 2).fieldsGrouping(
            "$count$", new Fields("merchandiseID"));

    builder.setBolt("$merge$", new MergeBolt(TOP_N)).globalGrouping(
            "$rank$");

    Config conf = new Config();
    conf.setDebug(false);
    conf.setNumWorkers(2);
    conf.setMaxSpoutPending(5000);

    LocalCluster cluster = new LocalCluster();
    cluster.submitTopology("Getting-Started-Toplogie", conf,
            builder.createTopology());

    Thread.sleep(5000);
}

}

整个处理的流程如图:

Storm【实践系列-如何写一个爬虫】 - ParserBolt
发表于2年前(2014-08-18 15:38) 阅读(772) | 评论(0) 8人收藏此文章, 我要收藏
赞0

摘要 Bolt为Storm之中的一个消费者组件

阅读背景: 如果您对爬虫,或则web前端不够了解,请自行google。

代码前提:您需要参阅本ID 所写的前面两篇博文: Storm【实践系列-如何写一个爬虫】 - Fetcher

本章主题: ParserBolt 如何完成的解析,并且如何从前面的组件得到数据,并emit出去。

博文流程: 博文将整个 爬虫系列公开,其过程为:

        1 : 代码实现。

        2 : 对代码的细节进行解析。

        3 : 对真个设计进行回顾,并作总结。

        如果您在参看本ID的博文的过程之中,只存在流程 1。那么请继续等待。一旦公司业务不处于饱和阶段。

本ID将保证每日一篇。

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
76
77
78
79
80
81
82
83
84
85
86
87
88
89
90
91
92
93
94
95
96
97
98
99
100
101
102
103
104
105
106
107
108
109
110
111
112
113
114
115
116
117
118
119
120
121
122
123
124
125
126
127
128
129
130
131
132
133
134
135
136
137
138
139
140
141
142
143
144
145
146
147
148
149
150
151
152
153
154
155
156
157
158
159
160
161
162
163
164
165
166
167
168
169
170
171
172
173
174
175
176
177
178
179
180
181
182
183
184
185
186
187
188
189
190
191
192
193
194
195
196
197
198
199
200
201
202
203
204
205
206
207
208
209
210
211
212
213
214
215
216
217
218
219
220
221
222
223
224
225
226
227
228
229
230
231
232
233
234
235
236
237
package com.digitalpebble.storm.crawler.bolt.parser;

import java.io.ByteArrayInputStream;
import java.io.IOException;
import java.net.MalformedURLException;
import java.net.URL;
import java.util.ArrayList;
import java.util.HashMap;
import java.util.HashSet;
import java.util.List;
import java.util.Map;
import java.util.Set;

import org.apache.commons.lang.StringUtils;
import org.apache.tika.Tika;
import org.apache.tika.metadata.Metadata;
import org.apache.tika.parser.ParseContext;
import org.apache.tika.sax.BodyContentHandler;
import org.apache.tika.sax.Link;
import org.apache.tika.sax.LinkContentHandler;
import org.apache.tika.sax.TeeContentHandler;
import org.slf4j.LoggerFactory;
import org.xml.sax.ContentHandler;

import backtype.storm.task.OutputCollector;
import backtype.storm.task.TopologyContext;
import backtype.storm.topology.OutputFieldsDeclarer;
import backtype.storm.topology.base.BaseRichBolt;
import backtype.storm.tuple.Fields;
import backtype.storm.tuple.Tuple;
import backtype.storm.tuple.Values;

import com.codahale.metrics.Timer;
import com.digitalpebble.storm.crawler.StormConfiguration;
import com.digitalpebble.storm.crawler.filtering.URLFilters;
import com.digitalpebble.storm.crawler.util.Configuration;
import com.digitalpebble.storm.crawler.util.HistogramMetric;
import com.digitalpebble.storm.crawler.util.MeterMetric;
import com.digitalpebble.storm.crawler.util.TimerMetric;
import com.digitalpebble.storm.crawler.util.URLUtil;

/**
* Uses Tika to parse the output of a fetch and extract text + metadata
*/

@SuppressWarnings(“serial”)
public class ParserBolt extends BaseRichBolt {

private Configuration config;

private Tika tika;

private URLFilters filters = null;

private OutputCollector collector;

private static final org.slf4j.Logger LOG = LoggerFactory
        .getLogger(ParserBolt.class);

private MeterMetric eventMeters;
private HistogramMetric eventHistograms;
private TimerMetric eventTimers;

private boolean ignoreOutsideHost = false;
private boolean ignoreOutsideDomain = false;

public void prepare(Map conf, TopologyContext context,
        OutputCollector collector) {
    config = StormConfiguration.create();

    String urlconfigfile = config.get("urlfilters.config.file",
            "urlfilters.json");
    if (urlconfigfile != null)
        try {
            filters = new URLFilters(urlconfigfile);
        } catch (IOException e) {
            LOG.error("Exception caught while loading the URLFilters");
        }

    ignoreOutsideHost = config.getBoolean(
            "parser.ignore.outlinks.outside.host", false);
    ignoreOutsideDomain = config.getBoolean(
            "parser.ignore.outlinks.outside.domain", false);

    // instanciate Tika
    long start = System.currentTimeMillis();
    tika = new Tika();
    long end = System.currentTimeMillis();

    LOG.debug("Tika loaded in " + (end - start) + " msec");

    this.collector = collector;

    this.eventMeters = context.registerMetric("parser-meter",
            new MeterMetric(), 5);
    this.eventTimers = context.registerMetric("parser-timer",
            new TimerMetric(), 5);
    this.eventHistograms = context.registerMetric("parser-histograms",
            new HistogramMetric(), 5);

}

public void execute(Tuple tuple) {
    eventMeters.scope("tuple_in").mark();

    byte[] content = tuple.getBinaryByField("content");
    eventHistograms.scope("content_bytes").update(content.length);

    String url = tuple.getStringByField("url");
    HashMap<String, String[]> metadata = (HashMap<String, String[]>) tuple
            .getValueByField("metadata");

    // TODO check status etc...

    Timer.Context timer = eventTimers.scope("parsing").time();

    // rely on mime-type provided by server or guess?

    ByteArrayInputStream bais = new ByteArrayInputStream(content);
    Metadata md = new Metadata();

    String text = null;

    LinkContentHandler linkHandler = new LinkContentHandler();
    ContentHandler textHandler = new BodyContentHandler();
    TeeContentHandler teeHandler = new TeeContentHandler(linkHandler,
            textHandler);
    ParseContext parseContext = new ParseContext();
    // parse
    try {
        tika.getParser().parse(bais, teeHandler, md, parseContext);
        text = textHandler.toString();
    } catch (Exception e) {
        LOG.error("Exception while parsing " + url, e.getMessage());
        eventMeters.scope(
                "error_content_parsing_" + e.getClass().getSimpleName())
                .mark();
        collector.fail(tuple);
        eventMeters.scope("tuple_fail").mark();
        return;
    } finally {
        try {
            bais.close();
        } catch (IOException e) {
            LOG.error("Exception while closing stream", e);
        }
    }

    long duration = timer.stop();

    LOG.info("Parsed " + url + " in " + duration + " msec");

    // get the outlinks and convert them to strings (for now)
    String fromHost;
    URL url_;
    try {
        url_ = new URL(url);
        fromHost = url_.getHost().toLowerCase();
    } catch (MalformedURLException e1) {
        // we would have known by now as previous
        // components check whether the URL is valid
        LOG.error("MalformedURLException on " + url);
        eventMeters.scope(
                "error_outlinks_parsing_" + e1.getClass().getSimpleName())
                .mark();
        collector.fail(tuple);
        eventMeters.scope("tuple_fail").mark();
        return;
    }

    List<Link> links = linkHandler.getLinks();
    Set<String> slinks = new HashSet<String>(links.size());
    for (Link l : links) {
        if (StringUtils.isBlank(l.getUri()))
            continue;
        String urlOL = null;
        try {
            URL tmpURL = URLUtil.resolveURL(url_, l.getUri());
            urlOL = tmpURL.toExternalForm();
        } catch (MalformedURLException e) {
            LOG.debug("MalformedURLException on " + l.getUri());
            eventMeters.scope(
                    "error_out_link_parsing_"
                            + e.getClass().getSimpleName()).mark();
            continue;
        }

        // filter the urls
        if (filters != null) {
            urlOL = filters.filter(urlOL);
            if (urlOL == null) {
                eventMeters.scope("outlink_filtered").mark();
                continue;
            }
        }

        if (urlOL != null && ignoreOutsideHost) {
            String toHost;
            try {
                toHost = new URL(urlOL).getHost().toLowerCase();
            } catch (MalformedURLException e) {
                toHost = null;
            }
            if (toHost == null || !toHost.equals(fromHost)) {
                urlOL = null; // skip it
                eventMeters.scope("outlink_outsideHost").mark();
                continue;
            }
        }

        if (urlOL != null) {
            slinks.add(urlOL);
            eventMeters.scope("outlink_kept").mark();
        }
    }

    // add parse md to metadata
    for (String k : md.names()) {
        // TODO handle mutliple values
        String[] values = md.getValues(k);
        metadata.put("parse." + k, values);
    }

    collector.emit(tuple, new Values(url, content, metadata, text.trim(), slinks));
    collector.ack(tuple);
    eventMeters.scope("tuple_success").mark();
}

public void declareOutputFields(OutputFieldsDeclarer declarer) {
    // output of this module is the list of fields to index
    // with at least the URL, text content

    declarer.declare(new Fields("url", "content", "metadata", "text",
            "outlinks"));
}

}

Storm 【开发细节】 - geting Start with Storm
发表于2年前(2014-06-25 14:24) 阅读(196) | 评论(0) 0人收藏此文章, 我要收藏
赞0

摘要 如何开发一个Strom的小程序

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
package test;

import java.io.IOException;
import java.util.Map;

import org.slf4j.Logger;
import org.slf4j.LoggerFactory;

import storm.copyFromClass.TestWordSpout;

import com.esotericsoftware.minlog.Log;

import backtype.storm.Config;
import backtype.storm.LocalCluster;
import backtype.storm.task.OutputCollector;
import backtype.storm.task.TopologyContext;
import backtype.storm.topology.BasicOutputCollector;
import backtype.storm.topology.OutputFieldsDeclarer;
import backtype.storm.topology.TopologyBuilder;
import backtype.storm.topology.base.BaseBasicBolt;
import backtype.storm.topology.base.BaseRichBolt;
import backtype.storm.tuple.Tuple;

// 测试目的,在这里我们需要测试一下当前Spout 不断产生数据的过程
public class testWordSpoutTopology {

public static class TestSimpleBolt extends BaseBasicBolt {

    @Override
    public void execute(Tuple input, BasicOutputCollector collector) {
        System.out.println(input.toString());
    }

    @Override
    public void declareOutputFields(OutputFieldsDeclarer declarer) {
        System.out.println("Method declare");
    }
}


public static void main(String[] args) throws IOException {


        // 首先,我们必须建立一个新的TopologyBuilder
    TopologyBuilder builder = new TopologyBuilder();

    //其次,我们需要配置如下的组件: 1 Spout,2Bolt
    builder.setSpout("word-emit-byThread", new TestWordSpout());

    //在这个Spout之中,我们约定将 【word-emit-byThread】Spout组件 发射的元祖进行
    shuffleGrouping

    builder.setBolt("word-show", new TestSimpleBolt()).shuffleGrouping(
            "word-emit-byThread");
    Config config = new Config();
    config.setDebug(false);

    //最后进行本地提交
    LocalCluster cluster = new LocalCluster();
    cluster.submitTopology("simple", config, builder.createTopology());
}

}

以上,

?
1
testWordSpoutTopology
是我们运行的主类

?
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
19
20
21
22
23
24
25
26
27
28
29
30
31
32
33
34
35
36
37
38
39
40
41
42
43
44
45
46
47
48
49
50
51
52
53
54
55
56
57
58
59
60
61
62
63
64
65
66
67
68
69
70
71
72
73
74
75
package storm.copyFromClass;

import backtype.storm.Config;
import backtype.storm.topology.OutputFieldsDeclarer;
import java.util.Map;
import backtype.storm.spout.SpoutOutputCollector;
import backtype.storm.task.TopologyContext;
import backtype.storm.topology.base.BaseRichSpout;
import backtype.storm.tuple.Fields;
import backtype.storm.tuple.Values;
import backtype.storm.utils.Utils;
import java.util.HashMap;
import java.util.Random;
import org.slf4j.Logger;
import org.slf4j.LoggerFactory;

//
public class TestWordSpout extends BaseRichSpout {
public static Logger LOG = LoggerFactory.getLogger(TestWordSpout.class);
boolean _isDistributed;
SpoutOutputCollector _collector;

public TestWordSpout() {
    this(true);
}

public TestWordSpout(boolean isDistributed) {
    _isDistributed = isDistributed;
}

public void open(Map conf, TopologyContext context, SpoutOutputCollector collector) {
    _collector = collector;
}

public void close() {

}


// 发送
public void nextTuple() {
    Utils.sleep(100);
final String[] words = new String[] { "张兵", "吴哥", "仝志维", "前辈", "禅师"};
    final Random rand = new Random();
    final String word = words[rand.nextInt(words.length)];
    _collector.emit(new Values(word));
}

//在这里,我们没有进行ACK
public void ack(Object msgId) {

}

//在这里,我们没有进行fail
public void fail(Object msgId) {

}

public void declareOutputFields(OutputFieldsDeclarer declarer) {
    declarer.declare(new Fields("word"));
}

@Override
public Map<String, Object> getComponentConfiguration() {
    if(!_isDistributed) {
        Map<String, Object> ret = new HashMap<String, Object>();
        ret.put(Config.TOPOLOGY_MAX_TASK_PARALLELISM, 1);
        return ret;
    } else {
        return null;
    }
}    

}

结果:

  请注意在这里,我们的Stream 默认的id为空

原 Storm【技术文档】-Worker Executor Task的关系
发表于2年前(2014-06-21 15:41) 阅读(445) | 评论(1) 0人收藏此文章, 我要收藏
赞0

摘要 Storm- 内部的几个说明性概念

1 simple introduction

Storm 在集群上运行一个 Topology的时刻,主要通过以下3个实体来完成Topology的执行工作

1 Worker

2 Executor

3 Task

一个Worker 进程执行的是一个topology的子集,这里我们必须强调:不会存在一个worker 为多个topology服务,

一个worker进程会启动一个或则多个executor 线程来执行一个topology的compotent-》也就是Spout或者bolt,

一个topology就是由于集群中间的多台物理机上的Worker构成的

一个executor是一个被Worker进程启动的单独线程,每一个Executor都只会运行一个topology的一个component,

在默认的情况之下,一个spout,或则一个bolt都只会生成一个task,Executor线程里会在每次循环的时候顺序的去调用所有的task的实例子

task是最终运行spout或bolt中代码的单元(注:1个task即为spout或bolt的1个实例,executor线程在执行期间会调用该task的nextTuple或execute方法)。topology启动后,1个component(spout或bolt)的task数目是固定不变的,但该component使用的executor线程数可以动态调整(例如:1个executor线程可以执行该component的1个或多个task实例)。这意味着,对于1个component存在这样的条件:#threads<=#tasks(即:线程数小于等于task数目)。默认情况下task的数目等于executor线程数目,即1个executor线程只运行1个task

更加细化的来说:

一个storm topology运行起来之后, 会在supervisor 机器上启动一些进程来运行spout和bolt实例.

如果一个topology里面一共有一个spout, 一个bolt。 其中spout的parallelism是2, bolt的parallelism是4, 那么我们可以把这个topology的总工作量看成是6, 那么一共有6个task,那么/tasks/{topology-id}下面一共会有6个以task-id命名的文件,其中两个文件的内容是spout的id, 其它四个文件的内容是bolt的id。

task->node+port, 它其实就是从task-id到supervisor-id+port的映射, 也就是把这个task分配给某台机器的某个端口来做。

topology里面的组件(spout/bolt)都根据parallelism被分成多个task, 而这些task被分配给supervisor的多个worker来执行。

task都会跟一个componment-id关联, componment是spout和bolt的一个统称.

对于每一个component在部署的时候都会指定使用的数量, 在storm-user中有一个讨论说明了这个问题:
里面的大意是说, 通过设置parallelism来指定执行spout/bolt的线程数量. 而在配置中还有另外一个地方(backtype.storm.Config.setNumWorkers(int))来指定一个storm集群中执行topolgy的进程数量, 所有的线程将在这些指定的worker进程中运行. 比如说一个topology中要启动300个线程来运行spout/bolt, 而指定的worker进程数量是60个, 那么storm将会给每个worker分配5个线程来跑spout/bolt, 如果要对一个topology进行调优, 可以调整worker数量和spout/bolt的parallelism数量(调整参数之后要记得重新部署topology. 后续会为该操作提供一个swapping的功能来减小重新部署的时间).

对于worker和task之间的比例, nathan也给出了参考, 即1个worker包含10~15个左右, 当然这个参考, 实际情况还是要根据配置和测试情况

3: work 进程内部消息传递处理和数据结构分析

本文从外部消息在worker进程内部的转化,传递及处理过程入手,一步步分析在worker-data中的数据项存在的原因和意义。试图从代码实现的角度来回答,如果是从头开始实现worker的话,该如何来定义消息接口,如何实现各自接口上的消息处理。

3.1 Topology 到worker的映射关系

Topology 由Spout,Bolt组成,其中的逻辑关系大体如下

请注意 Acker的行为,是在tuple,以及tuple所产生的其他tuple被确认消费掉以后,才会

有你的ACK行为

无论是Spout或Bolt的处理逻辑都需要在进程或线程内执行,那么它们与进程及线程间的映射关系又是如何呢。有关这个问题,Understanding the Parallelism of a Storm Topology 一文作了很好的总结,现重复一下其要点。

1 worker是进程,executor对应于线程,spout或bolt是一个个的task

2 同一个worker只会执行同一个topology相关的task

3 在同一个executor中可以执行多个同类型的task, 即在同一个executor中,要么全部是bolt类的task,要么全部是 spout类的task

4 运行的时候,spout和bolt需要被包装成一个又一个task

期间的三个组件的关系为:

小结一下,Worker=Process, Executor=Thread, Task=Spout or Bolt.
每一个executor使用的是actor pattern,high level的处理逻辑如下图所示

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值