(二十四)Storm的集群搭建过程

前提:搭建Storm集群前,确保系统中有Zookeeper

一、storm的下载安装

storm的下载地址:http://storm.apache.org/downloads.html

这里我下载的是1.2.2版本

然后将下载的storm解压缩 和改名

tar -zxvf apache-storm-1.2.2.tar.gz -C /usr/local/

mv apache-storm-1.2.2/  storm

二、修改配置文件

vim storm-env.sh  配置JAVA_HOME

配置JAVA_HOME

 

vim storm.yaml  核心配置

在storm下创建data目录

mkdir data

配置storm.yaml

将storm传到其他节点

scp -r storm/ slave1:/usr/local/

配置环境变量

export STORM_HOME=/usr/local/storm
export PATH=$STORM_HOME/bin:$PATH

三、启动

1、启动nimbs

nohup sh storm nimbs &

 

2、启动UI

nohup storm ui &

可以用http://192.168.60.1:8080打开UI窗口

 

3、主节点启动supervisor

nohup storm supervisor &

 

4、从节点启动supervisor(也需要配置环境变量)

nohup storm supervisor &

 

5、启动日志模式(主从都启动)

nohup storm logviewer &

 

启动所有的进程后,主节点有以下进程(其中有的进程是Hadoop的可以忽略)

 

从节点有以下进程

 

四、运行测试

1、修改本地测试代码:

只需将本地的测试代码改成上传集群的即可submitTopology

package com.bigdata;

import org.apache.storm.Config;
import org.apache.storm.StormSubmitter;
import org.apache.storm.generated.AlreadyAliveException;
import org.apache.storm.generated.AuthorizationException;
import org.apache.storm.generated.InvalidTopologyException;
import org.apache.storm.spout.SpoutOutputCollector;
import org.apache.storm.task.OutputCollector;
import org.apache.storm.task.TopologyContext;
import org.apache.storm.topology.OutputFieldsDeclarer;
import org.apache.storm.topology.TopologyBuilder;
import org.apache.storm.topology.base.BaseRichBolt;
import org.apache.storm.topology.base.BaseRichSpout;
import org.apache.storm.tuple.Fields;
import org.apache.storm.tuple.Tuple;
import org.apache.storm.tuple.Values;
import org.apache.storm.utils.Utils;

import java.util.Map;

/**
 * 使用Storm实现积累求和的操作
 */
public class ClusterSumStormTopology {


    /**
     * Spout需要继承BaseRichSpout
     * 数据源需要产生数据并发射
     */
    public static class DataSourceSpout extends BaseRichSpout {

        private SpoutOutputCollector collector;
        /**
         * 初始化方法,只会被调用一次
         * @param conf  配置参数
         * @param context  上下文
         * @param collector 数据发射器
         */
        public void open(Map conf, TopologyContext context, SpoutOutputCollector collector) {
            this.collector = collector;
        }

        int number = 0;

        /**
         * 会产生数据,在生产上肯定是从消息队列中获取数据
         *
         * 这个方法是一个死循环,会一直不停的执行
         */
        public void nextTuple() {
            this.collector.emit(new Values(++number));

            System.out.println("Spout: " + number);

            // 防止数据产生太快
            Utils.sleep(1000);

        }

        /**
         * 声明输出字段
         * @param declarer
         */
        public void declareOutputFields(OutputFieldsDeclarer declarer) {
            declarer.declare(new Fields("num"));
        }
    }


    /**
     * 数据的累积求和Bolt:接收数据并处理
     */
    public static class SumBolt extends BaseRichBolt {

        /**
         * 初始化方法,会被执行一次
         * @param stormConf
         * @param context
         * @param collector
         */
        public void prepare(Map stormConf, TopologyContext context, OutputCollector collector) {

        }

        int sum = 0;

        /**
         * 其实也是一个死循环,职责:获取Spout发送过来的数据
         * @param input
         */
        public void execute(Tuple input) {

            // Bolt中获取值可以根据index获取,也可以根据上一个环节中定义的field的名称获取(建议使用该方式)
            Integer value = input.getIntegerByField("num");
            sum += value;

            System.out.println("Bolt: sum = [" + sum + "]");
        }

        public void declareOutputFields(OutputFieldsDeclarer declarer) {

        }
    }
    public static void main(String[] args) {

        // TopologyBuilder根据Spout和Bolt来构建出Topology
        // Storm中任何一个作业都是通过Topology的方式进行提交的
        // Topology中需要指定Spout和Bolt的执行顺序
        TopologyBuilder builder = new TopologyBuilder();
        builder.setSpout("DataSourceSpout", new DataSourceSpout());
        builder.setBolt("SumBolt", new SumBolt()).shuffleGrouping("DataSourceSpout");

        //代码提交到storm集群上运行
        try {
            StormSubmitter.submitTopology("ClusterSumStormTopology",new Config(),builder.createTopology());
        } catch (Exception e) {
            e.printStackTrace();
        }
    }

}

2、将代码打包上传

J:\storm\target中有生成的storm-1.0.jar上传到服务器中

3、在linux系统中执行命令

storm jar storm-1.0.jar com.bigdata.ClusterSumStormTopology

 

评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值