Apache Storm-2.0.0 Trident 新版

Apache Storm的Trident提供了一种高级抽象,用于实时计算,结合高吞吐量、有状态流处理和低延迟分布式查询。Trident包括Kafka集成、Map、Filter、flatMap、each、project等算子介绍,以及状态管理和窗口操作。状态管理解决了一致性和幂等性问题,而窗口则支持滑动窗口功能。此外,Trident对象序列化在新版本中得到简化,用户只需实现序列化接口。
摘要由CSDN通过智能技术生成

Storm Trident

作者:jiangzz 电话:15652034180 微信:jiangzz_wx 微信公众账号:jiangzz_wy 百知教育

Trident是一个高级抽象,用于在Storm之上进行实时计算。它允许您无缝混合高吞吐量(每秒数百万条消息),有状态流处理和低延迟分布式查询。如果您熟悉Pig或Cascading等高级批处理工具,Trident的概念将非常熟悉 - Trident具有连接,聚合,分组,功能和过滤器。除此之外,Trident还添加了基元,用于在任何数据库或持久性存储之上执行有状态的增量处理。 Trident具有一致,exactly-once的语义,因此很容易推理Trident拓扑。

Trident Kafka集成

<dependency>
    <groupId>org.apache.storm</groupId>
    <artifactId>storm-kafka-client</artifactId>
    <version>2.0.0</version>
</dependency>
<dependency>
    <groupId>org.apache.kafka</groupId>
    <artifactId>kafka-clients</artifactId>
    <version>2.2.0</version>
</dependency>
public class KafkaSpoutUtils {
   
    public static KafkaSpout<String, String> buildKafkaSpout(String boostrapServers, String topic){
   

        KafkaSpoutConfig<String,String> kafkaspoutConfig=KafkaSpoutConfig.builder(boostrapServers,topic)
                .setProp(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer")
                .setProp(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer")
                .setProp(ConsumerConfig.GROUP_ID_CONFIG,"g1")
                .setEmitNullTuples(false)
                .setFirstPollOffsetStrategy(FirstPollOffsetStrategy.LATEST)
                .setProcessingGuarantee(KafkaSpoutConfig.ProcessingGuarantee.AT_LEAST_ONCE)
                .setMaxUncommittedOffsets(10)//一旦分区积压有10个未提交offset,Spout停止poll数据,解决Storm背压问题

                .build();
        return new KafkaSpout<String, String>(kafkaspoutConfig);
    }
    //可以保证精准一次更新,推荐使用
    public static KafkaTridentSpoutOpaque<String,String> buildKafkaSpoutOpaque(String boostrapServers, String topic){
   
        KafkaTridentSpoutConfig<String, String> kafkaOpaqueSpoutConfig = KafkaTridentSpoutConfig.builder(boostrapServers, topic)
                .setProp(ConsumerConfig.KEY_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer")
                .setProp(ConsumerConfig.VALUE_DESERIALIZER_CLASS_CONFIG,"org.apache.kafka.common.serialization.StringDeserializer")
                .setProp(ConsumerConfig.GROUP_ID_CONFIG,"g1")
                .setFirstPollOffsetStrategy(FirstPollOffsetStrategy.LATEST)
                .setRecordTranslator(new Func<ConsumerRecord<String, String>, List<Object>>() {
   
                    public List<Object> apply(ConsumerRecord<String, String> record) {
   
                        return new Values(record.key(),record.value(),record.timestamp());
                    }
                },new Fields("key","value","timestamp"))
                .build();
        return new KafkaTridentSpoutOpaque<String, String>(kafkaOpaqueSpoutConfig);
    }
}
public static void main(String[] args) throws Exception {
   
    TridentTopology tridentTopology=new TridentTopology();

    tridentTopology.newStream("KafkaSpoutOpaque",KafkaSpoutUtils.buildKafkaSpoutOpaque("CentOSA:9092,CentOSB:9092,CentOSC:9092","topic01"))
            .peek((TridentTuple input) ->{
   
                System.out.println(input);
            });

    new LocalCluster().submitTopology("tridentTopology",new Config(),tridentTopology.build());
}

常见算子介绍

Map算子

将一个Tuple转换为另外一个Tuple,如果用户修改了Tuple元素的个数,需要指定输出的Fields

tridentTopology.newStream("KafkaSpoutOpaque",KafkaSpoutUtils.buildKafkaSpoutOpaque("CentOSA:9092,CentOSB:9092,CentOSC:9092","topic01"))
                .map((tuple)-> new Values("Hello~"+tuple.getStringByField("value")),new Fields("name"))
                .peek((tuple) -> System.out.println(tuple));

Filter

过滤上游输入的Tuple将满足条件的Tuple向下游输出。

 tridentTopology.newStream("KafkaSpoutOpaque",KafkaSpoutUtils.buildKafkaSpoutOpaque("CentOSA:9092,CentOSB:9092,CentOSC:9092","topic01"))
     .filter(new Fields("value"), new BaseFilter() {
   
         @Override
         public boolean isKeep(TridentTuple tuple) {
   
             System.out.
### 回答1: Apache Hive是一个基于Hadoop的数据仓库工具,可以对大量的数据进行处理和分析,支持SQL语言进行操作。想要使用Hive,需要首先下载对应的软件包。 为了下载Hive Apache软件包,需要按照以下步骤进行操作: 1. 打开Apache Hive官网(https://hive.apache.org/); 2. 在页面上方选择“Downloads”; 3. 在下载列表中找到Apache Hive 2.0.0,并选择“Binary”; 4. 在弹出的页面中找到下载链接apache-hive-2.0.0-bin.tar.gz,然后右键选择“另存为”进行下载。此文件大小约为343 MB。 下载完成后,将文件解压缩即可安装使用Hive。 需要注意的是,Hive的安装需要有Hadoop环境的支持。因此在安装前需要确保已经安装了Hadoop,并配置好Hadoop的环境变量。此外,Hive的安装还需要一定的技术水平和操作经验,因此建议在进行安装前进行充分的了解和学习。 ### 回答2: Apache Hive是一个开源的数据仓库工具,它能够将数据存储在Hadoop的HDFS上,并提供了高层次的数据查询语言来分析这些数据。下载和安装Hive在采用Hadoop作为分布式存储和计算平台的企业中变得相当普遍。在这里,我将介绍如何下载Hive。 首先,你需要访问Apache Hive的官方网站,然后找到下载Hive的链接。链接通常会引导你到页面的顶部,你需要找到类似“Hive Download”的按钮以开始下载。在选择Hive版本时,请选择最新发布的版本以获得最好的体验和可靠性。 下载链接会带你到一个页面,这个页面包含了Hive内核代码和二进制文件的下载链接。在这个页面上,你需要下载“apache-hive-2.0.0-bin.tar.gz”文件,这是Hive的二进制文件归档。选择下载链接和版本后,你需要选择下载Hive的适当位置,以便于管理和将其添加到PATH环境变量中。 一旦你完成了下载和解压缩操作,你就可以开始使用Hive了,要注意的是,在安装过程中,你需要满足一些前提条件,例如在Hadoop集群上安装Hive、配置Hadoop集群、配置JDBC等。因此,您可以在确保具有左右位置的环境时,安装Hive来运作。 ### 回答3: 步骤如下: 1. 打开 https://hive.apache.org/downloads.html 2. 在 "Latest Releases" 部分找到 "Apache Hive 2.0.0". 3. 点击 "Download" 进入文件下载页面。 4. 在 "Mirror" 列表中选择一个适合你的下载服务器,点击下载链接。 5. 等待下载完成,解压缩文件。 6. 你现在已经安装了 Apache Hive,可以使用它处理你的Big Data。
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值