天云数据五度蝉联Fintech50强 Hubble实时流计算完胜Flink

2021年1月18日,毕马威2020中国领先金融科技企业评选发布会在京举行,会上公布了“2020毕马威中国领先金融科技企业名单”。2016年至2020年,毕马威五次推出TOP50榜单并获得业界广泛关注,这也是天云数据第五度蝉联50强榜单。

毕马威中国的评选标准一直以领先的科学技术应用与突破、数据驱动、模式创新和对传统金融的颠覆、痛点解决与金融效率提升度、估值及资本市场认可以及未来发展潜能与广阔前景六个维度持续贯彻,但每年也会有一些新的不同。毕马威2020会更侧重于科技对于金融机构业务的推动。

近些年在金融风险方面出现诸多痛点问题,如信用卡欺诈、交易欺诈、网贷申请欺诈等。金融实时反欺诈和复杂的权益服务,都需要对客户的全生命周期的数据进行复杂的统计和分析。

大数据兴起之初,Hadoop并没有给出实时计算解决方案。随后Storm、SparkStreaming、Flink等实时计算框架应市而生。六年前提起实时流式计算大家会想到Storm,三年前提起大家会想到Spark Streaming,去年提起那无疑是Flink了。

如此可见,技术世界的迭代是飞速的。

试想以下场景,如果没有高并发实时流式计算系统,公司会损失多少MONEY:

需要实时异常检测的欺诈/风控等系统
需要实时查看交易额的交易系统
需要实时计算点击/计算分成的广告系统
需要实时更新用户标签的实时用户画像系统
需要实时根据用户喜好推荐商品的实时推荐系统
再试想以上场景,如果核心技术不是国产自研的,信息交易风险会有多高?

天云数据十余年深耕在分布式计算领域,自主研发的HTAP 数据库HUBBLE 在高并发实时流升级完成了Flink不能处理更多事实表的金融反欺诈和复杂权益服务。

高并发、实时流两个业务场景都对时效性要求特别高,几乎是需要毫秒级返回数据处理结果。Flink是流计算、批处理一体的计算框架,因此其自身不存储业务数据,输入数据需要依赖Kafka、hive等数据源。而Flink接口层只支持SQL,不支持通过JDBC/ODBC协议调用,需要通过Flink特有的API来调用。而且Flink依于计算框架做计算,计算框架本身不会对源数据做任何的优化,因此计算时需要对业务全生命周期的数据进统计分析,时效性可想而知。可以说,Flink自身的架构体系就丢失了很多时效计算的优势。

若将Flink拆开,流计算确实可以支持实时的毫秒级数据处理,但无法满足业务的复杂性;批处理确实可以满足复杂的业务逻辑,但无法满足业务的毫秒级数据处理,而且是不支持并发的。但这不符合市场业务的需求。

已有产品的不完善、业务市场的迫切需求都给了Hubble数据库走进高并发实时流式计算的契机。Hubble利用AI算法的优势,实现Hubble数据库分层设计。在数据存储层上,采用基于切片的行式存储、列式存储和KV存储的混合部署模式,在大规模数据同时支持密集AP计算和TP并发场景下, 基于数据切片的混布存储策略可以弹性适应IO特性,快速做库内转换。Hubble数据库可以通过JDBC/ODBC协议来调用,还可以在数据库上创建索引,在高并发大规模数据下完全可以毫秒级响应,更好的满足业务场景。

Hubble产品在某大型股份制银行信用卡业务系统上线后,经过银行业业务专家进行应用测试:在实时反欺诈场景中:实现了每天千万级交易数据数据实时并发入库;接近100个复杂欺诈规则分析,毫秒级返回分析结果。

值得一提的是,作为原创国产数据库Hubble在中国电子工业标准化技术协会信息技术应用创新工作委员会指导的全国首届信创信创产业生态大赛中获得一等奖的荣誉。

当下人类正在进入智能时代,数据已成为新的生产要素,数据库将成为金融、政府、公安、军政等国家命脉行业基础设施的支柱。近些年发生的“微软黑屏门”、“微软操作系统停更”、“棱镜门”等安全事件,敲响了我国 IT 产业的警钟,中国必须建立基于自己的 IT 底层架构和标准。就数据库产品而言,要想从根本上把握住国产数据库的“命门”就要自主设计研发。加持国家政策的支持,信创产业的推动,原创一定是国产数据库的最终宿命。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
Flink是一个分布式处理框架,可以方便地接入和处理来自不同数据源的实时数据。对于接入Kafka数据计算Flink提供了丰富的API和功能。 首先,在Flink中,可以使用Kafka作为数据源来创建一个数据。通过配置Kafka的连接信息和消费者组,可以消费Kafka中的消息,并将其转换为Flink数据对象。Flink的Kafka连接器会自动处理与Kafka的连接和消息消费的细节,开发者只需关注数据的处理逻辑即可。 接着,可以使用Flink提供的各种算子来对Kafka数据进行计算和转换。例如,可以使用map算子对每个输入的消息进行映射或转换操作,使用filter算子根据条件过滤消息,使用reduce或聚合算子对消息进行统计和聚合等等。Flink还提供了窗口操作,可以根据时间或其他条件对数据进行切割和分组,以便进行更复杂的计算和分析。 除了基本的数据转换和计算Flink还支持多种模式下的容错和状态管理。当出现故障时,Flink能够自动从故障中恢复,并保证数据的一致性。此外,Flink还提供了可扩展和高吞吐的处理能力,可以处理大规模的数据,并保持低延迟。 综上所述,Flink可以方便地接入和处理来自Kafka的数据。通过配置Kafka的连接信息,并使用Flink提供的算子和功能,可以对Kafka数据进行各种计算和转换操作,并实现复杂的处理需求。由于Flink的高可靠性和可扩展性,它适用于大规模和高吞吐量的实时数据处理场景。

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值