利用deepstream python将analytics产生的统计数据发送到kafka

概述

deepstream-occupancy-analytics 项目提供了一种往kafka发送analytics统计数据的方法。但是所有的改动,特别是主程序是用C语言开发的。但写这篇文章的时候,在网上还没发现官方系统性的说明和解释,都是一些零碎的问答。

因此综合,以跨线统计为例,提供了一种python版本发送统计数据的方法,同时详细说明了需要改动和编译哪些C程序以及deepstream python bindings。可以参考定制化自己想要收集并发送的数据内容和格式。

nvidia论坛上有人回复说,在以后的release中,将会提供基于deepstream python发送自定义数据的功能

主要改动分为三点:

  1. 将自定义的数据结构追加到NvDsEventMsgMeta,例如将 lc_curr_straight 和 lc_cum_straight 加入
  2. 修改eventmsg_payload程序,编译产生 libnvds_msgconv.so
  3. 同步更改bindschema.cpp, 编译deepstream python bindings

最后只需要在python程序中加入如下代码即可发送自定义的统计数据:

# line crossing current count of frame
obj_lc_curr_cnt = user_meta_data.objLCCurrCnt
# line crossing cumulative count
obj_lc_cum_cnt = user_meta_data.objLCCumCnt
msg_meta.lc_curr_straight = obj_lc_curr_cnt["straight"]
msg_meta.lc_cum_straight = obj_lc_cum_cnt["straight"] 

obj_lc_curr_cnt和obj_lc_cum_cnt的key在config_nvdsananlytics.txt中定义

还有一种更简单的方案。如果场景需求中,时延并不重要,也不需要同时处理大规模视频流的话,可以考虑使用 kafka-python 等python库,直接将获取到的analytics发送出去,

  • 0
    点赞
  • 2
    收藏
    觉得还不错? 一键收藏
  • 2
    评论
将数据库查询数据发送Kafka Sink需要经过以下步骤: 1. 首先,确保数据库可以连接和查询。使用适当的数据库驱动程序和连接字符串,通过建立数据库连接,可以执行所需的查询语句。 2. 在查询数据之前,需要引入Kafka相关的依赖,以将数据发送Kafka Sink。可以使用适当的编程语言或工具来导入所需的Kafka库。 3. 在查询数据库之后,获取结果集。将查询语句发送到数据库后,将返回符合条件的数据集。根据查询结果的数据结构和需要发送的数据格式,逐行读取结果集。 4. 对于每一行数据,进行必要的数据转换和格式化。将结果集中的每一行数据转换为适当的消息格式,如JSON、Avro等。根据Kafka Sink的要求,可能需要将某些字段进行转换或调整格式。 5. 创建Kafka Producer实例。使用适当的配置,创建一个Kafka Producer实例,以便将消息发送Kafka Sink。 6. 将转换后的消息发送Kafka Sink。使用创建的Kafka Producer实例,将转换后的消息发送到指定的Kafka Sink。根据需要,可以指定消息的主题、分区等属性。 7. 确认消息是否成功发送。根据Kafka Sink的返回信息,确认消息是否成功发送Kafka。 总体而言,将数据库查询数据发送Kafka Sink需要首先连接数据库并查询所需的数据,然后将查询结果转换为适当的消息格式,并使用Kafka Producer将消息发送Kafka Sink。完成以上步骤后,可以通过消费者来验证数据是否正确地被发送到了Kafka Sink。
评论 2
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值