多卡聚合技术在消防应急可视化指挥视频传输的应用

消防应急现场指挥的发展趋势是可视化的指挥调度,利用先进的视频技术,将灾害现场的画面实时传输到现场指挥部、前线指挥部和后方指挥中心,并及时将指令传递到一线抢险人员,为现场抢险提供操作指导和决策支持。
在这里插入图片描述
单卡4G图传无法满足可视化指挥系统的可靠性

1、4G单链路在弱网环境下,无法保障视频传输质量。

2、弱网环境主要包括:灾害现场信号差、车载移动、人流密集场所。

3、4G单链路在弱网环境下视频传输,直观的效果就是出现连续卡顿、花屏、黑屏,严重影响可视化指挥的效率。

QYT-X1S聚合技术可以保障现场网络的可靠性与安全性
在这里插入图片描述
1、支持4G、5G,弱网聚合,稳定性强。工业级硬件设计,满足在恶劣的工作环境下正常使用。多运营商弱网聚合技术,可实现弱网环境下链路带宽叠加,并当某个运营商没网络信号,视频会动态调整至其他运营商链路传输,实现视频不中断。
2、可靠安全传输性。QYT-X1S支持APN专网卡和APN专网部署,使用数据分片、多路径传输,消防单兵与指挥调度平台之间互联互通,可实现指挥调度平台实时拉取任意单兵的现场视频,满足救援现场与指挥部音视频通话的安全要求。

  • 0
    点赞
  • 0
    收藏
    觉得还不错? 一键收藏
  • 0
    评论
AutoModelForCausalLM.from_pretrained方法可以实现多卡并行传输。具体实现步骤如下: 1. 首先,通过调用from_pretrained方法加载预训练模型,并传入相关参数,如模型路径、配置、数据类型、内存使用等。 2. 如果检测到有多个GPU可用(通过torch.cuda.device_count()判断),则进入多卡加载的分支。 3. 在多卡加载分支中,首先使用accelerate库的infer_auto_device_map函数根据模型和内存限制自动分配设备映射。 4. 然后,使用accelerate库的dispatch_model函数将模型分发到各个设备上,实现多卡并行传输。 5. 最后,打印设备映射信息,表示多GPU预测已启用。 6. 如果只有一个GPU可用,则进入单卡加载分支,将模型移动到GPU上。 下面是一个示例代码: ```python from transformers import AutoModelForCausalLM import torch ori_model_path = "path/to/pretrained_model" config = "path/to/config" bc_model = AutoModelForCausalLM.from_pretrained( ori_model_path, config=config, torch_dtype=torch.float16, low_cpu_mem_usage=True, trust_remote_code=True, revision='main', device_map='auto' ) if torch.cuda.device_count() > 1: from accelerate import dispatch_model from accelerate.utils import infer_auto_device_map, get_balanced_memory device_map = infer_auto_device_map(bc_model, max_memory=get_balanced_memory(bc_model)) bc_model = dispatch_model(bc_model, device_map) print('multi GPU predict => {}'.format(device_map)) else: bc_model = bc_model.cuda() print("single GPU predict") ```

“相关推荐”对你有帮助么?

  • 非常没帮助
  • 没帮助
  • 一般
  • 有帮助
  • 非常有帮助
提交
评论
添加红包

请填写红包祝福语或标题

红包个数最小为10个

红包金额最低5元

当前余额3.43前往充值 >
需支付:10.00
成就一亿技术人!
领取后你会自动成为博主和红包主的粉丝 规则
hope_wisdom
发出的红包
实付
使用余额支付
点击重新获取
扫码支付
钱包余额 0

抵扣说明:

1.余额是钱包充值的虚拟货币,按照1:1的比例进行支付金额的抵扣。
2.余额无法直接购买下载,可以购买VIP、付费专栏及课程。

余额充值