基于视频图像的室内火灾场景孪生建模方法
Digital twin modeling method for indoor fire scenes based on video image
收稿日期: 2023-05-18 网络出版日期: 2024-07-01
| 基金资助: |
|
Received: 2023-05-18 Online: 2024-07-01
作者简介 About authors
谢亚坤(1991—),男,2022年12月毕业于西南交通大学,获工学博士学位(指导教师:朱军教授),研究方向为数字孪生场景建模与灾害信息智能提取。
XIE Yakun (1991—), male, received his doctoral degree from Southwest Jiaotong University on December 2022, majors in digital twin scene modeling and intelligent extraction of disaster information. E-mail:
本文引用格式
谢亚坤.
XIE Yakun.
随着社会经济和城市建设的快速发展,建筑物结构及功能逐渐复杂多样、人员流动密集、火灾荷载大,一旦发生火灾,极易造成较大人员伤亡及经济损失,我国室内火灾防控工作仍然面临重要挑战。智能化是室内火灾防控发展的重要方向,数字孪生是实现智慧消防的有效途径。视频图像以直观、实时、可靠等诸多优点逐渐成为室内火灾防控的重要监测手段,基于视频图像构建室内三维场景,可以为火灾防控提供精准的信息感知和场景描述,对提升室内火灾防控信息化、智能化水平具有重要意义。
然而,当前基于视频图像的室内火灾识别精度较低,火灾产生的烟气导致视频画面模糊不清,无法进行准确的人员检测,关键信息感知效率低,且视频图像仅可显示二维信息,三维场景描述能力弱,难以满足室内火灾场景的低成本高效率建模需求。针对上述问题,论文提出了基于视频图像的室内火灾场景孪生建模方法,重点研究联合动静态特征的室内火灾高效识别、全局局部关联感知的烟气环境中人员检测、语义细节协同的室内火灾场景孪生建模等关键技术,并开展案例试验分析。主要研究内容如下。
(1)提出了联合动静态特征的室内火灾高效识别方法。首先,系统分析了视频图像中火灾所表现的动态与静态特征;其次,聚焦于视频中火灾典型运动特征和闪烁特征,建立基于动态特征的火灾兴趣区提取算法;然后,考虑到火灾的实时检测需求,构建基于轻量级神经网络的图像深层次静态特征提取模型,形成联合动静态特征的室内火灾识别方法;最后,构建多样化火灾识别数据集并开展试验分析,结果表明火灾识别平均准确率为97.92%,平均虚警率为2.01%,平均漏检率为1.77%,平均帧率为39 FPS,能够支持室内场景中火灾信息的精准感知。
(2)建立了全局局部关联感知的烟气环境中人员检测模型。首先,阐述了基于视频图像的室内烟气环境中人员检测框架;其次,分析火灾产生的烟气对视频图像中人员的遮挡影响,建立全局局部关联感知的烟气环境下人员特征提取模块;然后,剖析烟气环境中人员逃生姿态和尺度的差异性,构建复杂干扰下的人员精准预测方法;最后,通过试验模拟与网络搜集数据,建立烟气环境中人员检测数据集并开展试验分析,结果表明烟气环境中人员检测平均准确率为82.21%,检测速度为34 FPS,能够实现烟气环境中人员信息的准确检测。
(3)构建了语义细节协同的室内火灾场景孪生建模方法。首先,介绍了基于单目视频图像进行室内火灾场景孪生建模的总体流程;其次,分析室内对象深度分布特征,建立基于语义细节协同网络的单目图像深度估计方法,剖析室内对象运动过程,提出基于视频图像序列的场景动态更新方法;然后,分析单目相机三维空间至二维平面的成像机制,建立空间语义约束的火点与人员定位方法;最后,设计基于视频图像序列的室内火灾与人员空间位置、面积、时间等时空信息分析流程。
(4)基于上述研究成果,开展室内火灾场景孪生建模案例试验分析。首先,以图像深度估计为核心验证三维场景重建方法的有效性,结果表明深度估计准确率为99.7%,平均相对误差仅为0.097,平均帧率为28 FPS,并在多种场景中开展了场景重建与动态更新试验以验证方法的有效性;然后,对火点与人员的空间定位精度进行了详细讨论分析,结果表明火点与人员空间位置平均绝对误差为9.88 cm,平均相对误差为3.25%;最后,对空间中火灾与人员的空间位置、面积及时间信息进行分析,证明论文方法可以实现室内火灾场景信息精准感知与准确描述。

