一种基于防火监控视频的地面精准定位方法与流程

未命名 09-03 阅读:81 评论:0


1.本发明涉及火点定位领域,特别是一种基于防火监控视频的地面精准定位方法。


背景技术:

2.火灾的发生是现实生活中最常见、最突出、危害最大的一种灾难,是直接关系到人民生命安全、财产安全的大问题。森林火灾为火灾易发生重灾区,对森林火灾的监控与防治尤为重要。近些年全球温室效应加剧,极端天气日益频繁,火灾频次急剧上升。
3.由于火灾发生时间的不确定性,火情的监控定位具有全天候的需求。对于火灾的防治,秉承“打小、打早”原则,尽早控制火灾的蔓延,减少火灾的损失,防火工作又具有及时性的需求。火点的精准定位可以帮助消防部门和应急救援队伍准确地确定火点位置,及时采取应对措施来控制火灾,因此防火工作又具有精准性的需求。火灾监控范围广、时间长,如何低成本的开展这项工作,也是值得深思熟虑的。针对火点监控定位的这些特性需求,本发明提出了一套全天候、低成本、易操作、快速、高精度的基于防火监控视频的地面精准定位方法。
4.传统火点定位技术通常基于地面观测和数据处理,包括以下几种方法:
5.1.人工观测法:由专业人员在管辖区域内定期巡护,发现火情后沿着火区边缘或周围高点进行观测,通过望远镜、光学仪器等手段确定火点位置。该方法不仅需要耗费大量人力物力,且依赖于人工观测和判断,存在主观因素,定位容易出现偏差。
6.2.空中观测法:利用直升机、飞机等航空器进行空中观测,通过目视或摄影等手段确定火点位置。该方法受天气、地形、光照等因素的影响,容易出现死角或盲区。
7.3.卫星遥感法:利用卫星遥感技术获取火区的红外光谱特征,结合地理信息系统等技术进行数据分析处理,确定火点位置。卫星遥感数据获取的间隔较长,如目前国内葵花8号卫星影像采样间隔至少为10分钟,不能实时采集数据,定位效率较低,不能满足快速响应的需要。与此同时其定位精度低,不能满足高精度定位需求。
8.4.传统的防火监控视频地面定位法:根据物体在图像坐标系中的坐标和摄像机的内外参数,利用三维重建技术,将物体在三维空间中的位置确定下来。然后根据三维物体在空间中的位置,结合地图信息和gps定位等技术,对物体进行地面精准定位。其利用了多种技术手段,技术体系复杂,成本较高。
9.上述这些技术手段都无法同时满足火点定位的全天候、低成本、易操作、快速、高精度需求。


技术实现要素:

10.本发明针对上述现有技术存在的问题,提供了一种全天候、低成本、易操作、快速、高精度的基于防火监控视频的地面精准定位方法。
11.本发明公开了一种基于防火监控视频的地面精准定位方法,包括:
12.s1:布设用于观察监控区域的云台;
13.s2:获取监控区域的dem数据;
14.s3:通过云台对落入指定位置的rtk无人机观测时产生的姿态数据,确定云台姿态参数校准值;
15.s4:检测到火灾发生时,云台照准火点,基于dem数据、云台姿态参数校准值、云台实时pt值,确定火点位置。
16.进一步地,所述的步骤s1,包括:
17.将云台安装于防火塔,并通过接入专网或者广域网来连接到防火监控指挥中心。
18.进一步地,所述的步骤s2,包括:
19.用于描述地形表面的高程信息的dem数据,其水平分辨率在12.5米内,垂直方向精度在5米误差内。
20.进一步地,所述的步骤s3包括:
21.s301:带有rtk的无人机移动至云台处,并确定云台的在三维大地坐标中的坐标;
22.s302:确定以云台为中心的三维站心坐标系,以及云台三维站心坐标系与三维大地坐标系的坐标系转换关系;
23.s303:布设空间观测点,使得云台能够观测到所有的空间观测点;
24.s304:控制无人机落入空间观测点,获取云台观测各位置无人机时的pt值;
25.s305:建立云台姿态参数改正模型,并解算云台姿态参数校准值。
26.进一步地,所述的步骤s301,具体包括:
27.控制rtk无人机飞至与云台同一高度的位置,获取rtk无人机的海拔即为云台高程h;控制rtk无人机飞至云台垂直顶部位置,获取rtk无人机的经纬度即为云台纬度b和云台经度l。
28.进一步地,所述的步骤s303,具体包括:
29.在三维站心坐标系中,在与云台同一高度水平面上,每间隔30度布设一个空间观测点,并且分别在俯仰角为-3度、-6度、3度的水平面上每间隔60度布设一个空间观测点,起始水平角度默认为0度;空间观测点与云台间的观测距离的范围为100~300米;
30.其中,基于dem数据确定具体观测距离和起始水平角度,以保证云台能够观测到所有空间观测点,并且观测距离还应在范围内选取尽可能大的数值,用于减少无人机位置抖动对俯仰角或方位角计算的影响。
31.进一步地,所述的步骤s304,具体包括:
32.基于坐标系转换关系,将空间观测点的坐标信息由三维站心坐标系转换为rtk无人机支持的大地坐标系,rtk无人机基于转换后的坐标落入空间观测点;
33.控制云台观测rtk无人机,使得云台画面中心照准rtk无人机,获取观测时云台的pt值。
34.进一步地,所述的步骤s305,具体包括:
35.建立云台姿态参数改正模型,解算云台姿态校准参数(θ,β,ωc,σc);其中,θ为云台旋转面最大倾斜方向的高度角,β为云台旋转面最大倾斜方向的方位角,ωc为云台观测方位角常量改正值,σc为云台观测俯仰角常量改正值;
36.改正模型公式为:
37.ω

=ω
真-ω

=-arctan[tanθ*tanσ*sin(β-ω)]+ω
c (5-1)
[0038]
σ

=σ
真-σ

=-σ
ax

ay
+σcꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀꢀ
(5-2)
[0039]
α
x
=arctan[tanθ*sin(β-ω)] (5-3)
[0040]
αy=arctan[tanθ*cos(β-ω)] (5-4)
[0041]
tan(σ-σ
ax
)=tanσ*cosa
x (5-5)
[0042]
σ
ay
=a
y (5-6)
[0043]
其中,ω

和σ

分别为云台观测空间观测点的真实pt值,真实pt值由观测点坐标与云台坐标计算而来,ω

和σ

分别为云台观测落入空间观测点的rtk无人机时,从云台获取到的pt值;
[0044]
结合式5-1,代入观测值,取模型误差均方根最小结果时的(σc,β,)值作为解算结果;此误差均方根计算公式为:
[0045][0046]
其中δ为真实俯仰角观测值与模型计算俯仰角值的差值;
[0047]
同样方式,结合式5-2,代入观测值,取模型误差均方根最小结果时的ωc值作为解算结果,此时δ为真实方位角观测值与模型计算方位角值的差值。
[0048]
进一步地,所述的步骤s4,包括:
[0049]
当发生火情时,防火指挥中心的云台设备配套视频监控终端自动识别火点,或者,通过人工识别到火点;
[0050]
识别火点后,可以自动或者手动将视频画面中心照准火点,且告知火点精准定位服务该云台设备此时观测到火情,需要计算火点位置;
[0051]
火点精准定位服务实时获取观测到火情的云台的pt值,基于式5-1和5-2解算其真实的pt值;
[0052]
火点精准定位服务利用真实的pt值和dem数据,结合通视原理和三角函数计算火点位置。
[0053]
进一步地,该方法还包括:
[0054]
s5:防火指挥中心获取火点位置后,通知消防相关责任部门,以进行后续的火灾治理工作。
[0055]
本发明至少具有以下有益效果:
[0056]
(1)本发明基于防火监控视频的实现对火点的精准定位,不受到天气、光照等因素的影响,具有全天候性。
[0057]
(2)本发明在实际验证中,在观测条件好的情况下距离云台3公里的火点最终定位精度在100m误差内,具有高精度性。
[0058]
(3)本发明通过实时摄像头的观测,以及火点精准定位服务的实时计算,能够在数秒内得到火点的位置,定位速度快。
[0059]
(4)出现火情后,本发明只需要用户控制云台画面中心照准火点,就能通过火点精准定位服务获取火点的位置,操作简单方便。
[0060]
(5)本发明建设成本较低,使用寿命长。
[0061]
本发明的其他有益效果将在具体实施方式部分详细说明。
附图说明
[0062]
为了更清楚地说明本发明实施例或现有技术中的技术方案,下面将对实施例或现有技术描述中所需要使用的附图作简单地介绍,显而易见地,下面描述中的附图仅仅是本发明的一些实施例,对于本领域普通技术人员来讲,在不付出创造性劳动的前提下,还可以根据这些附图获得其他的附图。
[0063]
图1为本发明公开的基于防火监控视频的地面精准定位方法的方法流程图。
[0064]
图2为本发明公开的基于防火监控视频的地面精准定位方法的技术实施流程图。
[0065]
图3为p值观测示意图。
[0066]
图4为t值观测示意图。
[0067]
图5为云台安装示意图。
[0068]
图6为云台设备接入网络示意图。
[0069]
图7为站心坐标系示意图。
[0070]
图8为空间观测点布设结构示意图。
[0071]
图9为云台中心照准无人机示意图。
[0072]
图10为云台中心照准火点示意图。
[0073]
图11为火点精准定位服务原理图。
[0074]
图12为火点精准定位服务计算逻辑图。
具体实施方式
[0075]
为使本发明的目的、技术方案和优点更加清楚,下面将对本发明的技术方案进行详细的描述。显然,所描述的实施例仅仅是本发明一部分实施例,而不是全部的实施例。基于本发明中的实施例,本领域普通技术人员在没有做出创造性劳动的前提下所得到的所有其它实施方式,都属于本发明所保护的范围。
[0076]
如图1所示的一种基于防火监控视频的地面精准定位方法,包括:
[0077]
s1:布设用于观察监控区域的云台;
[0078]
s2:获取监控区域的dem数据;
[0079]
s3:通过云台对落入指定位置的rtk无人机观测时产生的姿态数据,确定云台姿态参数校准值;
[0080]
s4:检测到火灾发生时,云台照准火点,基于dem数据、云台姿态参数校准值、云台实时pt值,确定火点位置。
[0081]
实施例
[0082]
如图2所示,本发明技术实施流程主要包括:接入专网或者广域网的云台设备(视频监控)基础工程建设;云台监控画面中心照准火点(目标点),获取云台此时pt值;基于带有rtk的无人机对每一个云台进行姿态参数校准,包括测定云台的地理三维坐标、计算云台pt(方位角、俯仰角)的校准模型参数;高精度的dem数据获取;将云台坐标以及实时pt值传输给火点精准定位服务(服务端);计算得到火点的三维坐标(b\l\h)。
[0083]
下面将分步骤对本发明进行详细说明:
[0084]
步骤一
[0085]
接入专网或者广域网的云台设备的基础工程建设,包括云台设备的选型、云台设
备的数量与布点选择、网络布线、网络设备选型、云台设备安装和调试等工作。
[0086]
如图5所示,云台设备一般安装于防火塔顶部,其镜头可以在水平面360度旋转,在垂直面180度旋转,进而保证可以观测到地面目标。云台设备内置姿态感知能力,可以获取上述两个角度值,本领域中通常称之pt值。p值在一水平面上以正北方向为起始方向0度,顺时针递增,值域[0,360]。t值在一垂直面上以水平方向为0度值,向上递增,向下递减,值域[-90,90]。参见图3所示的p值观测示意图和图4所述的t值观测示意图。
[0087]
云台设备一般安装在防火塔顶部,距离地面20~35米,国内以海康、大华居多。设备选型推荐为热红外型,原因红外热辐射比可见光具有更强的穿透雾、霾、雨、雪的能力,在恶劣天气条件下的观测效果几乎不受影响。云台的安装需要尽量保证其水平旋转面水平。
[0088]
防火塔一般均匀布设到监控区域内,保证能监控整个待监控区域。布设位置应尽量选择区域位置制高点,这样不仅能提高单个云台设备监控的有效视野范围,而且能提高解算火点位置的精度。
[0089]
云台设备通过专网或者广域网络接入到防火监控指挥中心,防火监控指挥中心可通过此网络实时获取监控画面等云台设备参数信息。参见图6所示的云台设备接入网络示意图。
[0090]
接入网络的云台需要进行调试,以便网络中终端用户能够实时获取其监控画面及pt值,确认其运行的稳定性。
[0091]
步骤二
[0092]
高精度的dem数据的获取。dem数据是数字高程模型(digital elevation model)的缩写,是一种数字地形模型数据,描述地球表面的高程信息。dem数据由一系列网格单元组成,每个单元包含一个高程值,通过dem数据可以获取数据范围内每一个地理位置点(b、l)的高程值h。dem数据通常是从雷达、激光扫描和卫星测绘等数据源中采集。本实施例中所要求的高精度不仅要求在dem水平分辨率高,建议12.5m分辨率内,同时要求dem数据在垂直方向精度高,建议在5m误差内。高精度的dem数据可以从相关测绘部门获取与授权。对于坐标系的要求是,dem数据的地理坐标系需要rtk无人机支持,若不支持需要将dem数据转换至rtk无人机支持的地理坐标系下。
[0093]
步骤三
[0094]
基于带有rtk的无人机进行云台姿态参数校准。rtk无人机是一种配备了实时运动动态解算(real time kinematic,rtk)技术的无人机,它是一种高精度的gps定位设备,可以实现厘米级的定位精度。将rtk无人机飞至空间某点,可以通过配套app终端或者手持设备终端实时获取此刻rtk无人机的三维大地坐标值(b、l、h),也可以预先设置三维大地坐标值(b、l、h),让rtk无人机飞至空间该位置。
[0095]
云台姿态参数校准的具体步骤包括:
[0096]
a.测定云台的三维坐标(b、l、h)。将rtk无人机飞至云台同一高度位置,获取其海拔h。将无人机飞至云台垂直顶部位置,获取其b、l。若要保证火点的高精度定位,需要保证b、l的测量准确度在分米级精度,h的测量准确度在厘米级精度。
[0097]
b.以云台为中心的三维站心坐标系(enu)的建立,并建立此站心坐标系(enu)与大地坐标系(blh)的转换关系,目的是便于后续计算。转换公式为通用公式,此处不予赘述。站心坐标系示意图参见图7。
[0098]
c.为建立云台pt值校准模型的空间观测点布设。后续在这些观测点上依次落入无人机,使用云台进行观测。在三维站心坐标系(enu)中,与云台同一高度水平面上,每间隔30度布设一观测点,此外在俯仰角分别为-3度、-6度、3度的水平面上每间隔60度布设一观测点。起始水平角度默认为0度,为保证观测点在地面之上且观测视线无遮挡,可灵活调整该值。此处布设的角度即为真实的pt值,设真实p值为ω

,真实t值为σ

。观测点与云台的距离称为观测距离,规划在100~300m范围内,在保证观测点在地面之上且观测视线无遮掩外,观测距离尽量接近300m,这样既可以保证方便调整云台画面找到无人机,又可以减少由于外界风力等原因造成的无人机位置抖动对俯仰角或方位角计算的影响。观测距离及观测点的水平起始角度的选取,可以借助获取的dem数据,考虑视线不遮挡情形下保证规划的所有点都能进行观测。布点结构如图8所示,为了方便查看,图8中只示出了俯仰角为0度与3度方向的布点。布点完成后,需要将布设点转换至rtk无人机支持的大地坐标系下,便于无人机落点。
[0099]
d.获取每一空间观测点的云台观测pt值。在规划的每一空间观测点上依次落入无人机,控制云台画面中心照准无人机(参见图9),同时从云台设备中实时获取pt值。云台控制可以选用云台配套终端进行控制,也可以基于云台设备厂商的sdk开发自己的终端程序进行控制。此处设p值为ω

,t值为σ


[0100]
e.建立云台姿态参数改正模型,解算云台姿态校准参数(θ,β,ωc,σc)。其中θ为云台旋转面最大倾斜方向的高度角,β为旋转面最大倾斜方向的方位角,ωc为云台观测方位角常量改正值,σc为云台观测俯仰角常量改正值。
[0101]
改正模型公式为:
[0102]
ω

=ω
真-ω

=-arctan[tanθ*tanσ*sin(β-ω)]+ω
c (5-1)
[0103]
σ

=σ
真-σ

=-σ
ax

ay

c (5-2)
[0104]
其中:
[0105]
α
x
=arctan[tanθ*sin(β-ω)] (5-3)
[0106]
αy=arctan[tanθ*cos(β-ω)] (5-4)
[0107]
tan(σ-σ
ax
)=tanσ*cosa
x (5-5)
[0108]
σ
ay
=a
y (5-6)
[0109]
结合式5-1,代入观测值,取模型误差均方根最小结果时的(σc,β,θ)值作为解算结果。此误差均方根计算公式为:
[0110][0111]
其中δ为真实俯仰角观测值与模型计算俯仰角值的差值。
[0112]
基于同样方式,结合式5-2,代入观测值,取模型误差均方根最小结果时的ωc值作为解算结果,此时,δ指真实方位角观测值与模型计算方位角值的差值。
[0113]
步骤四
[0114]
依据火点精准定位服务实时计算火点位置(b、l、h)值。
[0115]
火点精准定位服务部署于服务器上,其能结合dem数据、云台姿态校准参数值、从云台获取的实时pt值计算火点位置,对用户提供实时的在线的计算每一云台设备观测到的火点位置的接口能力。
[0116]
当发生火情时,防火指挥中心的云台设备配套视频监控终端可以自动识别或人工识别到火点。识别火点后,可以自动或者手动将视频画面中心照准火点(参见图10),且告知火点精准定位服务该云台设备此时观测到火情,需要计算火点位置。火点精准定位服务实时获取该云台设备的pt值,利用式5-1和5-2解算其真实的pt值。火点精准定位服务利用真实的pt值和dem数据,结合通视原理和数学领域的三角函数计算火点位置。
[0117]
参见图11和图12,火点精准定位服务计算逻辑包括:
[0118]
(1)观测方向距离递增步长,去dem数据分别率的1/2,设为ds。
[0119]
(2)高程误差阈值,设为dh,初始化设定为1m。
[0120]
(3)从云台s做一观测射线,观测距离逐渐增加ds。
[0121]
(4)判断:超过云台观测半径范围,若是,则进入(5);若否,则进入(6)。
[0122]
(5)将dh值增大,乘以2,返回(2)。
[0123]
(6)利用三角函数计算目标点l(b,l,h),基于真实pt值实现。
[0124]
(7)从dem中计算点p(b,l)对应海拔h,基于监控区域的dem数据实现。
[0125]
(8)判断:h与h差值的绝对值是否小于dh,若是则进入(9),若否,则返回(3)。
[0126]
(9)b、l、h值即为所需值。
[0127]
防火指挥中心拿到火点精准定位服务计算的火点位置,通知消防等相关责任部门进行后续的火灾治理工作。
[0128]
采用本实施例公开的上述方法,基于带有rtk的无人机进行云台设备姿态参数校准,通过实际验证,可以保证校准后云台设备自身的三维坐标精度在厘米级别,俯仰角中误差在0.2度内,方位角中误差在0.5度内,进而保证此技术方案最终定位火点的准确性。本实施例通过实时视频进行火点定位可以保证火点定位的时效性。
[0129]
以上所述,仅为本发明的具体实施方式,但本发明的保护范围并不局限于此,任何熟悉本技术领域的技术人员在本发明揭露的技术范围内,可轻易想到变化或替换,都应涵盖在本发明的保护范围之内。

技术特征:
1.一种基于防火监控视频的地面精准定位方法,其特征在于,包括:s1:布设用于观察监控区域的云台;s2:获取监控区域的dem数据;s3:通过云台对落入指定位置的rtk无人机观测时产生的姿态数据,确定云台姿态参数校准值;s4:检测到火灾发生时,云台照准火点,基于dem数据、云台姿态参数校准值、云台实时pt值,确定火点位置。2.根据权利要求1所述的基于防火监控视频的地面精确定位方法,其特征在于,所述的步骤s1,包括:将云台安装于防火塔,并通过接入专网或者广域网来连接到防火监控指挥中心。3.根据权利要求1所述的基于防火监控视频的地面精确定位方法,其特征在于,所述的步骤s2,包括:用于描述地形表面的高程信息的dem数据,其水平方向的分辨率在12.5米内,垂直方向精度在5米误差内。4.根据权利要求1所述的基于防火监控视频的地面精确定位方法,其特征在于,所述的步骤s3包括:s301:带有rtk的无人机移动至云台处,并确定云台的在三维大地坐标系中的坐标;s302:确定以云台为中心的三维站心坐标系,以及云台三维坐标系与三维大地坐标系的坐标系转换关系;s303:布设空间观测点,使得云台能够观测到所有的空间观测点;s304:控制无人机落入空间观测点,获取云台观测各位置无人机时的pt值;s305:建立云台姿态参数改正模型,并解算云台姿态参数校准值。5.根据权利要求4所述的基于防火监控视频的地面精确定位方法,其特征在于,所述的步骤s301,具体包括:控制rtk无人机飞至与云台同一高度的位置,获取rtk无人机的海拔即为云台高程h;控制rtk无人机飞至云台垂直顶部位置,获取rtk无人机的经纬度即为云台纬度b和云台经度l。6.根据权利要求5所述的基于防火监控视频的地面精确定位方法,其特征在于,所述的步骤s303,具体包括:在三维站心坐标系中,在与云台同一高度水平面上,每间隔30度布设一个空间观测点,并且分别在俯仰角为-3度、-6度、3度的水平面上每间隔60度布设一个空间观测点,起始水平角度默认为0度;空间观测点与云台间的观测距离的范围为100~300米;其中,基于dem数据确定具体观测距离和起始水平角度,以保证云台能够观测到所有空间观测点,并且观测距离还应在范围内选取尽可能大的数值,用于减少无人机位置抖动对俯仰角或方位角计算的影响。7.根据权利要求6所述的基于防火监控视频的地面精确定位方法,其特征在于,所述的步骤s304,具体包括:基于坐标系转换关系,将空间观测点的坐标信息由三维站心坐标系转换为rtk无人机支持的大地坐标系,rtk无人机基于转换后的坐标落入空间观测点;
控制云台观测rtk无人机,使得云台画面中心照准rtk无人机,获取观测时云台的pt值。8.根据权利要求7所述的基于防火监控视频的地面精确定位方法,其特征在于,所述的步骤s305,具体包括:建立云台姿态参数改正模型,解算云台姿态校准参数(θ,β,ω
c

c
);其中,θ为云台旋转面最大倾斜方向的高度角,β为云台旋转面最大倾斜方向的方位角,ω
c
为云台观测方位角常量改正值,σ
c
为云台观测俯仰角常量改正值;改正模型公式为:ω

=ω
真-ω

=-arctan[tanθ*tanσ*sin(β-ω)]+ω
c (5-1)σ

=σ
真-σ

=-σ
ax

ay

c (5-2)α
x
=arctan[tanθ*sin(β-ω)] (5-3)α
y
=arctan[tanθ*cos(β-ω)] (5-4)tan(σ-σ
ax
)=tanσ*cosa
x (5-5)σ
ay
=a
y (5-6)其中,ω

和σ

分别为云台观测空间观测点的真实pt值,真实pt值由观测点坐标与云台坐标计算而来,ω

和σ

分别为云台观测落入空间观测点的rtk无人机时,从云台直接获取到的pt值;结合式5-1,代入观测值,取模型误差均方根最小结果时的(σ
c
,β,θ)值作为解算结果;此误差均方根计算公式为:其中δ为真实俯仰角观测值与模型计算俯仰角值的差值;同样方式,结合式5-2,代入观测值,取模型误差均方根最小结果时的ω
c
值作为解算结果,此时δ为真实方位角观测值与模型计算方位角值的差值。9.根据权利要求8所述的基于防火监控视频的地面精确定位方法,其特征在于,所述的步骤s4,包括:当发生火情时,防火指挥中心的云台设备配套视频监控终端自动识别火点,或者,通过人工识别到火点;识别火点后,可以自动或者手动将视频画面中心照准火点,且告知火点精准定位服务该云台设备此时观测到火情,需要计算火点位置;火点精准定位服务实时获取观测到火情的云台的pt值,基于式5-1和5-2解算其真实的pt值;火点精准定位服务利用真实的pt值和dem数据,结合通视原理和三角函数计算火点位置。10.根据权利要求1所述的基于防火监控视频的地面精确定位方法,其特征在于,该方法还包括:s5:防火指挥中心获取火点位置后,通知消防相关责任部门,以进行后续的火灾治理工作。

技术总结
本发明公开了一种基于防火监控视频的地面精准定位方法,包括:S1:布设用于观察监控区域的云台;S2:获取监控区域的DEM数据;S3:通过云台对落入指定位置的RTK无人机观测时产生的姿态数据,确定云台姿态参数校准值;S4:检测到火灾发生时,云台照准火点,基于DEM数据、云台姿态参数校准值、云台实时PT值,确定火点位置。本发明基于防火监控视频,实现对火点的精准定位,不受到天气、光照等因素的影响,具有全天候性。本发明通过实时摄像头的观测,以及火点精准定位服务的实时计算,能够在数秒内得到火点的位置,定位速度快。定位速度快。定位速度快。


技术研发人员:刘波 周磊
受保护的技术使用者:北京地林伟业科技股份有限公司
技术研发日:2023.06.20
技术公布日:2023/8/31
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐