无人机集群多视场条件下对多目标无人机跟踪方法

未命名 08-02 阅读:119 评论:0


1.本发明涉及一种无人机集群多视场条件下对多目标无人机跟踪方法,属于制导控制技术领域。


背景技术:

2.无人机应用广泛,包括货物运输、城市救援、城市建设规划中的信息获取等,如何确保在应用多无人机实现工程任务过程中,无人机跟踪其他无人机并及时预测它们的下一步运动,从而避免碰撞,实现无人机集群安全导航是一种重要的问题。
3.现有技术中,针对于多无人机目标的跟踪方法较少,通过检索发现:
4.nan jiang等人于2021提出了一个新的无人机数据集anti-uav,该数据集包含318个rgb-t视频对,共有超过580k个人工标注边界框,并依据该数据集设计了一个新的单目标跟踪方法,但是anti-uav数据集及对应算法仅针对于单目标无人机跟踪,不适用于更复杂的多目标无人机跟踪;
5.jie zhao等人于2022年提出了一个新的dut anti-uav数据集,数据集中包含超过35种无人机和7种背景环境,共有20个序列总计24804张图片,同时在论文中设计验证实验,验证8种单目标跟踪算法在该数据集上的性能,并设计了一个简单的基线单目标跟踪算法,同样,该算法与该数据集不适用于多目标跟踪;
6.chuanyun wang等人于2022年提出了uavswarm数据集,该数据集是多目标无人机跟踪数据集,包含72个视频序列共12598张图片,每个视频序列中包含3到23架无人机,同时设计了验证实验,验证了目前较新的具有代表性的两个算法gnmot和bytetrack在数据集上的性能,并没有提出新的针对于无人机目标特性的多目标跟踪算法。
7.现有的无人机目标的跟踪方法,均为单视场下无人机跟踪,无法实现对多视场下的多无人机目标分配对应的统一身份,更无法实现在同一集群的多架无人机不同视场下对多个目标无人机持续跟踪,由于上述原因,本发明人对现有的无人机跟踪方法进行了深入研究,以解决上述问题。


技术实现要素:

8.为了克服上述问题,本发明人进行了深入研究,设计出一种无人机集群多视场条件下对多目标无人机跟踪方法,包括以下步骤:
9.s1、对无人机群中的无人机进行编号,其中一个无人机为主机,其余无人机设置为从机;
10.s2、每个无人机对目标群进行视频拍摄,并对拍摄的视频片段进行目标检测;
11.s3、主机和从机分别对目标进行跟踪。
12.优选地,s2中,无人机采用目标检测器对拍摄的视频片段进行目标检测,获得多个跟踪片段的集合,其中每个跟踪片段包括目标的身份编号,目标在图像坐标系下边界框位置参数。
13.优选地,s3中,对目标的跟踪包括以下子步骤:
14.s301、主机、从机分别采用视觉特征进行目标的匹配;
15.s302、主机、从机分别将未匹配目标采用目标位置进行目标的匹配;
16.s303、将主机未匹配目标特征与从机未匹配的目标特征拼接,进行目标的匹配;
17.s304、将从机未匹配目标特征与主机未匹配目标特征拼接,进行目标的匹配;
18.s305、将主机中仍未匹配的目标作为新的目标;
19.s306、根据主机匹配目标的编号,对从机匹配的目标进行身份编号修正;
20.s307、将从机中仍未匹配的目标作为新的目标。
21.优选地,在s301之前,还具有s300、主机、从机对跟踪片段集合进行初始化,即将跟踪片段集合初始化为空集,将第一帧图片输入目标检测器获得的检测结果作为初始的跟踪片段集合,采用特征提取器提取初始跟踪片段集合的视觉特征状态。
22.优选地,在s301中,主机或从机目标匹配过程为:
23.获取目标检测器输出的不同帧图像的检测结果,采用特征提取器提取该帧检测结果中不同目标的视觉特征,将该帧中所有视觉特征拼接,形成该帧的视觉特征矩阵;采用特征提取器提取该帧前一帧的所有跟踪片段视觉特征状态,并拼接为前一帧跟踪特征矩阵,将视觉特征矩阵与前一帧跟踪特征矩阵进行匹配,将成功匹配的结果加入到跟踪片段集合中。
24.优选地,所述匹配是指,采用l2范数计算视觉特征矩阵与前一帧跟踪特征矩阵中各个向量间的欧式距离,形成代价矩阵,设置阈值,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,为检测结果分配身份编号,将成功匹配的检测结果加入跟踪片段集合中。
25.优选地,在s302中,采用卡尔曼滤波法预测当前未匹配的跟踪片段集合中目标在当前帧的对应边界框位置参数,即预测边界框,结合当前帧未匹配检测结果的目标边界框位置参数,即检测边界框,计算检测边界框与预测边界框的交并比,形成代价矩阵,设置阈值,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,为检测结果分配身份编号,将成功匹配的检测结果加入跟踪片段集合中。
26.优选地,s303中,将主机中未匹配的检测特征拼接形成检测特征矩阵,获取一个或多个从机的跟踪片段集合,去除跟踪片段集合中已经在s301、s302步骤中完成匹配的相同编号的目标,得到t
2-remain
矩阵,获取从机前一帧的对应跟踪片段视觉特征状态,并拼接为跟踪特征矩阵采用l2范数计算t
2-remain
和跟踪特征矩阵中各个向量间的欧式距离,形成代价矩阵,设置阈值,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,为检测结果分配身份编号,将成功匹配的检测结果加入主机的跟踪片段集合中。
27.优选地,所述目标检测器为yolox检测器。
28.优选地,在s3中,所述特征提取器为resnet50。
29.本发明所具有的有益效果包括:
30.(1)充分利用多架无人机获取的视觉信息,用其他无人机的视觉信息给当前跟踪无人机的跟踪性能进行补充,从而提高多目标跟踪算法的性能;
31.(2)极大提高了对多目标跟踪的准确率;
32.(3)提高了跟踪速率,能够更好的实现实时跟踪。
附图说明
33.图1示出根据本发明一种优选实施方式的无人机集群多视场条件下对多目标无人机跟踪方法流程示意图。
具体实施方式
34.下面通过附图和实施例对本发明进一步详细说明。通过这些说明,本发明的特点和优点将变得更为清楚明确。
35.在这里专用的词“示例性”意为“用作例子、实施例或说明性”。这里作为“示例性”所说明的任何实施例不必解释为优于或好于其它实施例。尽管在附图中示出了实施例的各种方面,但是除非特别指出,不必按比例绘制附图。
36.根据本发明提供的一种无人机集群多视场条件下对多目标无人机跟踪方法,包括以下步骤:
37.s1、对无人机群中的无人机进行编号,其中一个无人机为主机,其余无人机设置为从机;
38.s2、每个无人机对目标群进行视频拍摄,并对拍摄的视频片段进行目标检测;
39.s3、主机和从机分别对目标进行跟踪。
40.s2中,无人机采用目标检测器对拍摄的视频片段进行目标检测,获得多个跟踪片段的集合,其中每个跟踪片段包括目标的身份编号id,目标在图像坐标系下边界框位置参数,优选采用边界框左上角坐标x,y以及边界框的宽、高表示边界框位置w,h。
41.优选地,所述跟踪片段还包括目标的类别编号c,以区分不同种类的目标。
42.优选地,在本发明中,所述目标检测器为yolox检测器,yolox检测器是一种常用的视觉识别检测器,对其具体结构在本发明中不做赘述。
43.s3中,对目标的跟踪包括以下子步骤:
44.s301、主机、从机分别采用视觉特征进行目标的匹配;
45.s302、主机、从机分别将未匹配目标采用目标位置进行目标的匹配;
46.s303、将主机未匹配目标特征与从机未匹配的目标特征拼接,进行目标的匹配;
47.s304、将主机中仍未匹配的目标作为新的目标;
48.s305、根据主机匹配目标的编号,对从机匹配的目标进行身份编号修正;
49.s306、将从机未匹配目标特征与主机未匹配目标特征拼接,进行目标的匹配;
50.s307、将从机中仍未匹配的目标作为新的目标。
51.在本发明中,通过设置主从逻辑及目标身份关联方法,充分利用多架无人机获取的视觉信息,用其他无人机的视觉信息给当前跟踪无人机的跟踪性能进行补充,从而提高多目标跟踪算法的性能。
52.在s301之前,还具有s300、主机、从机对跟踪片段集合进行初始化,即将跟踪片段集合初始化为空集,将第一帧图片输入目标检测器获得的检测结果作为初始的跟踪片段集合,采用特征提取器提取初始跟踪片段集合的视觉特征状态。
53.进一步地,在主机中,将第1帧图片输入目标检测器得到将其中目标分配身份
编号,得到新的跟踪片段集合,即采用特征提取器提取跟踪片段集合中的目标视觉特征,其中第k帧的第i个完成匹配的检测目标特征记为并更新跟踪片段视觉特征状态:
54.在从机中,将第1帧图片输入目标检测器得到获取当前时刻主机的跟踪片段集合t1及当前其时刻所有完成匹配的检测目标特征拼接形成特征矩阵采用特征提取器提取的视觉特征并形成特征矩阵采用l2范数计算特征矩阵与特征矩阵中各个向量间的欧式距离,形成代价矩阵m
21
,设置阈值m
21
,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,为检测结果分配身份编号id,将成功匹配的检测结果加入从机的跟踪片段集合t2中,对于未匹配的检测结果,分配新的身份编号id,加入从机的跟踪片段集合t2中,更新从机视觉状态特征
55.在s301中,主机采用视觉特征进行目标的匹配的过程为:
56.获取目标检测器输出的不同帧图像的检测结果采用特征提取器提取该帧检测结果中不同目标的视觉特征将该帧中所有视觉特征拼接,形成该帧的视觉特征矩阵采用特征提取器提取该帧前一帧的所有跟踪片段视觉特征状态并拼接为前一帧跟踪特征矩阵将视觉特征矩阵与前一帧跟踪特征矩阵进行匹配,将成功匹配的结果加入到跟踪片段集合t1中;
57.所述匹配是指,采用l2范数计算视觉特征矩阵与前一帧跟踪特征矩阵中各个向量间的欧式距离,形成代价矩阵m1,设置阈值m1,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,为检测结果分配身份编号id,将成功匹配的检测结果加入跟踪片段集合t1中。
58.在s301中,从机采用视觉特征进行目标的匹配的过程与主机相同。
59.在s302中,主机采用目标位置进行目标的匹配的过程为:
60.采用卡尔曼滤波法预测当前未匹配的跟踪片段集合t
1-remain
中目标在当前帧的对应边界框位置参数即预测边界框,结合当前帧未匹配检测结果的目标边界框位置参数为即检测边界框,计算检测边界框与预测边界框的交并比,形成代价矩阵m2,设置阈值m2,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,为检测结果分配身份编号id,将成功匹配的检测结果加入跟踪片段集合t1中。
61.在s302中,从机采用目标位置进行目标的匹配的过程与主机相同。
62.s303中,将主机中未匹配的检测特征拼接形成检测特征矩阵获取一个或多个从机的跟踪片段集合t2,去除从机的跟踪片段集合t2中已经在s301、s302步骤中完成匹配的相同的id,得到t
2-remain
,获取从机前一帧的对应跟踪片段视觉特征状态并拼接为跟踪特征矩阵采用l2范数计算t
2-remain
和跟踪特征矩阵中各个向量间的欧式距离,形成代价矩阵m3,设置阈值m3,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,为检测结果分配身份编号id,将成功匹配的检测结果加入主机的跟
踪片段集合t1中。
63.在s304中,将主机中仍未匹配的目标作为新的目标,为其分配新的身份编号id,将其加入t1中,并更新t1中当前帧的所有跟踪片段视觉特征状态
64.在s305中,采用特征提取器提取从机中的视觉特征并拼接形成特征矩阵获取当前时刻主机的跟踪片段集合t1及当前时刻所有完成匹配的检测目标特征并拼接形成特征矩阵采用l2范数计算与中各个向量间的欧式距离,形成代价矩阵m
24
,设置阈值m
24
,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,如果t2中匹配的目标id与t1中不同,则赋予t2中匹配目标t1中对应目标的id,即以主机匹配的目标的编号作为从机匹配目标的编号,未成功匹配的目标则保留其原有id。
65.在s306中,将从机未匹配的检测特征拼接形成检测特征矩阵获取主机的跟踪片段集合t1,去除t1中在s301、s302步骤中已完成匹配的相同的id,得到t
1-remain
;获取主机中前一帧的对应跟踪片段视觉特征状态并拼接为跟踪特征矩阵采用l2范数计算t
1-remain
和跟踪特征矩阵中各个向量间的欧式距离,形成代价矩阵m
25
,设置阈值m
25
,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,为检测结果分配身份编号id,将成功匹配的检测结果加入t2中。
66.在s307中,将从机中仍未成功匹配的检测结果为其分配新的身份编号id,将其加入t2中,并更新t2中当前帧的所有跟踪片段视觉特征状态
67.在s3中,所述特征提取器为resnet50,resnet50为常用的一种特征提取器,在本发明中对其结构不做赘述。
68.实施例
69.实施例1
70.进行实验,实验中设置目标集群无人机数目为5到10架,我方为两架无人机,获取目标集群无人机实时视频图像(约5000张)。
71.我方两架无人机采用以下方式进行多目标跟踪:
72.s1、对无人机群中的无人机进行编号,其中一个无人机为主机,其余无人机设置为从机;
73.s2、每个无人机对目标群进行视频拍摄,并对拍摄的视频片段进行目标检测;
74.s3、主机和从机分别对目标进行跟踪。
75.s2中,无人机采用目标检测器对拍摄的视频片段进行目标检测,获得多个跟踪片段的集合,其中每个跟踪片段包括目标的身份编号id,目标在图像坐标系下边界框位置参数,优选采用边界框左上角坐标x,y以及边界框的宽、高表示边界框位置w,h。
76.所述目标检测器为yolox检测器。
77.s3中,对目标的跟踪包括以下子步骤:
78.s301、主机、从机分别采用视觉特征进行目标的匹配;
79.s302、主机、从机分别将未匹配目标采用目标位置进行目标的匹配;
80.s303、将主机未匹配目标特征与从机未匹配的目标特征拼接,进行目标的匹配;
81.s304、将主机中仍未匹配的目标作为新的目标;
82.s305、根据主机匹配目标的编号,对从机匹配的目标进行身份编号修正;
83.s306、将从机未匹配目标特征与主机未匹配目标特征拼接,进行目标的匹配;
84.s307、将从机中仍未匹配的目标作为新的目标。
85.在s301之前,还具有s300、主机、从机对跟踪片段集合进行初始化,即将跟踪片段集合初始化为空集,将第一帧图片输入目标检测器获得的检测结果作为初始的跟踪片段集合,采用特征提取器提取初始跟踪片段集合的视觉特征状态。
86.进一步地,在主机中,将第1帧图片输入目标检测器得到将其中目标分配身份编号,得到新的跟踪片段集合,即采用特征提取器提取跟踪片段集合中的目标视觉特征,其中第k帧的第i个完成匹配的检测目标特征记为并更新跟踪片段视觉特征状态:
87.在从机中,将第1帧图片输入目标检测器得到获取当前时刻主机的跟踪片段集合t1及当前其时刻所有完成匹配的检测目标特征拼接形成特征矩阵采用特征提取器提取的视觉特征并形成特征矩阵采用l2范数计算特征矩阵与特征矩阵中各个向量间的欧式距离,形成代价矩阵m
21
,设置阈值m
21
,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,为检测结果分配身份编号id,将成功匹配的检测结果加入从机的跟踪片段集合t2中,对于未匹配的检测结果,分配新的身份编号id,加入从机的跟踪片段集合t2中,更新从机视觉状态特征
88.在s301中,主机采用视觉特征进行目标的匹配的过程为:
89.获取目标检测器输出的不同帧图像的检测结果采用特征提取器提取该帧检测结果中不同目标的视觉特征将该帧中所有视觉特征拼接,形成该帧的视觉特征矩阵采用特征提取器提取该帧前一帧的所有跟踪片段视觉特征状态并拼接为前一帧跟踪特征矩阵将视觉特征矩阵与前一帧跟踪特征矩阵进行匹配,将成功匹配的结果加入到跟踪片段集合t1中;
90.所述匹配是指,采用l2范数计算视觉特征矩阵与前一帧跟踪特征矩阵中各个向量间的欧式距离,形成代价矩阵m1,设置阈值m1,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,为检测结果分配身份编号id,将成功匹配的检测结果加入跟踪片段集合t1中。
91.在s301中,从机采用视觉特征进行目标的匹配的过程与主机相同。
92.在s302中,主机采用目标位置进行目标的匹配的过程为:
93.采用卡尔曼滤波法预测当前未匹配的跟踪片段集合t
1-remain
中目标在当前帧的对应边界框位置参数即预测边界框,结合当前帧未匹配检测结果的目标边界框位置参数为即检测边界框,计算检测边界框与预测边界框的交并比,形成代价矩阵m2,设置阈值m2,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,为检测结果分配身份编号id,将成功匹配的检测结果加入跟踪片段集合t1中。
94.在s302中,从机采用目标位置进行目标的匹配的过程与主机相同。
95.s303中,将主机中未匹配的检测特征拼接形成检测特征矩阵获取一个或多个从机的跟踪片段集合t2,去除从机的跟踪片段集合t2中已经在s301、s302步骤中完成匹配的相同的id,得到t
2-remain
,获取从机前一帧的对应跟踪片段视觉特征状态并拼接为跟踪特征矩阵采用l2范数计算t
2-remain
和跟踪特征矩阵中各个向量间的欧式距离,形成代价矩阵m3,设置阈值m3,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,为检测结果分配身份编号id,将成功匹配的检测结果加入主机的跟踪片段集合t1中。
96.在s304中,将主机中仍未匹配的目标作为新的目标,为其分配新的身份编号id,将其加入t1中,并更新t1中当前帧的所有跟踪片段视觉特征状态
97.在s305中,采用特征提取器提取从机中的视觉特征并拼接形成特征矩阵获取当前时刻主机的跟踪片段集合t1及当前时刻所有完成匹配的检测目标特征并拼接形成特征矩阵采用l2范数计算与中各个向量间的欧式距离,形成代价矩阵m
24
,设置阈值m
24
,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,如果t2中匹配的目标id与t1中不同,则赋予t2中匹配目标t1中对应目标的id,即以主机匹配的目标的编号作为从机匹配目标的编号,未成功匹配的目标则保留其原有id。
98.在s306中,将从机未匹配的检测特征拼接形成检测特征矩阵获取主机的跟踪片段集合t1,去除t1中在s301、s302步骤中已完成匹配的相同的id,得到t
1-remain
;获取主机中前一帧的对应跟踪片段视觉特征状态并拼接为跟踪特征矩阵采用l2范数计算t
1-remain
和跟踪特征矩阵中各个向量间的欧式距离,形成代价矩阵m
25
,设置阈值m
25
,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,为检测结果分配身份编号id,将成功匹配的检测结果加入t2中。
99.在s307中,将从机中仍未成功匹配的检测结果为其分配新的身份编号id,将其加入t2中,并更新t2中当前帧的所有跟踪片段视觉特征状态
100.在s3中,所述特征提取器为resnet50
101.对比例1
102.进行与实施例1相同的实验,采用与实施例1中相同的视频图像进行,区别在于,我方无人机分别采用经典基于深度学习的多目标跟踪算法deepsort,tracktor,fairmot,centertrack进行。
103.比对实施例1与对比例1中的跟踪效果,其中,采用多目标跟踪准确度(multiple object tracking accuarcy,mota)及算法每秒推断帧频(frames pre second,fps)比较实施例1与对比例1中的跟踪效果及跟踪性能,结果如表一、表二所示。
104.表一 多目标跟踪准确度
[0105][0106][0107]
表二多目标跟踪速率(fps)
[0108][0109]
从表一和表二可以看出,实施例1中的跟踪方法,相比于传统的方法中最高准确度的方法仍然具有超过5.8%的精准率提升,且实施例1中跟踪速率也是最高的,能够实现更为快速、实时的跟踪。
[0110]
在本发明的描述中,需要说明的是,术语“上”、“下”、“内”、“外”、“前”、“后”等指示的方位或位置关系为基于本发明工作状态下的方位或位置关系,仅是为了便于描述本发明和简化描述,而不是指示或暗示所指的装置或元件必须具有特定的方位、以特定的方位构造和操作,因此不能理解为对本发明的限制。此外,术语“第一”、“第二”、“第三”、“第四”仅用于描述目的,而不能理解为指示或暗示相对重要性。
[0111]
以上结合了优选的实施方式对本发明进行了说明,不过这些实施方式仅是范例性的,仅起到说明性的作用。在此基础上,可以对本发明进行多种替换和改进,这些均落入本发明的保护范围内。

技术特征:
1.一种无人机集群多视场条件下对多目标无人机跟踪方法,其特征在于,包括以下步骤:s1、对无人机群中的无人机进行编号,其中一个无人机为主机,其余无人机设置为从机;s2、每个无人机对目标群进行视频拍摄,并对拍摄的视频片段进行目标检测;s3、主机和从机分别对目标进行跟踪。2.根据权利要求1所述的无人机集群多视场条件下对多目标无人机跟踪方法,其特征在于,s2中,无人机采用目标检测器对拍摄的视频片段进行目标检测,获得多个跟踪片段的集合,其中每个跟踪片段包括目标的身份编号,目标在图像坐标系下边界框位置参数。3.根据权利要求1所述的无人机集群多视场条件下对多目标无人机跟踪方法,其特征在于,s3中,对目标的跟踪包括以下子步骤:s301、主机、从机分别采用视觉特征进行目标的匹配;s302、主机、从机分别将未匹配目标采用目标位置进行目标的匹配;s303、将主机未匹配目标特征与从机未匹配的目标特征拼接,进行目标的匹配;s304、将从机未匹配目标特征与主机未匹配目标特征拼接,进行目标的匹配;s305、将主机中仍未匹配的目标作为新的目标;s306、根据主机匹配目标的编号,对从机匹配的目标进行身份编号修正;s307、将从机中仍未匹配的目标作为新的目标。4.根据权利要求3所述的无人机集群多视场条件下对多目标无人机跟踪方法,其特征在于,在s301之前,还具有s300、主机、从机对跟踪片段集合进行初始化,即将跟踪片段集合初始化为空集,将第一帧图片输入目标检测器获得的检测结果作为初始的跟踪片段集合,采用特征提取器提取初始跟踪片段集合的视觉特征状态。5.根据权利要求3所述的无人机集群多视场条件下对多目标无人机跟踪方法,其特征在于,在s301中,主机或从机目标匹配过程为:获取目标检测器输出的不同帧图像的检测结果,采用特征提取器提取该帧检测结果中不同目标的视觉特征,将该帧中所有视觉特征拼接,形成该帧的视觉特征矩阵;采用特征提取器提取该帧前一帧的所有跟踪片段视觉特征状态,并拼接为前一帧跟踪特征矩阵,将视觉特征矩阵与前一帧跟踪特征矩阵进行匹配,将成功匹配的结果加入到跟踪片段集合中。6.根据权利要求5所述的无人机集群多视场条件下对多目标无人机跟踪方法,其特征在于,所述匹配是指,采用l2范数计算视觉特征矩阵与前一帧跟踪特征矩阵中各个向量间的欧式距离,形成代价矩阵,设置阈值,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,为检测结果分配身份编号,将成功匹配的检测结果加入跟踪片段集合中。7.根据权利要求3所述的无人机集群多视场条件下对多目标无人机跟踪方法,其特征
在于,在s302中,采用卡尔曼滤波法预测当前未匹配的跟踪片段集合中目标在当前帧的对应边界框位置参数,即预测边界框,结合当前帧未匹配检测结果的目标边界框位置参数,即检测边界框,计算检测边界框与预测边界框的交并比,形成代价矩阵,设置阈值,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,为检测结果分配身份编号,将成功匹配的检测结果加入跟踪片段集合中。8.根据权利要求3所述的无人机集群多视场条件下对多目标无人机跟踪方法,其特征在于,s303中,将主机中未匹配的检测特征拼接形成检测特征矩阵,获取一个或多个从机的跟踪片段集合,去除跟踪片段集合中已经在s301、s302步骤中完成匹配的相同编号的目标,得到矩阵,获取从机前一帧的对应跟踪片段视觉特征状态,并拼接为跟踪特征矩阵,采用l2范数计算和跟踪特征矩阵中各个向量间的欧式距离,形成代价矩阵,设置阈值,矩阵中值超过阈值的均设为无穷大,采用匈牙利算法对代价矩阵进行一次匹配,为检测结果分配身份编号,将成功匹配的检测结果加入主机的跟踪片段集合中。9.根据权利要求2所述的无人机集群多视场条件下对多目标无人机跟踪方法,其特征在于,所述目标检测器为yolox检测器。10.根据权利要求3所述的无人机集群多视场条件下对多目标无人机跟踪方法,其特征在于,在s3中,所述特征提取器为resnet50。

技术总结
本发明公开了一种无人机集群多视场条件下对多目标无人机跟踪方法,包括以下步骤:对无人机群中的无人机进行编号,其中一个无人机为主机,其余无人机设置为从机;每个无人机对目标群进行视频拍摄,并对拍摄的视频片段进行目标检测;主机和从机分别对目标进行跟踪。本发明公开的无人机集群多视场条件下对多目标无人机跟踪方法,充分利用多架无人机获取的视觉信息,用其他无人机的视觉信息给当前跟踪无人机的跟踪性能进行补充,从而提高多目标跟踪的精准度以及跟踪速率性能。的精准度以及跟踪速率性能。的精准度以及跟踪速率性能。


技术研发人员:褚昭晨 贺红卫 宋韬 金忍 郑章雄
受保护的技术使用者:北京理工大学
技术研发日:2023.04.12
技术公布日:2023/8/1
版权声明

本文仅代表作者观点,不代表航家之家立场。
本文系作者授权航家号发表,未经原创作者书面授权,任何单位或个人不得引用、复制、转载、摘编、链接或以其他任何方式复制发表。任何单位或个人在获得书面授权使用航空之家内容时,须注明作者及来源 “航空之家”。如非法使用航空之家的部分或全部内容的,航空之家将依法追究其法律责任。(航空之家官方QQ:2926969996)

航空之家 https://www.aerohome.com.cn/

飞机超市 https://mall.aerohome.com.cn/

航空资讯 https://news.aerohome.com.cn/

分享:

扫一扫在手机阅读、分享本文

相关推荐