科普
KEPU
无人机 看不清、看不准、看不全?
发布时间:2025-03-26
打印
{{ isAudioPlay ? '暂停播放' : '播放声音' }}
放大 缩小

近年来,无人机在重大突发事件中展现出不可替代的价值。然而,无人机应用的核心技术——低空智能感知,却面临诸多挑战。
  “低空智能感知技术的突破,对于我国低空经济发展至关重要。天津大学教授胡清华说目前低空智能感知技术存在三大技术瓶颈:看不清、看不准、看不全。
  雨雪雾霾等天气显著降低环境能见度,导致无人机图像识别精度急剧下降,“看不清”目标。现有方法难以对复杂介质的噪声特性进行精确建模,也缺乏跨模态动态学习机制,无法有效恢复退化图像中的关键特征信息。
此外,无人机高速飞行叠加地面动态目标运动会导致成像模糊。现有方法受限于刚体运动假设,难以准确消除高速成像与运动伪影产生的模糊和错位,这就导致无人机“看不准”。
  无人机还存在“看不全”的问题。单机视角受限使得全局空间信息缺失,现有方法依赖投影几何约束方法,导致三维空间信息不完整,在遮挡边界处难以准确判定拓扑关系,无法有效处理复杂的遮挡场景。
  这些难题严重制约了无人机在巡检安防、水情监测、应急搜救等国家重点领域的应用。突破这些挑战可显著促进我国低空感知技术进步,支撑低空经济产业发展迈向新台阶。解决低空智能感知难题迫在眉睫。
 
  针对低空智能感知的三大难题,天津大学团队提出了三项核心技术创新:低空复杂环境全天候感知技术、低空感知基础模型自主进化技术和多机跨视角协同感知技术。
  在全天候感知技术方面,随着低空经济的发展,无人机在恶劣天气和复杂光照条件下的感知短板越来越明显。传统感知模型通过静态参数处理多模态信息,难以应对大雾、沙尘和低光照等复杂场景。科学家们首创了‘退化—复原双向耦合’理论框架,解决了多因素交织影响的理论难题;构建了‘感知—解算—决策’动态闭环系统,让感知系统能自适应环境变化;研发了场景驱动的多源传感动态融合引擎,突破传统权重分配的局限。
  这些创新让无人机在恶劣天气下的目标追踪精度提升了6.3个百分点,低光照场景的目标检测性能提升了13.2%。
  在低空感知基础模型自主进化技术上,数据是人工智能学习的基础,但低空感知领域的原始数据标注精度低、清洗成本高,且无人机高速飞行叠加地面动态目标运动带来的成像模糊问题,进一步加剧了数据的标注与清洗难度,导致传统模型难以学习到有效信息。
  为此,科研团队构建了全球最大的低空视觉感知开放数据平台——VisDrone,并以此为数据基础,依托天津市人工智能计算中心强大的昇腾算力底座打造了低空感知基础模型。通过引入不确定性感知建模,系统能自主评估数据质量,并不断优化模型的感知能力。团队还建立了“人在回路”的反馈机制,推动数据标注和模型进化的闭环联动,极大提升了系统的适应性和精准度。
  谈到多机跨视角协同感知技术,这项技术的难点在于无人机集群在复杂三维空间作业时,单机视角有限,容易产生视野盲区,多源数据在跨视角匹配时也容易出现错位和偏差。科研团队通过创新研发了基于跨视角信息自适应交互匹配的协同感知框架,通过动态交互匹配模板和智能搜索区域生成机制,实现了多机单目标的协同跟踪。同时,采用局部—全局的多粒度匹配策略,提升了多机多目标的感知能力。在单目标跟踪中,多机协同将成功率提升了15.6%。在多目标场景下,30架无人机成功对3台高速机动车辆实现精准捕捉。