更小更快更精准的对象检测模型——SuperYOLO发布

标签:YOLO,对象检测 时间:2022-10-02 12:13:45.470 发布者:小木

论文名:SuperYOLO: Super Resolution Assisted Object Detection in Multimodal Remote Sensing Imagery
发布时间:2022年9月
论文地址:https://arxiv.org/abs/2209.13351
代码地址:https://github.com/icey-zhang/SuperYOLO

原文摘要:准确检测多尺度小目标并使用遥感图像(RSI)实现实时检测仍然具有挑战性,特别是对于军事侦察和紧急救援等时间敏感任务。为了获得这些小目标的精确位置和分类,最适用的解决方案之一是融合多模态图像中的互补信息,以提高检测能力。现有的大多数解决方案主要设计一个复杂的深度神经网络来学习与背景分离的对象的强大特征表示,这通常会导致沉重的计算负担。 在本文中,我们提出了一种精确而快速的RSI小目标检测方法SuperYOLO,该方法融合多模式数据,通过利用辅助超分辨率(SR)学习并考虑检测精度和计算成本,对多尺度对象执行高分辨率(HR)目标检测。首先,我们通过删除Focus模块来构建一个紧凑的基线,以保留HR特征并显著克服小对象的丢失错误。其次,我们利用像素级多模式融合(MF)从各种数据中提取信息,以便为RSI中的小对象提供更合适和有效的特征。此外,我们设计了一个简单而灵活的SR分支来学习HR特征表示,该特征表示可以用低分辨率(LR)输入区分广阔背景中的小目标,从而进一步提高检测精度。此外,为了避免引入额外的计算,在推理阶段丢弃了SR分支,并且由于LR输入减少了网络模型的计算。实验结果表明,在广泛使用的VEDAI RS数据集上,SuperYOLO的准确率为73.61%(以mAP50计),比SOTA大型模型(如YOLOv5l、YOLOv 5x和RS设计的YOLOR)高出10%以上。同时,SuperYOLO的GFOLP和参数大小约为YOLOv5x的18.1倍和4.2倍。与最先进的模型相比,我们提出的模型显示出良好的精度-速度权衡。