| |||||||
ShanghaiTech University Knowledge Management System
线性分解注意力的边缘端高效Transformer跟踪 | |
2025-02-16 | |
发表期刊 | 中国图象图形学报 |
ISSN | 1006-8961 |
卷号 | 30期号:02页码:485-502 |
发表状态 | 已发表 |
摘要 | 目的 将面向服务器端设计的跟踪算法迁移部署到边缘端能显著降低功耗,具有较高的实用价值。当前基于Transformer的跟踪算法具有明显的性能优势,然而部署在边缘端时,却可能产生较高的延迟。为了解决这个问题,提出了一种面向边缘端的线性分解注意力(linearly decomposed attention,LinDA)结构,可有效降低Transformer的计算量和推理延迟。方法 LinDA将多头注意力近似表示成数据依赖部分和数据无关部分的和:对于数据依赖部分,用简单的向量元素间相乘及求和表示,避免了复杂的转置和矩阵乘法;对于数据无关部分,直接利用统计得到的注意力矩阵,然后加上一个可学习偏置向量。这种分解既具有全局注意力,又保持了数据依赖的优点。为了弥补线性分解带来的精度损失,还设计了一种知识蒸馏方案,它在原始的损失函数上增加了两部分蒸馏损失:1)将真实包围框替换成教师模型预测的包围框作为监督目标,称为硬标签知识蒸馏;2)将教师模型预测得分的相对大小作为监督目标,称为关系匹配知识蒸馏。基于LinDA结构进一步实现了一种面向边缘端的目标跟踪算法LinDATrack,并将其部署在国产边缘计算主机HS240上。结果 在多个公开数据集上进行了评测。实验结果表明,该算法在该计算主机上可达到61.6帧/s的跟踪速度,功耗约79.5 W,功耗仅占服务器端的6.2%,同时其在LaSOT和LaSOT_ext上的成功率(success rate, SUC)相对于服务器端基线算法SwinTrack-T最多仅下降约1.8%。结论 LinDATrack具有良好的速度和精度平衡,在边缘端具有较大的优势。 |
关键词 | 目标跟踪 边缘端 Transformer 多头注意力(MHA) 知识蒸馏 |
URL | 查看原文 |
收录类别 | CSCD ; 北大核心 |
语种 | 中文 |
原始文献类型 | 学术期刊 |
来源库 | CNKI |
中图分类号 | TP391.41 |
文献类型 | 期刊论文 |
条目标识符 | https://kms.shanghaitech.edu.cn/handle/2MSLDSTB/490332 |
专题 | 信息科学与技术学院 |
通讯作者 | 高晋 |
作者单位 | 1.中国科学院自动化研究所; 2.中国科学院大学人工智能学院; 3.军事医学研究院军事认知与脑科学研究所; 4.上海科技大学信息科学与技术学院 |
推荐引用方式 GB/T 7714 | 邱淼波,高晋,林述波,等. 线性分解注意力的边缘端高效Transformer跟踪[J]. 中国图象图形学报,2025,30(02):485-502. |
APA | 邱淼波.,高晋.,林述波.,李椋.,王刚.,...&王以政.(2025).线性分解注意力的边缘端高效Transformer跟踪.中国图象图形学报,30(02),485-502. |
MLA | 邱淼波,et al."线性分解注意力的边缘端高效Transformer跟踪".中国图象图形学报 30.02(2025):485-502. |
条目包含的文件 | ||||||
文件名称/大小 | 文献类型 | 版本类型 | 开放类型 | 使用许可 |
个性服务 |
查看访问统计 |
谷歌学术 |
谷歌学术中相似的文章 |
[邱淼波]的文章 |
[高晋]的文章 |
[林述波]的文章 |
百度学术 |
百度学术中相似的文章 |
[邱淼波]的文章 |
[高晋]的文章 |
[林述波]的文章 |
必应学术 |
必应学术中相似的文章 |
[邱淼波]的文章 |
[高晋]的文章 |
[林述波]的文章 |
相关权益政策 |
暂无数据 |
收藏/分享 |
修改评论
除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。