消息
×
loading..
线性分解注意力的边缘端高效Transformer跟踪
2025-02-16
发表期刊中国图象图形学报
ISSN1006-8961
卷号30期号:02页码:485-502
发表状态已发表
摘要

目的 将面向服务器端设计的跟踪算法迁移部署到边缘端能显著降低功耗,具有较高的实用价值。当前基于Transformer的跟踪算法具有明显的性能优势,然而部署在边缘端时,却可能产生较高的延迟。为了解决这个问题,提出了一种面向边缘端的线性分解注意力(linearly decomposed attention,LinDA)结构,可有效降低Transformer的计算量和推理延迟。方法 LinDA将多头注意力近似表示成数据依赖部分和数据无关部分的和:对于数据依赖部分,用简单的向量元素间相乘及求和表示,避免了复杂的转置和矩阵乘法;对于数据无关部分,直接利用统计得到的注意力矩阵,然后加上一个可学习偏置向量。这种分解既具有全局注意力,又保持了数据依赖的优点。为了弥补线性分解带来的精度损失,还设计了一种知识蒸馏方案,它在原始的损失函数上增加了两部分蒸馏损失:1)将真实包围框替换成教师模型预测的包围框作为监督目标,称为硬标签知识蒸馏;2)将教师模型预测得分的相对大小作为监督目标,称为关系匹配知识蒸馏。基于LinDA结构进一步实现了一种面向边缘端的目标跟踪算法LinDATrack,并将其部署在国产边缘计算主机HS240上。结果 在多个公开数据集上进行了评测。实验结果表明,该算法在该计算主机上可达到61.6帧/s的跟踪速度,功耗约79.5 W,功耗仅占服务器端的6.2%,同时其在LaSOT和LaSOT_ext上的成功率(success rate, SUC)相对于服务器端基线算法SwinTrack-T最多仅下降约1.8%。结论 LinDATrack具有良好的速度和精度平衡,在边缘端具有较大的优势。

关键词目标跟踪 边缘端 Transformer 多头注意力(MHA) 知识蒸馏
URL查看原文
收录类别CSCD ; 北大核心
语种中文
原始文献类型学术期刊
来源库CNKI
中图分类号TP391.41
文献类型期刊论文
条目标识符https://kms.shanghaitech.edu.cn/handle/2MSLDSTB/490332
专题信息科学与技术学院
通讯作者高晋
作者单位
1.中国科学院自动化研究所;
2.中国科学院大学人工智能学院;
3.军事医学研究院军事认知与脑科学研究所;
4.上海科技大学信息科学与技术学院
推荐引用方式
GB/T 7714
邱淼波,高晋,林述波,等. 线性分解注意力的边缘端高效Transformer跟踪[J]. 中国图象图形学报,2025,30(02):485-502.
APA 邱淼波.,高晋.,林述波.,李椋.,王刚.,...&王以政.(2025).线性分解注意力的边缘端高效Transformer跟踪.中国图象图形学报,30(02),485-502.
MLA 邱淼波,et al."线性分解注意力的边缘端高效Transformer跟踪".中国图象图形学报 30.02(2025):485-502.
条目包含的文件
文件名称/大小 文献类型 版本类型 开放类型 使用许可
个性服务
查看访问统计
谷歌学术
谷歌学术中相似的文章
[邱淼波]的文章
[高晋]的文章
[林述波]的文章
百度学术
百度学术中相似的文章
[邱淼波]的文章
[高晋]的文章
[林述波]的文章
必应学术
必应学术中相似的文章
[邱淼波]的文章
[高晋]的文章
[林述波]的文章
相关权益政策
暂无数据
收藏/分享
所有评论 (0)
暂无评论
 

除非特别说明,本系统中所有内容都受版权保护,并保留所有权利。