Command Palette

Search for a command to run...

4 个月前

ActionFormer:基于Transformer定位动作时刻

Chenlin Zhang Jianxin Wu Yin Li

ActionFormer:基于Transformer定位动作时刻

摘要

基于自注意力机制的Transformer模型在图像分类、目标检测以及近期的视频理解任务中均取得了令人瞩目的成果。受此启发,本文研究了将Transformer网络应用于视频中的时序动作定位任务。为此,我们提出了ActionFormer——一种简洁而强大的单阶段模型,能够在无需生成动作候选区域(action proposals)或依赖预定义锚框(anchor windows)的情况下,一次性识别视频中动作发生的时间位置并分类其类别。ActionFormer结合了多尺度特征表示与局部自注意力机制,并采用轻量级解码器对时间轴上的每个时刻进行分类,同时预测对应动作的边界。实验表明,这种精心设计的架构显著优于以往方法。在不使用任何额外技巧(bells and whistles)的情况下,ActionFormer在THUMOS14数据集上以tIoU=0.5的标准达到了71.0%的mAP,相比最佳先前模型提升了14.1个百分点。此外,该模型在ActivityNet 1.3数据集上取得了36.6%的平均mAP,在EPIC-Kitchens 100数据集上更是相比先前方法提升了13.5%的平均mAP。相关代码已开源,地址为:http://github.com/happyharrycn/actionformer_release

代码仓库

happyharrycn/actionformer_release
官方
pytorch
GitHub 中提及

基准测试

基准方法指标
temporal-action-localization-on-activitynetActionFormer (TSP feautures)
mAP: 36.6
temporal-action-localization-on-epic-kitchensActionFormer (verb)
Avg mAP (0.1-0.5): 23.5
temporal-action-localization-on-thumos14ActionFormer (I3D features)
Avg mAP (0.3:0.7): 66.8

用 AI 构建 AI

从想法到上线——通过免费 AI 协同编程、开箱即用的环境和市场最优价格的 GPU 加速您的 AI 开发

AI 协同编程
即用型 GPU
最优价格
立即开始

Hyper Newsletters

订阅我们的最新资讯
我们会在北京时间 每周一的上午九点 向您的邮箱投递本周内的最新更新
邮件发送服务由 MailChimp 提供
ActionFormer:基于Transformer定位动作时刻 | 论文 | HyperAI超神经