查询到最新的1条

Deformable DETR模型学习记录

引言 Deformable-DETR的主要贡献: 1,结合可变形卷积的稀疏空间采用和Transformer的全局关系建模能力,提出可变形注意力机制模型,使其计算量降低,收敛加快。 2,使用多层级特征,但不使用FPN,对小目标有较好效果。 改进与创新 可变形注意力 可变形注意力提出的初衷是为了解决Transformer的Q,K的运算数据量巨大问题。作者认为Q没必要与 继续阅读