2024 Mamba YOLO

#机器学习 #CV

文章信息

论文思想

Transformer 结构引入模型中,并使用SSM缓解了二次自注意力机制的复杂性,并设计了LSBlock和RGBlock从而解决SSM在序列中存在的接收场不足、图像局部性差的问题。

文章重要内容