Mamba在点云分析中是否有潜力替代Transformer?PointMamba迎来更新!

AI最新资讯3个月前发布 tree
28 0 0

今日应用


今日话题


Mamba在点云分析中是否有潜力替代Transformer?PointMamba迎来更新!
Mamba在点云分析中是否有潜力替代Transformer?PointMamba迎来更新!
 

重点标签 点云分析状态空间模型全局建模计算开销自监督学习

文章摘要


PointMamba 是首个基于状态空间模型点云分析方法,它在保持线性复杂度和全局信息建模的同时,避免了复杂的结构设计。这一方法在点云分析数据集上展示了优越的性能,尤其在长序列输入下,与Transformer方法相比,在计算开销上有显著提升,为后续研究提供了一个简单且高效的新基线。

PointMamba的设计和实现

PointMamba的设计遵循奥卡姆剃刀原则,确保了结构的简洁性。输入点云首先通过FPS(Fast Point Sampling)选取关键点,然后使用三维希尔伯特曲线(Hilbert)及其转置变体(Trans-Hilbert)按顺序遍历关键点,得到序列化的点云。接着,使用通用的Point tokenizer将关键点转换为Point tokens。此外,引入了一个简单的顺序指示器以区分不同扫描策略的token特征。

Mamba encoder由N个Vanilla Mamba block组成,通过一个直观的示意图展示了PointMamba的全局建模能力。在对第一组token建模后,积累的全局信息可以改进下一组标记的序列化过程,确保每个序列化点都能从之前处理过的序列的整个历史中获得信息。

PointMamba的自监督预训练

PointMamba提出了一种序列化的掩码建模预训练方式。通过随机选取一种空间填充曲线序列化点云,并使用对应的order indicator得到encoder输入。经过Vanilla Mamba encoder的特征编码,在被mask掉token的地方插入mask token,经过Vanilla Mamba decoder和投影层将mask token恢复为原始点云。

PointMamba的性能表现

在真实世界点云分类数据集ScanObjectNN、模拟数据集ModelNet40、Fewshot learning、部件分割中,PointMamba取得了优异的性能。在效率方面,得益于Mamba的架构优势,当token序列增长到较长序列时,相较Point-MAE(Vanilla Transformer)在推理速度、推理显存占用、FLOPs上有显著提升。

总结

PointMamba作为首个状态空间的点云分析模型,通过设计输入序列化为单向建模的Mamba,具备高效的全局建模能力。使用最简洁的Vanilla架构,验证了新架构相比Transformer的优势,在点云分析任务中取得了优越的性能并展现了巨大的潜力。

文章来源


原文地址: 点我阅读全文
原文作者: 极市平台

© 版权声明

相关文章

暂无评论

暂无评论...