AAAI 2024|DSCL:已开源,北京大学提出解耦对比损失

AI最新资讯1个月前发布 tree
13 0 0

今日应用


今日话题


AAAI 2024|DSCL:已开源,北京大学提出解耦对比损失
AAAI 2024|DSCL:已开源,北京大学提出解耦对比损失
 

重点标签 监督对比损失SCL长尾识别类内距离类间距离

文章摘要


摘要:
在视觉识别任务中,训练样本往往呈现长尾分布,这给识别带来了挑战。监督对比损失SCL)在平衡数据集上表现良好,但在长尾识别中存在问题。本文提出了解耦监督对比损失(DSCL)基于图像块的自蒸馏(PBSD)两种方法来解决这些问题。DSCL通过解耦两种正样本并重新制定类内距离的优化策略来减轻数据集不平衡的影响。PBSD则利用头类的知识来促进尾类中的表征学习,通过挖掘不同类之间的共享视觉模式来优化类间距离。实验结果表明,所提出的方法能够有效提高尾部类别的检索性能。

分析:
论文分析了SCL在长尾识别中的三个问题:对头类训练的过度关注、原样本和增强样本之间梯度的差异,以及对负样本处理的不足。针对这些问题,DSCL解耦了两种正样本,并添加了不同的权重,以实现更平衡的类内距离优化。PBSD则通过自蒸馏策略,利用头类和尾类之间的共享视觉模式来帮助尾类的学习。

方法:
DSCL的公式如下:
\[ \mathcal{L}_{DSCL} = -\sum_{i=1}^{2}\frac{1}{N_i}\sum_{j=1}^{N_i}\log\frac{e^{s_{ij}}/{\tau}}{1+e^{s_{ij}}/{\tau}} \]
其中,\( s_{ij} \) 表示正样本对的相似度,\( N_i \) 是正样本的数量,\( \tau \) 是温度参数。

PBSD的损失函数如下:
\[ \mathcal{L}_{PBSD} = -\sum_{k=1}^{K}\log\frac{e^{d_k}}{\sum_{l=1}^{L}e^{d_l}} \]
其中,\( d_k \) 表示基于块的特征和实例级特征之间的相似度。

实验:
实验结果表明,DSCL和PBSD的结合能够有效提高长尾识别的性能。在ImageNet-LT数据集上,使用DSCL和PBSD的方法将性能从57.7%提高到56.1%。此外,通过对比实验,证明了PBSD比传统的多作物(Multi-crop)策略更有效。

结论:
本文提出的DSCL和PBSD方法通过解耦正样本和利用共享视觉模式,有效地解决了长尾识别中的挑战,提高了尾部类别的检索性能。这些方法可以广泛应用于需要处理长尾分布数据的视觉识别任务中。

文章来源


原文地址: 点我阅读全文
原文作者: 极市平台

© 版权声明

相关文章

暂无评论

暂无评论...