CVPR2022中弱监督多标签分类的损失函数如何应对长尾词问题?
- 内容介绍
- 文章标签
- 相关推荐
本文共计2672个文字,预计阅读时间需要11分钟。
前文提出了一种新颖的弱监督多标签分类(WSML)方法,该方法避免了严重损失和模型记忆噪声的标签。由于缺乏冗余和复杂组件,该方法在多个标签设置上表现出色。
前言本文提出了一种新的弱监督多标签分类(WSML)方法,该方法拒绝或纠正大损失样本,以防止模型记忆有噪声的标签。由于没有繁重和复杂的组件,提出的方法在几个部分标签设置(包括Pascal VOC 2012、MS COCO、NUSWIDE、CUB和OpenImages V3数据集)上优于以前最先进的WSML方法。各种分析还表明,方法的实际效果很好,验证了在弱监督的多标签分类中正确处理损失很重要。
欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。
论文:Large Loss Matters in Weakly Supervised Multi-Label Classification
论文:arxiv.org/pdf/2206.03740
代码:github.com/snucml/LargeLossMatters
弱监督多标签分类(WSML)任务是利用每幅图像的部分观察标签来学习多标签分类,由于其巨大的标注成本,变得越来越重要。
目前,有两种简单的方法可以使用部分标签来训练模型。一种是只使用观察到的标签来训练模型,而忽略未观察到的标签。
本文共计2672个文字,预计阅读时间需要11分钟。
前文提出了一种新颖的弱监督多标签分类(WSML)方法,该方法避免了严重损失和模型记忆噪声的标签。由于缺乏冗余和复杂组件,该方法在多个标签设置上表现出色。
前言本文提出了一种新的弱监督多标签分类(WSML)方法,该方法拒绝或纠正大损失样本,以防止模型记忆有噪声的标签。由于没有繁重和复杂的组件,提出的方法在几个部分标签设置(包括Pascal VOC 2012、MS COCO、NUSWIDE、CUB和OpenImages V3数据集)上优于以前最先进的WSML方法。各种分析还表明,方法的实际效果很好,验证了在弱监督的多标签分类中正确处理损失很重要。
欢迎关注公众号CV技术指南,专注于计算机视觉的技术总结、最新技术跟踪、经典论文解读、CV招聘信息。
论文:Large Loss Matters in Weakly Supervised Multi-Label Classification
论文:arxiv.org/pdf/2206.03740
代码:github.com/snucml/LargeLossMatters
弱监督多标签分类(WSML)任务是利用每幅图像的部分观察标签来学习多标签分类,由于其巨大的标注成本,变得越来越重要。
目前,有两种简单的方法可以使用部分标签来训练模型。一种是只使用观察到的标签来训练模型,而忽略未观察到的标签。

