TimeSeriesContrastiveLearningwithInformation-AwareAugmentations摘要背景:在近年来,已经有许多对比学习方法被提出,并在实证上取得了显著的成功。尽管对比学习在图像和语言领域非常有效和普遍,但在时间序列数据上的应用相对较少。对比学习的关键组成部分:对比学习的一个关键组成部分是选择适当的数据增强(augmentation)方式,通过施加一些先验条件构建可行的正样本。这样,编码器可以通过训练来学习稳健和具有区分性的表示。问题陈述:与图像和语言领域不同,时间序列数据的“期望”增强样本很难通过人为的先验条件来生成,因为时间序列数据具有多样且人类
TimesURL:Self-supervisedContrastiveLearningforUniversalTimeSeriesRepresentationLearning摘要 学习适用于多种下游任务的通用时间序列表示,并指出这在实际应用中具有挑战性但也是有价值的。最近,研究人员尝试借鉴自监督对比学习(SSCL)在计算机视觉(CV)和自然语言处理(NLP)中的成功经验,以解决时间序列表示的问题。然而,由于时间序列具有特殊的时间特性,仅仅依赖于来自其他领域的经验指导可能对时间序列是无效的,并且难以适应多个下游任务。 在1和2中,研究发现不适当的正负样本构造可能引入不恰当的归纳偏差,既不能保持时
Abstract研究了在计算机视觉、自然语言处理和图形学习中用于表示的新的自监督学习方法。全面回顾了现有的实证方法,并根据其目的将其归纳为三大类:生成性、对比性和生成性对比(对抗性)。进一步收集了关于自我监督学习的相关理论分析,以对自我监督学习为什么有效提供更深入的思考。最后,简要讨论了自我监督学习的开放问题和未来方向。Introduction自监督学习可以看作无监督学习的一个分支,因为不涉及手工label,狭义地说,无监督学习专注于检测特定的数据模式,如聚类、社区发现或异常检测,而自监督学习旨在恢复,这仍然处于监督环境的范式中。有监督学习是数据驱动型的,严重依赖昂贵的手工标记、虚假相关性和对
论文链接:https://openaccess.thecvf.com/content/CVPR2022W/UG2/papers/Wu_Contrastive_Learning-Based_Robust_Object_Detection_Under_Smoky_Conditions_CVPRW_2022_paper.pdfAbstract 目标检测是指有效地找出图像中感兴趣的目标,然后准确地确定它们的类别和位置。近年来,许多优秀的方法被开发出来,以提供强大的检测能力。然而,在恶劣天气如烟熏条件下,它们的性能可能会显著降低。在这篇论文基于对比下学习提出了一个鲁棒的烟雾图像目标检测算法
paper:Multi-ConDoS:MultimodalContrastiveDomainSharingGenerativeAdversarialNetworksforSelf-SupervisedMedicalImageSegmentation存在的问题: 现有的自监督医学图像分割通常会遇到域偏移问题(也就是说,预训练的输入分布不同于微调的输入分布)和/或多模态问题(也就是说,它仅基于单模态数据,无法利用医学图像丰富的多模态信息)。针对这些问题,本文提出多模态对比域共享(Multi-ConDoS)生成对抗网络,实现有效的多模态对比自监督医学图像分割。ConDoS具有以下3个
ContrastiveMultiviewCoding摘要 这篇文章主要探讨人类通过多种感官通道来观察世界,比如左眼观察到的长波长光通道,或右耳听到的高频振动通道。每个观察角度都带有噪音且是不完整的,但一些重要的因素,如物理、几何和语义,往往在所有观点之间共享(例如,“狗”可以被看到、听到和感受到)。文章研究了一个经典的假设,即一个强大的表示应该能够建模与观察角度无关的因素。 在多视图对比学习的框架下,他们通过学习一个表示来最大化同一场景不同视图之间的互信息,但这个表示本身要尽可能紧凑。该方法可以扩展到任意数量的视图,并且对视图是不可知的。作者分析了该方法的关键属性,发现对比损失在性能上优于基于
文章目录摘要1.问题的提出引出当前研究的不足与问题属性不平衡问题属性共现问题解决方案2.数据集和模型构建数据集传统的零样本学习范式v.s.DUET学习范式DUET模型总览属性级别对比学习==正负样本解释:==3.结果分析VIT-basedvisiontransformerencoder.消融研究消融研究解释4.结论与启示结论总结启发PLMs的潜在语义知识引入多模态,跨模态整合细粒度角度考虑原文链接:https://ojs.aaai.org/index.php/AAAI/article/view/25114/24886该论文设计了一种新的零样本学习范式,通过迁移语言模型中的先验语义知识,与视觉模
RepresentationLearningwithContrastivePredictiveCoding摘要这段文字是论文的摘要,作者讨论了监督学习在许多应用中取得的巨大进展,然而无监督学习并没有得到如此广泛的应用,仍然是人工智能中一个重要且具有挑战性的任务。在这项工作中,作者提出了一种通用的无监督学习方法,用于从高维数据中提取有用的表示,被称为“对比预测编码”(ContrastivePredictiveCoding)。该模型的关键思想是通过使用强大的自回归模型在潜在空间中预测未来,从而学习这些表示。作者使用了一种概率对比损失,通过负采样使潜在空间捕获对预测未来样本最有用的信息。而大多数先前
用于物理感知单图像去雾的课程对比正则化代码下载:https://download.csdn.net/download/zhouaho2010/88588360Abstract考虑到不适定的性质,发展了单图像去模糊的对比正则化,引入了来自负图像的信息作为下界。然而,对比样本是非一致的,因为阴性通常距离清晰(即正)图像很远,使解空间仍然不足。此外,深度脱雾模型的可解释性对脱雾过程的物理研究还没有得到充分的探索。在本文中,我们提出了一种新的课程对比正则化,目标是一个自愿对比空间,而非非自愿对比空间。我们的负片提供了更好的下界约束,可以从1)模糊图像和2)通过其他现有方法进行相应的修复。此外,由于清晰
本文是自己学习对比学习的总结,如有问题,欢迎批评指正。前言有的paper将对比学习称为自监督学习(Self-supervisedlearning),有的将其称为无监督学习(UnsupervisedLearning,UL)。自监督学习是无监督学习的一种形式。自监督学习(Self-supervisedlearning)可以避免对数据集进行大量的标签标注。把自己定义的伪标签当作训练的信号,然后把学习到的表示(representation)用作下游任务里。目的:学习一个编码器,此编码器对同类数据进行相似的编码,并使不同类的数据的编码结果尽可能的不同(通过代理任务引入更多的外部信息,以获得更通用(gen