文章目录论文信息摘要主要工作Model-agnosticmetalearning(MAML)GraphFLFramework1.GraphFL用于联合GraphSSC和非IID图数据2.GraphFed用于联合GraphSSC和新标签3.通过自训练来利用未标记节点论文信息原文地址:https://arxiv.org/abs/2012.04187摘要Graph-basedsemi-supervisednodeclassification(GraphSSC)haswideapplications,rangingfromnetworkingandsecuritytodataminingandmach
Self-supervisedSingle-view3DReconstructionviaSemanticConsistency论文地址:https://arxiv.org/abs/2003.06473作者:XuetingLi,SifeiLiu,KihwanKim,ShaliniDeMello,VarunJampani,Ming-HsuanYang,andJanKautz发表:ECCV2020链接:https://github.com/NVlabs/UMR笔记参考:https://zhuanlan.zhihu.com/p/464151329Abstract该模型通过收集二维图像和轮廓来预测目标
TimesURL:Self-supervisedContrastiveLearningforUniversalTimeSeriesRepresentationLearning摘要 学习适用于多种下游任务的通用时间序列表示,并指出这在实际应用中具有挑战性但也是有价值的。最近,研究人员尝试借鉴自监督对比学习(SSCL)在计算机视觉(CV)和自然语言处理(NLP)中的成功经验,以解决时间序列表示的问题。然而,由于时间序列具有特殊的时间特性,仅仅依赖于来自其他领域的经验指导可能对时间序列是无效的,并且难以适应多个下游任务。 在1和2中,研究发现不适当的正负样本构造可能引入不恰当的归纳偏差,既不能保持时
Abstract研究了在计算机视觉、自然语言处理和图形学习中用于表示的新的自监督学习方法。全面回顾了现有的实证方法,并根据其目的将其归纳为三大类:生成性、对比性和生成性对比(对抗性)。进一步收集了关于自我监督学习的相关理论分析,以对自我监督学习为什么有效提供更深入的思考。最后,简要讨论了自我监督学习的开放问题和未来方向。Introduction自监督学习可以看作无监督学习的一个分支,因为不涉及手工label,狭义地说,无监督学习专注于检测特定的数据模式,如聚类、社区发现或异常检测,而自监督学习旨在恢复,这仍然处于监督环境的范式中。有监督学习是数据驱动型的,严重依赖昂贵的手工标记、虚假相关性和对
AFGRL:Augmentation-FreeSelf-SupervisedLearningonGraphs文献地址:Augmentation-FreeSelf-SupervisedLearningonGraphsMotivation图对比的正例对构造对增强方法敏感,由于图包含了语义信息和结构信息,因此在对边进行不同增强方法时,可能会影响其语义对不同数据分布的数据集,模型增强的参数需要分别进行调整简单的将其他节点特征看作负样本等同于忽略了图的结构信息,因此不一定从这种样本偏置中获益Comment对BGRL的工作进行了总结,认为BGRL虽然并没有使用负样本,但是利用了图增强技术,因此可能同样会损
这是一篇ICCV2023的文章,主要介绍的是用自监督的方式进行多帧超分的学习Abstract这篇文章介绍了一种基于自监督的学习方式来进行多帧超分的任务,这种方法只需要原始的带噪的低分辨率的图。它不需要利用模拟退化的方法来构造数据,而且模拟退化的方法又可能存在域差异的问题,可能无法匹配真实场景下的图像分布。另外,它也不同于那种同时拍摄手机和高清单反的弱配对的方法,弱配对的方法,需要进行实际的数据的采集,无法实现大规模的数据构造,而且也不用担心会出现手机与单反的颜色差异问题。为了避免模拟退化以及采集数据对的这些问题,文章提出利用自监督学习的方法,从低清带噪图像中直接学习超分模式。文章作者也说,这个
原文链接:https://arxiv.org/abs/2312.092431.引言3D目标检测任务受到无限类别和长尾问题的影响。3D占用预测则不同,其关注场景的几何重建,但多数方法需要从激光雷达点云获取的3D监督信号。本文提出OccNeRF,一种自监督多相机占用预测模型。首先使用图像主干提取2D特征。为节省空间,本文直接插值2D特征得到3D体素特征,而不使用交叉注意力。此外,本文考虑相机视野的无限空间,因此将占用场参数化,以表达无界环境。本文将整个3D空间分为内部和外部区域,其中内部区域保留原始坐标,外部区域使用收缩坐标。还设计专门的采样策略和神经渲染,将参数化占用场转化为多相机深度图。使用渲
这篇论文的题目是用于小样本Transformers的监督遮掩知识蒸馏论文接收:CVPR2023论文地址:https://arxiv.org/pdf/2303.15466.pdf代码链接:https://github.com/HL-hanlin/SMKD1Motivation1.ViT在小样本学习(只有少量标记数据的小型数据集)中往往会过拟合,并且由于缺乏归纳偏置而导致性能较差;2.目前很多方法使用自监督学习和监督学习来缓解这个问题,但是没有方法能很好平衡监督和自监督两个的学习目标;3.最近提出的自监督掩蔽知识蒸馏方法在各个领域的Transfomrers取得了先进的效果。2Ideas提出了一种新
【论文阅读笔记】SupervisedContrastiveLearning摘要自监督批次对比方法扩展到完全监督的环境中,以有效利用标签信息提出两种监督对比损失的可能版本介绍交叉熵损失函数的不足之处,对噪声标签的不鲁棒性和可能导致交叉的边际,降低了泛化能。监督对比损失:将同一类别的所有样本作为正样本,并将批次中其余部分的样本作为负样本进行对比自监督对比对比损失:将每一个锚点(图像的增强版本)与整个批次的其余样本形成的负样本集进行对比。通过黑白小狗照片的展示,考虑类别标签信息会导致嵌入空间中相同类别的元素比自监督情况下更加紧密地对齐自监督对比学习:在嵌入空间中将一个锚点和一个正样本拉在一起,并将锚
来源:Georgescu,Mariana-Iuliana,etal.“AnomalyDetectioninVideoviaSelf-SupervisedandMulti-TaskLearning.”2021IEEE/CVFConferenceonComputerVisionandPatternRecognition(CVPR),June2021.Crossref,https://doi.org/10.1109/cvpr46437.2021.01255.OfficialURL: CVPR2021OpenAccessRepositoryCode:GitHub-lilygeorgescu/AED-S