jjzjj

supervised-learning

全部标签

Learning in the Frequency Domain | 论文笔记

论文链接:[2002.12416]LearningintheFrequencyDomain(arxiv.org)https://arxiv.org/abs/2002.12416论文代码:kaix90/DCTNet(github.com)https://github.com/kaix90/DCTNet1、研究背景a)在传统方法中,高分辨率的RGB图片通常在CPU上进行预处理,然后转移到GPU上进行推理。因为没有经过压缩的RGB图片很大,所以CPU和GPU之间的传输带宽(CB)要求很高。为减少计算代价和传输带宽,高分辨率的RGB图片被下采样至更小的图片,但是这通常导致信息丢失和更低的推理准确率。b

《An End-to-end Model for Entity-level Relation Extraction using Multi-instance Learning》阅读笔记

代码 原文地址 预备知识:1.什么是MIL?多示例学习(MIL)是一种机器学习的方法,它的特点是每个训练数据不是一个单独的实例,而是一个包含多个实例的集合(称为包)。每个包有一个标签,但是包中的实例没有标签。MIL的目的是根据包的标签来学习实例的特征和分类规则,或者根据实例的特征来预测包的标签。MIL的应用场景包括药物活性预测、图像分类、文本分类、关系抽取等。MIL的挑战在于如何处理实例之间的相关性、标签的不确定性和数据的不平衡性。MIL的常用算法有基于贝叶斯、KNN、决策树、规则归纳、神经网络等的方法,以及基于注意力机制、自编码器、变分推断等的方法。 2.什么是基于跨度(span)的命名实体

《An End-to-end Model for Entity-level Relation Extraction using Multi-instance Learning》阅读笔记

代码 原文地址 预备知识:1.什么是MIL?多示例学习(MIL)是一种机器学习的方法,它的特点是每个训练数据不是一个单独的实例,而是一个包含多个实例的集合(称为包)。每个包有一个标签,但是包中的实例没有标签。MIL的目的是根据包的标签来学习实例的特征和分类规则,或者根据实例的特征来预测包的标签。MIL的应用场景包括药物活性预测、图像分类、文本分类、关系抽取等。MIL的挑战在于如何处理实例之间的相关性、标签的不确定性和数据的不平衡性。MIL的常用算法有基于贝叶斯、KNN、决策树、规则归纳、神经网络等的方法,以及基于注意力机制、自编码器、变分推断等的方法。 2.什么是基于跨度(span)的命名实体

DENSE: Data-Free One-Shot Federated Learning论文笔记

摘要DENSE的主要特点单轮通信学习:DENSE允许中央服务器在单次通信轮次中学习全局模型,有效降低了通信成本。现有单轮FL方法的局限性:大多数现有的单轮FL方法不切实际或存在固有限制,例如需要公共数据集,客户端模型同质化,以及需要上传额外的数据或模型信息。DENSE的创新解决方案:采用两阶段框架:数据生成阶段和模型蒸馏阶段。数据生成阶段:使用客户端上传的本地模型集合训练生成器(训练了一个同时考虑相似性、稳定性和可转移性的生成器),生成合成数据。模型蒸馏阶段:将集合模型的知识蒸馏到全局模型中。无需额外信息交换:只需在客户端和服务器之间传输模型参数。无需辅助数据集:不需要额外的训练数据。考虑模型

【scikit-learn基础】--『监督学习』之 逻辑回归分类

逻辑回归这个算法的名称有一定的误导性。虽然它的名称中有“回归”,当它在机器学习中不是回归算法,而是分类算法。因为采用了与回归类似的思想来解决分类问题,所以它的名称才会是逻辑回归。逻辑回归的思想可以追溯到19世纪,由英国统计学家FrancisGalton在研究豌豆遗传问题时首次提出。然而,真正将逻辑回归应用于机器学习的是加拿大统计学家HughEverett,他在1970年代提出了广义线性模型(GLM),其中包括逻辑回归。逻辑回归广泛应用于各种分类问题,如垃圾邮件识别、疾病预测、市场细分等。1.算法概述逻辑回归通过构建一个逻辑模型来预测分类结果。它首先对特征进行线性回归,\(y=w_0x_0+w_

【scikit-learn基础】--『监督学习』之 逻辑回归分类

逻辑回归这个算法的名称有一定的误导性。虽然它的名称中有“回归”,当它在机器学习中不是回归算法,而是分类算法。因为采用了与回归类似的思想来解决分类问题,所以它的名称才会是逻辑回归。逻辑回归的思想可以追溯到19世纪,由英国统计学家FrancisGalton在研究豌豆遗传问题时首次提出。然而,真正将逻辑回归应用于机器学习的是加拿大统计学家HughEverett,他在1970年代提出了广义线性模型(GLM),其中包括逻辑回归。逻辑回归广泛应用于各种分类问题,如垃圾邮件识别、疾病预测、市场细分等。1.算法概述逻辑回归通过构建一个逻辑模型来预测分类结果。它首先对特征进行线性回归,\(y=w_0x_0+w_

T5模型:打破Few-shot Learning的次元壁垒

❤️觉得内容不错的话,欢迎点赞收藏加关注😊😊😊,后续会继续输入更多优质内容❤️👉有问题欢迎大家加关注私戳或者评论(包括但不限于NLP算法相关,linux学习相关,读研读博相关......)👈(封面图由ERNIE-ViLGAI作画大模型生成)T5模型:打破Few-shotLearning的次元壁垒自然语言处理(NLP)是一种用于理解人类语言的计算机科学领域。在过去的几年中,随着深度学习技术的发展,NLP领域也取得了突破性进展。在众多的NLP模型中,T5模型作为一种强大的语言生成模型,在自然语言理解、翻译和问答等任务中表现出色,成为了该领域的研究热点之一。本文将介绍T5模型的原理和优势,并结合案例

[论文阅读笔记] TRACE: A Comprehensive Benchmark for Continual Learning In Large Language Models

一、论文信息1论文标题TRACE:AComprehensiveBenchmarkforContinualLearningInLargeLanguageModels2发表刊物arXiv20233作者团队复旦大学4关键词Benchmark、ContinualLearing、LLMs二、文章结构#mermaid-svg-AWUENWtk6KXhB7b8{font-family:"trebuchetms",verdana,arial,sans-serif;font-size:16px;fill:#333;}#mermaid-svg-AWUENWtk6KXhB7b8.error-icon{fill:#5

跨模态检索论文阅读:Learning Semantic Relationship among Instances for Image-Text Matching学习实例之间的语义关系实现图像-文本匹配

摘要图像-文本匹配是连接图像和语言的桥梁,也是一项重要的任务,它一般通过学习跨模态的整体嵌入来实现两种模态之间高质量的语义对齐。然而,以往的研究只关注捕捉特定模态的样本内的片段级关系,例如图像中的突出区域或句子中的文本词,而通常不太关注捕捉样本和模态之间的实例级交互,例如多个图像和文本。因此,我们提出了一种新颖的分层关系建模框架(HREM),它能明确捕捉片段和实例级关系,以学习具有区分性和鲁棒性的跨模态嵌入。在Flickr30K和MS-COCO上进行的大量实验表明,我们提出的方法在rSum方面比最先进的方法高出4%-10%。我们的代码可在https://github.com/Crossmoda

【scikit-learn基础】--『监督学习』之 K-近邻分类

KNN(K-近邻),全称K-NearestNeighbors,是一种常用的分类算法。KNN算法的历史可以追溯到1957年,当时Cover和Hart提出了“最近邻分类”的概念。但是,这个算法真正得到广泛认知和应用是在1992年,由Altman发表的一篇名为“K-NearestNeighbors”的文章。近年来,随着大数据和机器学习的快速发展,KNN算法因其简单且表现优秀,被广泛应用于各种数据分类问题中。1.算法概述KNN算法的基本原理是:在特征空间中,如果一个样本的最接近的k个邻居中大多数属于某一个类别,则该样本也属于这个类别。换句话说,KNN算法假设类别是由其邻居决定的。那么,KNN算法判断数