jjzjj

详解VQVAE:Neural Discrete Representation Learning

VQVAE:NeuralDiscreteRepresentationLearning原文链接:https://arxiv.org/abs/1711.00937 要看细节,强推,直接不用看论文了:VQ-VAE的简明介绍:量子化自编码器-科学空间|ScientificSpaces一、问题提出一些具有挑战性的任务,如few-shotlearning,严重依赖从原始数据学习的表示,但在无监督的方式下训练的通用表示的有用性仍然远远不是主流方法。极大似然和重构误差是训练像素域无监督模型的两个常用目标,但它们的有用性取决于特征所用于的特定应用。目标:实现一个模型,在潜在空间中保留数据的重要特征,同时优化最大

论文翻译:2021_A New Real-Time Noise Suppression Algorithm for Far-Field Speech Communication Based on Recurrent Neural Network

论文地址:一种新的基于循环神经网络的远场语音通信实时噪声抑制算法引用格式:ChenB,ZhouY,MaY,etal.ANewReal-TimeNoiseSuppressionAlgorithmforFar-FieldSpeechCommunicationBasedonRecurrentNeuralNetwork[C]//2021IEEEInternationalConferenceonSignalProcessing,CommunicationsandComputing(ICSPCC).IEEE,2021:01-05.摘要  在远程会议场景中,语音通常会受到背景噪声的影响,从而降低语音的清晰度

深度学习入门——深度卷积神经网络模型(Deep Convolution Neural Network,DCNN)概述

本文主要对自己以前所学进行总结。最新技术还在研究中......1引言机器学习是实现人工智能的方法和手段,其专门研究计算机如何模拟或实现人类的学习行为,以获取新的知识和技能,重新组织已有的知识结构使之不断改善自身性能的方法。计算机视觉技术作为人工智能的一个研究方向,其随着机器学习的发展而进步,尤其近10年来,以深度学习为代表的机器学习技术掀起了一场计算机视觉革命。本文将针对典型的深度学习技术——深度卷积神经网络进行介绍,主要介绍深度卷积神经网络的基础知识。2深度卷积神经网络基础随着信息技术的不断发展,各类视频图像数据量急剧增长,从大量视频图像数据中提取隐含的信息、并挖掘其潜在的价值具有非常重大的

论文阅读《Block-NeRF: Scalable Large Scene Neural View Synthesis》

论文地址:https://arxiv.org/pdf/2202.05263.pdf复现源码:https://github.com/dvlab-research/BlockNeRFPytorch概述  Block-NeRF是一种能够表示大规模环境的神经辐射场(NeuralRadianceFields)的变体,将NeRF扩展到渲染跨越多个街区的城市规模场景。该方法将场景分解为单独训练的NeRF,使渲染时间与场景大小解耦,并允许对环境进行每个街区的更新。Block-NeRF为每个单独的NeRF添加外观嵌入(appearanceembeddings)、学习姿态优化(learnedposerefinem

论文笔记--Distilling the Knowledge in a Neural Network

论文笔记--DistillingtheKnowledgeinaNeuralNetwork1.文章简介2.文章概括3文章重点技术3.1SoftTarget3.2蒸馏Distillation4.文章亮点5.原文传送门1.文章简介标题:DistillingtheKnowledgeinaNeuralNetwork作者:Hinton,Geoffrey,OriolVinyals,JeffDean日期:2015期刊:arxiv2.文章概括  文章提出了一种将大模型压缩的新的思路:蒸馏distillation。通过蒸馏,可以将很大的模型压缩为轻量级的模型,从而提升推理阶段的速率。3文章重点技术3.1SoftT

论文阅读 (94):Substructure Aware Graph Neural Networks (SAGNN, AAAI2023)

文章目录1要点1.1概述1.2一些概念1.3代码1.4引用2基础知识2.1符号2.2信息传递神经网络(MPNN)3方法3.1子图提取3.1.1基于节点的策略3.1.2基于图的策略3.2随机游走返回概率编码3.3子图信息注入的信息传递1要点1.1概述题目:子结构感知图神经网络(Substructureawaregraphneuralnetworks,SAGNN)背景:尽管图神经网络(GNN)在图学习方面取得了巨大成就,但由于GNN的传播范式与一阶Weisfeiler-Leman图同构测试算法(1-WL)的一致性,导致其难以突破1-WL表达能力的上限。思路:通过子图更容易区分原始图。方法:提出子结

论文阅读:Dense Depth Priors for Neural Radiance Fields from Sparse Input Views

CVPR2022Preliminary首先我们由一组室内的RGB图像{Ii}i=0N−1,Ii∈[0,1]H×W×3\{I_i\}^{N-1}_{i=0},I_i\in[0,1]^{H\timesW\times3}{Ii​}i=0N−1​,Ii​∈[0,1]H×W×3。通过SFM的方法,我们可以获得相机位姿pi∈R6p_i\in\mathbb{R}^6pi​∈R6,内参矩阵Ki∈R3×3K_i\in\mathbb{R}^{3\times3}Ki​∈R3×3以及稀疏的深度图Zisparse∈[0,tf]H×WZ^{sparse}_i\in[0,t_f]^{H\timesW}Zisparse​∈[

【论文导读】- Federated Graph Neural Networks: Overview, Techniques and Challenges(联邦图神经网络:概述、技术和挑战)

文章目录论文信息摘要论文内容与结构1.Introduction2.TerminologyandTaxonomy(术语与分类法)3.DataOwnersRelatedbyaGraph(第一大类)3.1FedGNNswithaCentralServer3.2FedGNNswithoutaCentralServer4.DataOwnersnotRelatedbyaGraph(第二大类)4.1ClientswithNoOverlappingNodes4.2ClientswithPartiallyOverlappingNodes4.3ClientswithCompletelyOverlappingNod

SRM : A Style-based Recalibration Module for Convolutional Neural Networks论文笔记

整体结构图:StylePooling风格池部分:StyleIntegration风格集成部分1.提出了一个基于风格的重新校准模块(SRM),他通过利用中间特征映射的风格来自适应地重新校准。2.SRM首先通过样式池从特征图的每个通道中提取样式信息,然后通过独立于通道的样式集成估计每个通道的重校正权重。stylepooling简单来说就是通过一个降维操作,可以有效的提取样式信息3.SRM将个体风格地相对重要性融入到特征图中,可以有效地增强CNN的表征能力。个人认为这个所谓的SRM与注意力机制很相似4.SRM动态地估计单个风格的相对重要性,然后根据风格的重要性重新调整特征映射的权重,这允许网络专注于

论文阅读+实战:SimGNN:A Neural Network Approach to Fast Graph Similarity Computation

Part1:论文阅读论文链接:SimGNN:ANeuralNetworkApproachtoFastGraphSimilarityComputation1.摘要图相似性搜索是最重要的基于图的应用程序之一,例如查找与查询化合物最相似的化合物。图相似度/距离计算,例如图编辑距离(GED)和最大公共子图(MCS),是图相似度搜索和许多其他应用程序的核心操作,但在实践中计算成本很高。作者受最近神经网络方法在几种图应用(例如节点或图分类)中取得成功的启发,提出了一种基于神经网络的新方法来解决这个经典但具有挑战性的图问题,旨在减轻计算负担的同时保持良好的性能。2.论文提出背景图相似性搜索是最重要的基于图的