jjzjj

Generative

全部标签

AIGC实战——GPT(Generative Pre-trained Transformer)

AIGC实战——GPT0.前言1.GPT简介2.葡萄酒评论数据集3.注意力机制3.1查询、键和值3.2多头注意力3.3因果掩码4.Transformer4.1Transformer块4.2位置编码5.训练GPT6.GPT分析6.1生成文本6.2注意力分数小结系列链接0.前言注意力机制能够用于构建先进的文本生成模型,Transformer是用于序列建模的强大神经网络,该神经网络不需要复杂的循环或卷积架构,而只依赖于注意力机制。这种方法克服了循环神经网络(RecurrentNeuralNetwork,RNN)方法难以并行化的缺陷(RNN必须逐符号处理序列)。Transformers高度可并行化运算

【论文阅读】FusionGAN: A generative adversarial network for infrared and visible image fusion

论文链接:FusionGAN:Agenerativeadversarialnetworkforinfraredandvisibleimagefusion-ScienceDirect代码: GitHub-jiayi-ma/FusionGAN:FusionGAN:AgenerativeadversarialnetworkforinfraredandvisibleimagefusionFusionGAN:Agenerativeadversarialnetworkforinfraredandvisibleimagefusion1.Introduction研究背景:1.图像融合是一种增强技术,旨在将不同

Amazon Generative AI | 基于 Amazon 扩散模型原理的代码实践之采样篇

以前通过论文介绍Amazon生成式AI和大语言模型(LLMs)的主要原理之外,在代码实践环节主要还是局限于是引入预训练模型、在预训练模型基础上做微调、使用API等等。很多开发人员觉得还不过瘾,希望内容可以更加深入。因此,本文将讲解基于扩散模型原理的代码实践,将尝试用代码完整从底层开始洞悉扩散模型(DiffusionModels)的工作原理,而不再仅仅止步于引入预训练模型或使用API完成工作。1、扩散模型系列内容概述基于扩散模型(DiffusionModels)的大模型,例如:StableDiffusion、Midjourney、DALL-E等能够仅通过提示词(Prompt)就能够生成图像。我们

【论文阅读】Self-supervised Learning: Generative or Contrastive

Abstract研究了在计算机视觉、自然语言处理和图形学习中用于表示的新的自监督学习方法。全面回顾了现有的实证方法,并根据其目的将其归纳为三大类:生成性、对比性和生成性对比(对抗性)。进一步收集了关于自我监督学习的相关理论分析,以对自我监督学习为什么有效提供更深入的思考。最后,简要讨论了自我监督学习的开放问题和未来方向。Introduction自监督学习可以看作无监督学习的一个分支,因为不涉及手工label,狭义地说,无监督学习专注于检测特定的数据模式,如聚类、社区发现或异常检测,而自监督学习旨在恢复,这仍然处于监督环境的范式中。有监督学习是数据驱动型的,严重依赖昂贵的手工标记、虚假相关性和对

Generative AI 新世界 | 文生图领域动手实践:预训练模型的部署和推理

在上期文章,我们探讨了文生图(Text-to-Image)方向的主要论文解读,包括:VAE、DDPM、DDIM、GLIDE、Imagen、UnCLIP、CDM、LDM等主要扩散模型领域的发展状况。本期我们将进入动手实践环节,我会带领大家使用AmazonSageMakerStudio、AmazonSageMakerJumpStart等服务,指导您在云中快速上手亲身体验大语言模型的魅力,并为有探索精神的小伙伴们准备了更高阶实验,以帮助您构建文生图(Text-to-Image)领域的大模型企业或科研应用。亚马逊云科技开发者社区为开发者们提供全球的开发技术资源。这里有技术文档、开发案例、技术专栏、培训

【论文笔记】Knowledge Is Flat: A Seq2Seq Generative Framework for Various Knowledge Graph Completion

KnowledgeIsFlat:ASeq2SeqGenerativeFrameworkforVariousKnowledgeGraphCompletionarxiv时间:September15,2022作者单位i:南洋理工大学来源:COLING2022模型名称:KG-S2S论文链接:https://arxiv.org/abs/2209.07299项目链接:https://github.com/chenchens190009/KG-S2S摘要以往的研究通常将KGC模型与特定的图结构紧密结合,这不可避免地会导致两个缺点特定结构的KGC模型互不兼容现有KGC方法无法适应新兴KG。提出了KG-S2S1

AGI之Agent:《Generative Agents: Interactive Simulacra of Human Behavior生成代理:人类行为的交互模拟》翻译与解读

AGI之Agent:《GenerativeAgents:InteractiveSimulacraofHumanBehavior生成代理:人类行为的交互模拟》翻译与解读目录《GenerativeAgents:InteractiveSimulacraofHumanBehavior》翻译与解读Figure1:Generativeagentsarebelievablesimulacraofhumanbehaviorforinteractiveapplications.Inthiswork,wedemonstrategenerativeagentsbypopulatingasandboxenvironm

【论文阅读】Multi-ConDoS: Multimodal Contrastive Domain Sharing Generative Adversarial Networks for Self-S

paper:Multi-ConDoS:MultimodalContrastiveDomainSharingGenerativeAdversarialNetworksforSelf-SupervisedMedicalImageSegmentation存在的问题:         现有的自监督医学图像分割通常会遇到域偏移问题(也就是说,预训练的输入分布不同于微调的输入分布)和/或多模态问题(也就是说,它仅基于单模态数据,无法利用医学图像丰富的多模态信息)。针对这些问题,本文提出多模态对比域共享(Multi-ConDoS)生成对抗网络,实现有效的多模态对比自监督医学图像分割。ConDoS具有以下3个

论文阅读:FusionGAN: A generative adversarial network for infrared and visible image fusion

@article{ma2019fusiongan,title={FusionGAN:Agenerativeadversarialnetworkforinfraredandvisibleimagefusion},author={Ma,JiayiandYu,WeiandLiang,PengweiandLi,ChangandJiang,Junjun},journal={Informationfusion},volume={48},pages={11–26},year={2019},publisher={Elsevier}}[论文下载地址]文章目录📖论文解读🔑关键词💭核心思想🪢网络结构🪢生成器GθGG

[配环境]GET3D: A Generative Model of High Quality 3D Textured Shapes Learned from Images (docker方法)

代码地址:https://github.com/nv-tlabs/GET3D本文使用了官方提供的docker镜像。目录配置docker新建docker容器安装并配置ssh(可选)(可选)配置conda软链接安装tmux(可选)配置python默认使用上面这个python3安装需要的东西(可选)如果没有pip和conda安装python包运行inference代码结果:用meshlab查看用blender查看training代码运行NinjaisrequiredtoloadC++extensionsinPycharm数据集生成tensorboard报错log结构:个人需要的其他内容配置docke