以前笔者的文章,曾经多次提到open.sap.com这个网站,上面有很多SAP官方发布的免费的学习课程。访问该网站,点击Courses,然后根据关键字搜索,就可以浏览对应的课程。目前(2024年1月初)网站推荐的一门最新的课程,是下图的GenerativeAIatSAP:该课程总共分为五个单元,总共3小时即可学完:Unit1:ApproachestoartificialintelligenceUnit2:IntroductiontogenerativeAIUnit3:AdaptinggenerativeAItobusinesscontextUnit4:ExtendingSAPapplicati
简介官网 Nvidia2023提出的一种新的生成模型,可生成具有任意属性的高分辨率稀疏3D体素网格,以前馈方式生成数百万体素,最细有效分辨率高达102431024^310243,而无需耗时的test-time优化,使用一种分层体素潜扩散模型,使用建立在高效VDB数据结构上的自定义框架,以从粗到细的方式生成逐步更高的分辨率网格。XCube在100m×100m规模的大型户外场景中的有效性,体素大小小至10cm。实现流程 目标是学习一个以稀疏体素层次表示的大规模3D场景的生成模型,由L层由粗到细的体素网格组成G={G1,⋅,GL}G=\{G_1,\cdot,G_L\}G={G1,⋅,GL}及其相
IsConditionalGenerativeModelingallyouneedforDecisionMaking?1.引言条件生成建模传统强化学习面临的挑战作者的研究动机与创新点2.重要概念强化学习扩散概率模型传统的强化学习到生成建模的转变本文提出方法的总体框架3.决策扩散的概念和设计扩散状态(DiffusingOverStates)逆向动力学(ActingwithInverse-Dynamics)无分类器指导规划(PlanningwithClassifier-FreeGuidance)超越回报的条件化(ConditioningBeyondReturns)训练与实现细节1.引言条件生成建模
摘要:\quad在3Dcontentcreation方面的最新进展大多利用通过SDS进行的基于优化3D生成。虽然已经显示出了有希望的结果,但这些方法的per-sampleoptimization往往比较缓慢,限制了它们的实际应用。在这篇文章中,我们提出了DreamGaussian,同时实现efficiency和quality。我们的keyinsight是设计一个生成的三维高斯溅模型,在UV空间中进行友好的网格提取和纹理细化。与NeRF使用的occupancypruning优化过程相反,我们证明了在三维生成任务中,3DGaussians的progressivedensification收敛速度明
AIGC实战——条件生成对抗网络0.前言1.CGAN架构2.模型训练3.CGAN分析小结系列链接0.前言我们已经学习了如何构建生成对抗网络(GenerativeAdversarialNet,GAN)以从给定的训练集中生成逼真图像。但是,我们无法控制想要生成的图像类型,例如控制模型生成男性或女性的面部图像;我们可以从潜空间中随机采样一个点,但是不能预知给定潜变量能够生成什么样的图像。在本节中,我们将构建一个能够控制输出的GAN,即条件生成对抗网络(ConditionalGenerativeAdversarialNet,GAN)。该模型最早由Mirza和Osindero在2014年提出,是对GAN
GenerativeSparseDetectionNetworksfor3DSingle-shotObjectDetection稀疏检测网络(GSDN),这是一种完全卷积的单帧稀疏检测网络,可以有效地生成对对象提议的支持。模型重要组成部分事一个稀疏的张量编码器,使用了转置卷积以及修剪层,丢弃了概率小的对象中心,以减小运行的时间和占用的内存。Introduction检测三维物体时遇到两个问题:三维数据需要进行处理和保存较之二维数据更加复杂三维数据是十分稀疏的,采样都来源于物体的表面提出按层次稀疏张量编码器来解决三次复杂度,采用稀疏张量网络对大场景进行全卷积的有效处理。边界框的锚点即扫描物体的中心
AIGC实战——生成对抗网络0.前言1.生成对抗网络1.1生成对抗网络核心思想1.2深度卷积生成对抗网络2.数据集分析3.构建深度卷积生成对抗网络3.1判别器3.2生成器3.3DCGAN模型训练4.GAN训练技巧4.1判别器强于生成器4.2生成器强于判别器4.3信息量不足4.4超参数小结系列链接0.前言生成对抗网络(GenerativeAdversarialNetwork,GAN)是由IanGoodfellow等人在2014年提出的一种强大的深度学习模型,可以用于生成新数据样本,比如图像、音频、文本等。GAN包含两个神经网络:生成器和判别器。生成器根据输入的噪声信号生成一些伪造的数据样本,而判
一、GAN1、应用GAN的应用十分广泛,如图像生成、图像转换、风格迁移、图像修复等等。2、简介生成式对抗网络是近年来复杂分布上无监督学习最具前景的方法之一。模型通过框架中(至少)两个模块:生成模型(GenerativeModel,G)和判别模型(DiscriminativeModel,D)的互相博弈学习产生相当好的输出。判别模型:判断一个实例是真实的还是由模型生成的生成模型:生成一个假实例来骗过判别模型两个模型相互对抗,最后达到一个平衡(纳什均衡),即生成模型生成的实例与真实的没有区别,判别模型无法区分输入数据是真实的还是由生成模型生成的。(Grecoveringthetrainingdata
题目:GAIA-1:自动驾驶的生成世界模型摘要自动驾驶有望对交通带来革命性的改进,但构建能够安全地应对现实世界场景的非结构化复杂性的系统仍然具有挑战性。一个关键问题在于有效预测随着世界的发展,车辆的行为可能出现的各种潜在结果。(也就是说构建一个可以有效的应对汽车行驶过程中可能出现的各种突发状态的一个系统是十分困难的)为了应对这一挑战,我们引入了GAIA-1(“自主生成人工智能”),这是一种生成世界模型,利用视频、文本和动作输入来生成真实的驾驶场景,同时提供对自我车辆行为和场景特征的细粒度控制。我们的方法通过将输入映射到离散标记并预测序列中的下一个标记,将世界建模视为无监督序列建模问题。我们的模
Phind 通过简单的解释和来自网络的相关代码片段来回答技术问题。 禅与计算机程序设计艺术: 与ChatGPT和newBing一样,Phind由大语言模型(LargeLanguageModel(LLM))驱动。体验后,个人感觉在技术方面的检索能力和质量上Phind比newBing和ChatGPT的体验要好得多。Phind也支持非开发人员相关问题回答,响应速度和质量也不错,关键不需要newBing的waitlist。官网地址:https://phind.com相对于另外一个AI搜索引擎 PerplexityAI,个人感觉Phind的体验更好。 目录简介