jjzjj

TensorRT-LLM

全部标签

陶哲轩看了都直呼内行!谷歌等用LLM自动证明定理拿顶会杰出论文,上下文越全证得越好

Transformer的技能树是越来越厉害了。来自马萨诸塞大学、谷歌和伊利诺伊大学厄巴纳-香槟分校(UIUC)的研究人员发表了一篇论文,利用大语言模型自动生成定理的完整证明。论文地址:https://arxiv.org/pdf/2303.04910.pdf这篇工作以Baldur(北欧神话中雷神Thor的兄弟)命名,首次证明了使用Transformer生成全证明是可能的,并且当为模型提供额外的上下文时,还可以改进模型先前的证明。文章发表于2023年12月在旧金山举行的ESEC/FSE(ACM欧洲软件工程联合会议和软件工程基础研讨会)上,并获得了杰出论文奖(DistinguishedPaperaw

UCLA华人提出全新自我对弈机制!LLM自己训自己,效果碾压GPT-4专家指导

合成数据已经成为了大语言模型进化之路上最重要的一块基石了。在去年底,有网友扒出前OpenAI首席科学家Ilya曾经在很多场合表示过,LLM的发展不存在数据瓶颈,合成数据可以解决大部分的问题。图片英伟达高级科学家JimFan在看了最近的一批论文后也认为,使用合成数据,再加上传统用于游戏和图像生成的技术思路,可以让LLM完成大幅度的自我进化。图片而正式提出这个方法的论文,是由来自UCLA的华人团队。图片论文地址:https://arxiv.org/abs/2401.01335v1他们通过自我对弈机制(SPIN)生成合成数据,再通过自我微调的方法,不使用新的数据集,让性能较弱的LLM在OpenLLM

容器下在 Triton Server 中使用 TensorRT-LLM 进行推理

1.TensorRT-LLM编译模型1.1TensorRT-LLM简介使用TensorRT时,通常需要将模型转换为ONNX格式,再将ONNX转换为TensorRT格式,然后在TensorRT、TritonServer中进行推理。但这个转换过程并不简单,经常会遇到各种报错,需要对模型结构、平台算子有一定的掌握,具备转换和调试能力。而TensorRT-LLM的目标就是降低这一过程的复杂度,让大模型更容易跑在TensorRT 引擎上。需要注意的是,TensorRT针对的是具体硬件,不同的GPU型号需要编译不同的TensorRT格式模型。这与ONNX模型格式的通用性定位显著不同。同时,TensortR

使用CLIP和LLM构建多模态RAG系统

在本文中我们将探讨使用开源大型语言多模态模型(LargeLanguageMulti-Modal)构建检索增强生成(RAG)系统。本文的重点是在不依赖LangChain或LLlamaindex的情况下实现这一目标,这样可以避免更多的框架依赖。什么是RAG在人工智能领域,检索增强生成(retrieve-augmentedGeneration,RAG)作为一种变革性技术改进了大型语言模型(LargeLanguageModels)的能力。从本质上讲,RAG通过允许模型从外部源动态检索实时信息来增强AI响应的特异性。该体系结构将生成能力与动态检索过程无缝结合,使人工智能能够适应不同领域中不断变化的信息。

开源 LLM 安全扫描器

Vigil是一款开源安全扫描程序,可检测即时注入、越狱以及对大型语言模型(LLM)的其他潜在威胁。当攻击者使用专门设计的输入成功影响LLM时,就会出现即时注入。这导致LLM无意中实现了攻击者设定的目标。​我对LLM的可能性感到非常兴奋,但也注意到围绕它们构建的应用程序以及我们允许应用程序访问的数据需要更好的安全实践。这个项目给了我一个很好的机会在人工智能和网络安全的交叉点上构建一些东西。希望它能为其他安全研究人员和开发人员提供一个尝试现有的LLM输入和输出安全措施,甚至创建自己的安全措施的开始。Vigil的创建者AdamM.Swanda告诉我们,这比期望直接在生产中使用的任何东西都更有“可能”

【深度学习】SDXL tensorRT 推理,Stable Diffusion 转onnx,转TensorRT

文章目录1sdxl转diffusers2转onnx3转TensorRT1sdxl转diffusersjuggernautXL_version6Rundiffusion.safetensors文件是pthpytroch文件,需要先转为diffusers的文件结构。defconvert_sdxl_to_diffusers(pretrained_ckpt_path,output_diffusers_path):importosos.environ["HF_ENDPOINT"]="https://hf-mirror.com"#设置HF镜像源(国内用户使用)os.environ["CUDA_VISIBL

2023-12-30 AIGC-LangChain指南-打造LLM的垂域AI框架

摘要:2023-12-30AIGC-LangChain指南-打造LLM的垂域AI框架LangChain指南-打造LLM的垂域AI框架CHATGPT以来,Langchain可能是目前在AI领域中最热门的事物之一,仅次于向量数据库。它是一个框架,用于在大型语言模型上开发应用程序,例如GPT、LLama、HuggingFace模型等。它最初是一个Python包,但现在也有一个TypeScript版本,在功能上逐渐赶上,并且还有一个刚刚开始的Ruby版本。大家都知道在应用系统的业务中结合ChatGPT需要大量的prompt,想像一下:(1)如果我需要快速读一本书,想通过本书作为prompt,使用Cha

MedicalGPT:基于LLaMA-13B的中英医疗问答模型(LoRA)、实现包括二次预训练、有监督微调、奖励建模、强化学习训练[LLM:含Ziya-LLaMA]。

项目设计集合(人工智能方向):助力新人快速实战掌握技能、自主完成项目设计升级,提升自身的硬实力(不仅限NLP、知识图谱、计算机视觉等领域):汇总有意义的项目设计集合,助力新人快速实战掌握技能,助力用户更好利用CSDN平台,自主完成项目设计升级,提升自身的硬实力。专栏订阅:项目大全提升自身的硬实力[专栏详细介绍:项目设计集合(人工智能方向):助力新人快速实战掌握技能、自主完成项目设计升级,提升自身的硬实力(不仅限NLP、知识图谱、计算机视觉等领域)MedicalGPT:基于LLaMA-13B的中英医疗问答模型(LoRA)、实现包括二次预训练、有监督微调、奖励建模、强化学习训练[LLM:含Ziya

【ChatGPT】Web LLM:你的本地的ChatGPT —— 完全在您的浏览器中运行 vicuna-7b 大型语言模型,它非常令人印象深刻

目录WebLLM—— 完全在您的浏览器中运行vicuna-7b大型语言模型,它非常令人印象深刻指示聊天演示链接免责声明InstructionsChatDemoLinksDisclaimer

GPT-4准确率最高飙升64%!斯坦福OpenAI重磅研究:全新Meta-Prompting方法让LLM当老板

当你让大模型写一首「莎士比亚十四行诗」,并以严格的韵律「ABABCDCDEFEFGG」执行。同时,诗中还要包含提供的3个词。对于这么高难度的创作题,LLM在收到指令后,并不一定能够按要求做出这首诗。正所谓,人各有所长,LLM也是如此,仅凭单一模型有时是无法完成一项任务的。那该如何解?最近,来自斯坦福和OpenAI的两位研究员,设计了一种提升LLM性能的全新方法——元提示(meta-prompting)。「元提示」能够把单一的LLM变身为全能的「指挥家」。论文地址:https://arxiv.org/abs/2401.12954通过使用高层「元提示」指令,让大模型把复杂任务拆成子任务,然后再将这