jjzjj

TensorRT-LLM

全部标签

理论+实践详解最热的LLM应用框架LangChain

本文分享自华为云社区《LangChain是什么?LangChain的详细介绍和使用场景》,作者:码上开花_Lancer。一、概念介绍1.1Langchain是什么?官方定义是:LangChain是一个强大的框架,旨在帮助开发人员使用语言模型构建端到端的应用程序,它提供了一套工具、组件和接口,可简化创建由大型语言模型(LLM)和聊天模型提供支持的应用程序的过程。LangChain是一个语言模型集成框架,其使用案例与语言模型的使用案例大致重叠,包括文档分析和摘要、聊天机器人和代码分析。简单来说,LangChain提供了灵活的抽象和AI优先的工具,可帮助开发人员将LLM应用程序从原型转化为生产环境。

LLM时代中的分布式AI

深度学习相较传统机器学习模型,对算力有更高的要求。尤其是随着深度学习的飞速发展,模型体量也不断增长。于是,前几年,我们看到了芯片行业的百家争鸣和性能指标的快速提升。正当大家觉得算力问题已经得到较大程度的缓解时,大语言模型(LLM,Largelanguagemodel)的兴起又带来了前所未有的挑战。当网络模型达到一定量级后(比如参数量达到10B级别),表现出In-contextlearning,Instructionfollowing和Step-by-stepreasoning等涌现能力(Emergentabilities)。这些能力是以往模型所不具备的,因此LLM引起了学术界与工业界的浓厚兴趣

解决Stable Diffusion TensorRT转换模型报错cpu and cuda:0! (when checking argument for argume

记录StableDiffusionwebUITensorRT插件使用过程的报错:RuntimeError:Expectedalltensorstobeonthesamedevice,butfoundatleasttwodevices,cpuandcuda:0!(whencheckingargumentforargumentmat1inmethodwrapper_CUDA_addmm)拷贝下面的代码覆盖extensions\stable-diffusion-webui-tensorrt里的export_onnx.py文件,将模型和相关的张量移动到GPU,即可解决。importosfrommodu

大型语言模型(LLM)技术精要,不看亏了

哈喽,大家好。今天分享一篇知乎高赞文章,作者是张俊林老师。图片读完收获很多,能帮大家更好地理解、学习大模型。原文有2.8w字,我提炼了核心要点,阅读需要10min。ChatGPT的出现给很多人带来了惊喜和醒悟。有人惊喜地发现大型语言模型(LLM)的效果如此出色,而有人则意识到我们对LLM的认知和发展理念距离世界先进水平还有很大差距。我是既惊喜又醒悟的一员,也是典型的中国人,善于自我反思。因此,我开始反思,并将这篇文章作为反思的结果。我认为,OpenAI在LLM的理念和相关技术方面领先于国外的Google和DeepMind大约半年到一年的时间,领先国内大约两年左右。在LLM这个问题上,梯队很明显

宇宙尽头是「计算」!AI大佬Wolfram最新演讲:LLM自主在计算空间探索,奇点降临就是现在

如何以计算方式,思考人工智能、宇宙和一切?近日,著名的英国科学家StephenWolfram在TED18分钟的演讲中,分享了自己对这个问题的看法。图片在他看来,宇宙是在一种计算模型下运行的,空间和物质都是由遵守简单计算规则的离散元素组成的。他还提出了ruliad的概念,即所有可以想象的计算过程的复杂极限。宇宙尽头,是「计算」?人类的语言、数学、逻辑学,都是用来表达和理解世界的方式。而在我们这个时代,「计算」成为了一种新的、也更强大的方法。近50年来,我有幸基于「计算」的理念建造了一座更高的科学技术塔。今天我想告诉你,这些努力取得了一些什么样的成就。还记得,我上一次TED演讲是在13年前——20

【网安AIGC专题10.19】论文6:Java漏洞自动修复+数据集 VJBench+大语言模型、APR技术+代码转换方法+LLM和DL-APR模型的挑战与机会

HowEffectiveAreNeuralNetworksforFixingSecurityVulnerabilities写在最前面摘要贡献发现介绍背景:漏洞修复需求和Java漏洞修复方向动机方法贡献数据集先前的数据集和Java漏洞Benchmark数据集扩展要求数据处理工作最终数据集VJBenchVJBench与Vul4J的比较大语言模型和APR技术大型语言模型CodeX[17]CodeT5[73]CodeGen[55]PLBART[8]InCoder[28]实验:对于带有注释错误行的输入关于LargeLanguageModels的微调四种基于深度学习的自动程序修复(DL-basedAPR)

增强LLM:使用搜索引擎缓解大模型幻觉问题

论文题目:FRESHLLMS:REFRESHINGLARGELANGUAGEMODELSWITHSEARCHENGINEAUGMENTATION论文地址:https://arxiv.org/pdf/2310.03214.pdf论文由Google、UniversityofMassachusettsAmherst、OpenAI联合发布。    大部分大语言模型只会训练一次,不会被频繁的更新,训练用到的知识会慢慢过时,所以它无法适应变化的世界。论文作者提出了动态问答的基准测试,称为FRESHQA,并且提出了一种简单的解决问题的方法,FRESHPROMPT。        FRESHQA收集的问题根据

知识图谱实战导论:从什么是KG到LLM与KG/DB的结合实战

前言本文侧重讲解:什么是知识图谱LLM与langchain/数据库/知识图谱的结合应用比如,虽说基于知识图谱的问答早在2019年之前就有很多研究了,但谁会想到今年KBQA因为LLM如此突飞猛进呢第一部分知识图谱入门导论1.1什么是知识图谱为了写本第一部分的图谱入门导论,我特意看了下七月在线的知识图谱入门实战的所有课件,对于快速梳理非常不错,因此本部分2/3的内容都来自该课程,更多细节可以看原课程1.1.1实体、关系知识图谱是⼀种基于图的数据结构,由节点(point)和边(Edge)组成,每个节点表示⼀个“实体”,每条边为实体与实体之间的“关系”,知识图谱本质上是语义⽹络实体指的可以是现实世界中

使用TensorRT-LLM进行高性能推理

LLM的火爆之后,英伟达(NVIDIA)也发布了其相关的推理加速引擎TensorRT-LLM。TensorRT是nvidia家的一款高性能深度学习推理SDK。此SDK包含深度学习推理优化器和运行环境,可为深度学习推理应用提供低延迟和高吞吐量。而TensorRT-LLM是在TensorRT基础上针对大模型进一步优化的加速推理库,它号称可以增加4倍的推理速度。所以本文将对其做一个简单的使用介绍。前所未有的优化在AI世界中优化不仅是一种福利而且是必要的。TensorRT-LLM引入了一系列在模型和运行时级别都具有开创性的优化。在模型级别,TensorRT-LLM采用复杂的策略,如内核融合,将其中多个

【TensorRT】基于C#调用TensorRT 部署Yolov5模型 - 上篇:构建TensorRTSharp

基于C#调用TensorRT部署Yolov5模型1.构建TensorRTSharp1.1创建动态链接库项目1.1.1新建TensorRT接口实现文件1.1.2配置C++项目属性1.2编写C++代码1.2.1推理引擎结构体1.2.2接口方法规划1.2.3ONNX模型转换1.2.4初始化推理模型1.2.5创建GPU显存输入/输出缓冲区1.2.6配置图片输入数据1.2.7模型推理1.2.8读取推理数据1.2.9删除推理核心结构体指针1.3编写模块定义文件1.4生成dll文件 NVIDIATensorRT™是用于高性能深度学习推理的SDK,可为深度学习推理应用提供低延迟和高吞吐量。详细安装方式参考以下