jjzjj

TensorRT-LLM

全部标签

4万亿晶体管5nm制程,全球最快AI芯片碾压H100!单机可训24万亿参数LLM,Llama 70B一天搞定

全球最快、最强的AI芯片面世,让整个行业瞬间惊掉了下巴!就在刚刚,AI芯片初创公司Cerebras重磅发布了「第三代晶圆级引擎」(WSE-3)。性能上,WSE-3是上一代WSE-2的两倍,且功耗依旧保持不变。90万个AI核心,44GB的片上SRAM存储,让WSE-3的峰值性能达到了125FP16PetaFLOPS。这相当于52块英伟达H100GPU!不仅如此,相比于800亿个晶体管,芯片面积为814平方毫米的英伟达H100。采用台积电5nm制程的WSE-3,不仅搭载了40000亿个晶体管(50倍),芯片面积更是高达46225平方毫米(57倍)。专为AI打造的计算能力此前,在传统的GPU集群上,

stable diffusion webui安装TensorRT扩展2024.1

如果你的stablediffusionwebui(auto1111开源版)不能安装TensorRT扩展,现象是无限挂机,同时确定你的webui版本是1.6.1以上的话,可以按照本方法临时解决。TensorRT是什么,可以见我另外个贴子,反正生成速度很快就是了,但对硬件有要求,就是要有tensorcore的GPU,简单判断就是RTX起步的显卡。如果你已经安装过此扩展了,请从extensions子目录中找到tensorrt的子目录,然后删了。删除后webui就可以正常启动了。启动后,现在web界面的扩展页中,点选url安装方式。在地址栏中填入临时库目录:https://github.com/and

大模型LLM在 Text2SQL 上的应用实践

一、前言目前,大模型的一个热门应用方向Text2SQL,它可以帮助用户快速生成想要查询的SQL语句,再结合可视化技术可以降低使用数据的门槛,更便捷的支持决策。本文将从以下四个方面介绍LLM在Text2SQL应用上的基础实践。·Text2SQL概述·LangChain基础知识·基于SQLDatabaseChain的Text2SQL实践·后续计划二、Text2SQL概述Text-to-SQL(或者Text2SQL),顾名思义就是把文本转化为SQL语言,更学术一点的定义是:把数据库领域下的自然语言(NaturalLanguage,NL)问题,转化为在关系型数据库中可以执行的结构化查询语言(Struc

大语言模型(LLM)最常见的十大安全风险

开放式Web应用程序安全项目(OWASP,OpenWebApplicationSecurityProject)是一个组织,它提供有关计算机和互联网应用程序的公正、实际、有成本效益的信息。其目的是协助个人、企业和机构来发现和使用可信赖软件,其最近提出了LLM(大语言模型,代表是GPT)十大安全风险。图:LLM的10大安全风险在语言模型开发周期中的位置LLM01:Prompt注入Prompt注入是一种经常讨论也是最为常见的的LLM攻击方式,当攻击者通过精心设计的输入直接或间接操纵受信任的LLM时,LLM会忽略预设定的审核准则,执行黑客指令。例如,攻击者利用LLM对包含恶意提示注入的网页进行汇总,导

构建本地运行的LLM语音助理

译者 |朱先忠审校|重楼引言我不得不承认,我最初对大型语言模型(LLM)生成实际有效的代码片段的能力持怀疑态度。我抱着最坏的打算尝试了一下,结果我感到很惊喜。就像与聊天机器人的任何互动一样,问题的格式很重要;但随着时间的推移,你会知道如何指定你需要帮助的问题的边界。当我的老板发布了一项全公司范围的政策——禁止员工使用在线聊天机器人服务时,我已经习惯了在编写代码时始终可以使用这类服务。尽管我可以回到以前的谷歌搜索习惯,但我还是决定建立一个在本地运行的LLM服务;这样一来,我就可以在不将信息泄露到公司外面的情况下继续向机器人提出问题了。最后,多亏了HuggingFace网站(https://hug

OpenShift AI - 部署并使用 LLM 模型

《OpenShift/RHEL/DevSecOps汇总目录》说明:本文已经在OpenShift4.15+RHODS2.7.0的环境中验证文章目录安装OpenShiftAI环境安装Minio对象存储软件配置SingleModelServing运行环境创建项目和Workbench准备模型和配置ModelServer访问LLM模型参考安装OpenShiftAI环境先根据《OpenShiftAI-部署OpenShiftAI环境,运行AI/ML应用(视频)》一文完成OpenShiftAI环境的安装。注意:本应用无需GPU即可运行。安装Minio对象存储软件根据《OpenShift4-管理和使用OpenS

LLM 技术图谱(LLM Tech Map)& Kubernetes (K8s) 与AIGC的结合应用

文章目录1、简介2、基础设施3、大模型3、AIAgent(LLMAgent)4、AI编程5、工具和平台6、算力7、Kubernetes(K8s)与人工智能生成内容(AIGC)的结合应用7.1、摘要7.2、介绍7.3、K8s与AIGC的结合应用7.4、实践案例7.5、结论1、简介LLM技术图谱(LLMTechMap)是将LLM相关技术进行系统化和图形化的呈现,此图谱主要特点是“专注于技术人视角”,不求从LLM产业角度汇聚信息,而是希望让从事相关工作或是想了解LLM的技术人有一个快速感知。LLM技术图谱(LLMTechMap)从基础设施、大模型、Agent、AI编程、工具和平台,以及算力几个方面,

LeCun最新专访:为什么物理世界终将成为LLM的「死穴」?

在人工智能领域,很少有像YannLeCun这样的学者,在65岁的年龄还能高度活跃于社交媒体。一直以来,YannLeCun都是以「直言不讳的批评者」形象活跃于人工智能领域。他始终支持开源,并带领Meta的团队推出了占据如今开源大模型领域半壁江山的Llama2;他对很多人深感恐慌的人工智能末日论不以为然,坚信AGI的到来一定是件好事……近日,LeCun又一次来到LexFridman的播客,展开了一场接近三个小时的对谈,内容涉及开源的重要性、LLM的局限性、为什么人工智能末日论者是错误的,以及通向AGI的道路等话题。观看页面:https://youtu.be/5t1vTLU7s40?feature=

用通俗易懂的方式讲解大模型:使用 LangChain 封装自定义的 LLM,太棒了

Langchain默认使用OpenAI的LLM(大语言模型)来进行文本推理工作,但主要的问题就是数据的安全性,跟OpenAILLM交互的数据都会上传到OpenAI的服务器。企业内部如果想要使用LangChain来构建应用,那最好是让LangChain使用企业内部的LLM,这样才能保证数据不泄露。LangChain提供了集成多种LLM的能力,包括自定义的LLM,今天我们就来介绍一下如何使用LangChain来集成自定义的LLM以及其中的实现原理。开源大模型虽然现在的商业大模型(OpenAI和Anthropic)功能十分强大,但开源大模型愈来愈有迎头赶上的趋势,比如最近刚发布的Falcon-180

Java-langchain:在Java环境中构建强大的基于LLM的应用程序

Java-langchain:一个Java8+的LangChain实现。在(企业)Java环境中构建强大的基于LLM的应用程序。这里持续连载详细的Java入门的LLM学习课程。课程分四个部分:面向开发者的提示工程(promptdevelopment)搭建基于ChatGPT的问答系统(chagptapi)使用LangChain开发应用程序(langchain)使用LangChain访问个人数据(开发中)Java快速转换到大模型开发:配套课程的所有代码已经发布在:https://github.com/Starcloud-Cloud/java-langchain课程合作请留言