jjzjj

langchain-ChatGLM

全部标签

类ChatGPT国产大模型ChatGLM-6B,单卡即可运行

2023年3月14日GPT4又发布了,在ChatGPT发展如火如荼的当下,我们更应该关注国内的进展,今天将分享一个清华大学基于GLM-130B模型开发的类似ChatGPT的ChatGLM-6B模型,ChatGLM-6B是一个开源的、支持中英双语的对话语言模型,基于 GeneralLanguageModel(GLM) 架构,具有62亿参数。结合模型量化技术,用户可以在消费级的显卡上进行本地部署(INT4量化级别下最低只需6GB显存)。ChatGLM-6B使用了和ChatGPT相似的技术,针对中文问答和对话进行了优化。经过约1T标识符的中英双语训练,辅以监督微调、反馈自助、人类反馈强化学习等技术的

大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型

大模型学习笔记(一):部署ChatGLM模型以及stable-diffusion模型注册算力平台(驱动云平台)1.平台注册2.查看算力3.进入平台中心部署ChatGLM3-6B模型1.创建项目2.配置环境设置镜像源、克隆项目修改requirements3.修改web_demo_gradio.py代码1、修改模型目录2、修改启动代码3、添加外部端口映射4、运行gradio界面5、访问gradio页面4.修改web_demo_streamlit.py代码1、修改模型目录2、运行streamlit界面3、访问streamlit界面用免费GPU部署自己的stable-diffusion1.创建项目2.

基于LLM的文档搜索引擎开发【Ray+LangChain】

Ray是一个非常强大的ML编排框架,但强大的功能伴随着大量的文档。事实上120兆字节。我们如何才能使该文档更易于访问?答案:使其可搜索!过去,创建自己的高质量搜索结果很困难。但通过使用LangChain,我们可以用大约100行代码来构建它。这就是LangChain的用武之地。LangChain为LLM相关的一切提供了一套令人惊叹的工具。它有点像HuggingFace,但专门针对LLM。有用于提示、索引、生成和总结文本的工具(链)。Ray虽然是一个令人惊叹的工具,但与它配合使用可以让LangChain变得更加强大。特别是,它可以:简单快速地帮助你部署LangChain服务。允许Chains与LL

聊聊ChatGLM-6B医疗数据微调

转载请注明出处:https://www.cnblogs.com/zhiyong-ITNote/参考了多个医疗大模型,如扁鹊、灵心等,重新思考了下微调的方案以及数据集的格式;基于ChatGLM/其它LLM整合多种微调方法的非官方实现的框架,审视其数据集格式,以及调试效果,进行微调。最终基于liucongg/ChatGLM-Finetuning开源框架成功的微调出来我想要的结果。服务器环境阿里云PAI平台开源库下载在服务器上通过git一键下载即可:ChatGLM-6B下载直接在服务器上,通过魔塔社区的sdk下载代码一键下载即可:我加了一句代码打印出下载地址,然后通过mv命令拷贝到指定路径下。#模型

从API到Agent:万字长文洞悉LangChain工程化设计

我想做一个尝试,看看能不能用尽量清晰的逻辑,给“AI外行人士”(当然,我也是……)引入一下LangChain,试着从工程角度去理解LangChain的设计和使用。同时大家也可以将此文档作为LangChain的“10分钟快速上手”手册,本意是希望帮助需要的同学实现AI工程的Bootstrap。文中所有的示例代码都已托管到GitHub:https://github.com/TuGraph-contrib/langchain-demo喜欢实操的小伙伴可以边阅读,边复现。1.引言1.1什么是LangChain?正式开始前,还是有必要从定义(What)开始。LangChain是2022年10月底,由哈佛

LangGraph:一个基于LangChain构建的AI库,用于创建具有状态、多参与者的应用程序

每周跟踪AI热点新闻动向和震撼发展想要探索生成式人工智能的前沿进展吗?订阅我们的简报,深入解析最新的技术突破、实际应用案例和未来的趋势。与全球数同行一同,从行业内部的深度分析和实用指南中受益。不要错过这个机会,成为AI领域的领跑者。点击订阅,与未来同行!订阅:https://rengongzhineng.io/。 需要构建一种系统,能够响应用户输入、记住过去的互动,并基于这些历史记录做出决策。这种需求对于创建更像智能代理的应用程序至关重要,它们能够维持对话、记住过去的上下文,并做出明智的决策。目前,一些解决方案解决了这个问题的部分方面。有些框架允许创建带有语言模型的应用程序,但它们无法有效地支

【DataWhale学习】用免费GPU线上跑chatGLM项目实践

用免费GPU线上跑chatGLM项目实践​DataWhale组织了一个线上白嫖GPU跑chatGLM与SD的项目活动,我很感兴趣就参加啦。之前就对chatGLM有所耳闻,是去年清华联合发布的开源大语言模型,可以用来打造个人知识库什么的,一直没有尝试。而SD我前两天刚跟着B站秋叶大佬和Nenly大佬的视频学习过,但是生成某些图片显存吃紧,想线上部署尝试一下。参考:DataWhale学习手册链接1学习简介本文以趋动云平台为例,详细介绍下如何通过平台提供的在线开发环境,直接在云端编写、运行代码,并使用GPU资源进行加速。本教程将学习云算力资源的使用方式,并给出了两个AI项目实践:用免费GPU创建属于

es混合检索与langchain检索增强

LangchainRetrieverMultiQueryRetriever,利用llm为问题生成3个意思接近的问题,根据3个问题检索相关文档并全部返回。MultiVectorRetriever,当同一个文档在向量库中因存储不同向量而存在多条记录时,通过id进行去重。代码实现非常简单,不知道有什么用,为什么不存储为多个向量字段而不是多个文档,可能是因为langchain的vectorstore只支持检索一个向量字段。classMultiVectorRetriever(BaseRetriever):"""Retrievefromasetofmultipleembeddingsforthesamed

万字带你了解ChatGLM

本文分享自华为云社区《【云驻共创】华为云之昇思MindSpore大模型专题(第二期)-第一课:ChatGLM》,作者:愚公搬代码。前言1.昇思MindSpore昇思MindSpore是华为公司推出的一款全场景AI计算框架。它提供了自动微分、分布式训练和推理、模型部署等功能,支持多种硬件平台,包括CPU、GPU和AscendAI处理器。MindSpore采用图和算子相结合的编程模型,能够高效地处理复杂的深度学习任务。它具有灵活的设计、高效的性能和易于使用的接口,使开发者能够更快地开发和部署AI应用。MindSpore还支持自定义操作和算法,可以满足不同场景下的需求。2.大模型大模型是指具有数百万

【02】ChatGLM3-6B部署:CentOS7.9本地部署ChatGLM3-6B模型

一、ChatGLM-6B模型ChatGLM3是智谱AI和清华大学KEG实验室联合发布的对话预训练模型。ChatGLM3-6B是ChatGLM3系列中的开源模型,在保留了前两代模型对话流畅、部署门槛低等众多优秀特性的基础上,ChatGLM3-6B引入了如下特性:(1)更强大的基础模型:ChatGLM3-6B的基础模型ChatGLM3-6B-Base采用了更多样的训练数据、更充分的训练步数和更合理的训练策略。在语义、数学、推理、代码、知识等不同角度的数据集上测评显示,*ChatGLM3-6B-Base具有在10B以下的基础模型中最强的性能*。(2)更完整的功能支持:ChatGLM3-6B采用了全新