创建自己的大模型应用

03-07 1328阅读

教大型语言模型(LLM)思考的过程,有点像苏格拉底的“产婆术”。苏格拉底认为,他不能代替别人思考,但他可以通过提问引导别人思考,就好像产婆引导孕妇一样。

创建自己的大模型应用
(图片来源网络,侵删)

如何搭建一个自主可控的大模型(LLM)底座,所以即使你的工作环境不允许使用 OpenAI API 也没关系

首先,我们来为你的原型系统搭建一个“调度中心”,也就是用LangChain把LLM和记忆,工具,计划组件有机结合起来。使用LangChain基于 OpenAI 的 LLM 制作一个简易的 ChatGPT。

ConversationBufferMemory,它将帮助 LLM 记录我们的对话过程。

 ConversationChain,它会帮我们管理整个会话过程,通过调取 BufferMemory 中的对话信息,让无状态的 LLM 了解我们的对话上下文。

from langchain.llms import OpenAI
from langchain.chains import ConversationChain
from langchain.memory import ConversationBufferMemory

 建好自己的大模型后,需要微调和训练领域知识

  1. 领域知识文档进行切片,生成语义向量(Embedding),存入向量数据库作为外部记忆。

  2. 建立向量数据库,检索向量数据库,获取技术文档的内容片段。

  3. 把检索反馈和问题一并交给大语言模型(LLM),让它理解文档内容,并针对问题形成恰当回答,返回。

以使用“更大”的模型来提升效果,比如 Meta 开源的 Llama 系列模型。Llama 是 Meta AI 公司于 2023 年 2 月发布的大型语言模型系列,Llama-2 已经非常接近 GPT-3.5 的水平,而且可以免费商用。

使用 Langchain 将你的 LLM 应用组合起来

VPS购买请点击我

文章版权声明:除非注明,否则均为主机测评原创文章,转载或复制请以超链接形式并注明出处。

目录[+]