type
Post
status
Published
date
Mar 26, 2026
slug
summary
tags
category
技术分享
password
这里写文章的前言:
要实现“大模型 + 本地知识库”,行业标准做法是
RAG (Retrieval-Augmented Generation)
由于前端主要负责展示和交互,为了保护 API Key 安全并处理复杂的业务逻辑
所有的 LangChain 编排和 AI 调用都必须在你的后端(Node.js/Python)完成。
本次方案分享主要面向于NodeJs进行大模型的调用,该语言选型对于前端和全栈同学更加容易上手。
📝 主旨内容
第一阶段:AI 点亮测试(跑通 LLM 基础调用)
这一阶段的目标极度单纯:不管什么业务逻辑,只要能在 NestJS 里把一段死文本发给大模型,并成功拿到回复就算胜利。
1. 准备大模型 API Key
目前市面上绝大多数模型都兼容 OpenAI 的接口格式。为了网络连通性和性价比,你可以选择国内的大模型(如 DeepSeek、通义千问、智谱等),获取一个 API Key,并在 NestJS 的文件中配置。
以阿里云为例(https://bailian.console.aliyun.com/),我目前选择的是qwen-max模型,首次注册后会送1000000的Token供于使用。
从左下角的API Key点击进入后,可点击复制按钮获取到当前的API Key,没有的用户可以点击右上角的创建API进行新建。


2. 安装核心依赖
我目前是使用的NodeJs中的nest框架,以下都会根据在此框架下进行相应的操作,使用其他后端框架的同学根据该思路进行优化至自身的代码中。
3. 构建 NestJS 模块
在 NestJS 中新建一个
ai 模块(包含 ai.module.ts, ai.service.ts, ai.controller.ts)。在
ai.service.ts 中,写下你的第一段 LLM 调用代码:在
ai.controller.ts 中,将服务封装为接口并导出:成功调用

第二阶段:生成专属 Prompt(动态注入用户信息)
现在我们需要把写死的字符串,变成一个带有“占位符”的模板。我们将使用 LangChain 的PromptTemplate组件,将用户的信息融入到你的提示词中
1. 修改你的业务逻辑(ai.service.ts)
核心:使用
PromptTemplate 组件,将用户对应的个人信息(名称、星座、年龄)等作为参数作为变量融入到你的提示词中,组合成为你融入过的大模型的提示词。调用成功,得到结果

第三阶段:引入 RAG(让大模型读取你的知识库)
前情提要:向量的逻辑(以我的当前一款星座运势项目为例)
1. 安装 RAG 必须的依赖库
在后端项目终端执行:
2.彻底重构 ai.service.ts(加入 RAG 核心逻辑)
在 RAG 的标准流程中,我们不再是盲目地把 LangChain 封装的黑盒链(Chain)套进去,而是手动进行检索,再拼接 Prompt。

- Author:Ashland
- URL:http://preview.tangly1024.com/article/32fcccc0-3782-8092-ab9f-c0d6b99d9a08
- Copyright:All articles in this blog, except for special statements, adopt BY-NC-SA agreement. Please indicate the source!



