一款以 Kubernetes 为内核的云操作系统发行版,利用 Sealos 做事,无需采购做事器、无需域名,支持高并发 & 动态伸缩,并且数据库运用采取 kubeblocks 的数据库,在 IO 性能方面,远超于大略的 Docker 容器支配

核心功能运用管理:在模板市场中轻松管理并快速发布可公网访问的分布式运用。
数据库管理:秒级创建高可用数据库,支持 MySQL、PostgreSQL、MongoDB 和 Redis。
公私同等:即是公有云也是私有云,支持传统运用无缝迁移到云环境。
上风高效 & 经济:仅需为容器付费,自动伸缩杜绝资源摧残浪费蹂躏,大幅度节省本钱。
通用性强,无心智包袱:专注于业务本身,无需担心繁芜性,险些没有学习本钱。
灵巧 & 安全:多租户共享机制在确保安全的同时,实现资源隔离与高效协作。

北京区做事供应商为火山云,海内用户可以稳定访问,但无法访问 OpenAI 等境外做事,价格约为新加坡区的 1/4。
登录链接:https://bja.sealos.run/?openapp=system-template%3FtemplateName%3Dfastgpt

登录FastGPT直接就可以利用,模板市场有一些例子

同时Sealos市场也供应了很多AI运用

FastGPT一站式解决筹划1支配篇轻松实现RAG智能问答系统

更多配置见:https://doc.tryfastgpt.ai/docs/development/sealos/

2.Docker支配2.1 推举配置

MongoDB:用于存储除了向量外的各种数据,PostgreSQL/Milvus:存储向量数据,OneAPI: 聚合各种 AI API,支持多模型调用

PgVector 版本

体验测试首选

| 环境 | 最低配置(单节点) | 推举配置 | |----------|-------------|--------------| | 测试 | 2c2g | 2c4g | | 100w 组向量 | 4c8g 50GB | 4c16g 50GB | | 500w 组向量 | 8c32g 200GB | 16c64g 200GB |

“c”代表CPU核心数量,“g”代表内存大小,而“GB”则是存储空间大小的单位

Milvus 版本

对付千万级以上向量性能更精良。

点击查看 Milvus 官方推举配置

| 环境 | 最低配置(单节点) | 推举配置 | |----------|-----------|-------| | 测试 | 2c8g | 4c16g | | 100w 组向量 | 未测试 | | | 500w 组向量 | | |

详细配置参考:https://milvus.io/docs/prerequisite-docker.md

zilliz cloud 版本

亿级以上向量首选。
由于向量库利用了 Cloud,无需占用本地资源,无需太关注。

2.2 前置事情确保网络环境

如果利用OpenAI等国外模型接口,请确保可以正常访问,否则会报错:Connection error 等。
方案可以参考:代理方案

准备 Docker 环境

#安装 Dockercurl -fsSL https://get.docker.com | bash -s docker --mirror Aliyunsystemctl enable --now docker#安装 docker-composecurl -L https://github.com/docker/compose/releases/download/v2.20.3/docker-compose-`uname -s`-`uname -m` -o /usr/local/bin/docker-composechmod +x /usr/local/bin/docker-compose#验证安装docker -vdocker-compose -v#如失落效,自行百度~2.3 开始支配1. 下载 docker-compose.yml

非 Linux 环境或无法访问外网环境,可手动创建一个目录,并下载配置文件和对应版本的docker-compose.yml,在这个文件夹中依据下载的配置文件运行 docker,若作为本地开拓利用推举docker-compose-pgvector版本,并且自行拉取并运行sandbox和fastgpt,并在 docker 配置文件中注释掉sandbox和fastgpt的部分

config.jsondocker-compose.yml (把稳,不同向量库版本的文件不一样)

所有 docker-compose.yml 配置文件中 MongoDB 为 5.x,须要用到 AVX 指令集,部分 CPU 不支持,需手动变动其镜像版本为 4.4.24(须要自己在 docker hub 下载,阿里云镜像没做备份)

Linux 快速脚本

mkdir fastgptcd fastgptcurl -O https://raw.githubusercontent.com/labring/FastGPT/main/projects/app/data/config.json#pgvector 版本(测试推举,大略快捷)curl -o docker-compose.yml https://raw.githubusercontent.com/labring/FastGPT/main/files/docker/docker-compose-pgvector.yml#milvus 版本#curl -o docker-compose.yml https://raw.githubusercontent.com/labring/FastGPT/main/files/docker/docker-compose-milvus.yml#zilliz 版本#curl -o docker-compose.yml https://raw.githubusercontent.com/labring/FastGPT/main/files/docker/docker-compose-zilliz.yml

如果下载不下来建议采取下面方法:

从github官网下载所有文件,然后进入FastGPT-main/files/docker

docker compose -f docker-compose-pgvector.yml up#cp docker-compose-pgvector.yml docker-compose.yml#docker compose up

并将/projects/app/data/config.json 移动到docker目录下

2. 修正 docker-compose.yml 环境变量

PG和milvus无需修正,zilliz参考如下

修正MILVUS_ADDRESS和MILVUS_TOKEN链接参数,分别对应 zilliz 的 Public Endpoint 和 Api key,记得把自己 ip 加入白名单。

3. 启动容器

在 docker-compose.yml 同级目录下实行。
请确保docker-compose版本最好在 2.17 以上,否则可能无法实行自动化命令。

4. 打开 OneAPI 添加模型

可以通过ip:3001访问 OneAPI,默认账号为root密码为123456。

在 OneApi 中添加得当的 AI 模型渠道。
点击查看干系教程

添加月之暗面为例商业模型为例

修正config.json文件,添加对应模型

, { "model": "moonshot-v1-128k", "name": "moonshot-v1-128k", "avatar": "/imgs/model/moonshot.svg", "maxContext": 125000, "maxResponse": 8000, "quoteMaxToken": 120000, "maxTemperature": 1.2, "charsPointsPrice": 0, "censor": false, "vision": true, "datasetProcess": false, "usedInClassify": true, "usedInExtractFields": true, "usedInToolCall": true, "usedInQueryExtension": true, "toolChoice": true, "functionCall": false, "customCQPrompt": "", "customExtractPrompt": "", "defaultSystemChatPrompt": "", "defaultConfig": {} }

然后重启docker

docker-compose downdocker-compose up -d

5. 访问 FastGPT

目前可以通过 ip:3000 直接访问 (把稳防火墙)。
登任命户名为 root,密码为docker-compose.yml环境变量里设置的 DEFAULT_ROOT_PSW。

如果须要域名访问,请自行安装并配置 Nginx。

首次运行,会自动初始化 root 用户,密码为 1234(与环境变量中的DEFAULT_ROOT_PSW同等),日志里会提示一次MongoServerError: Unable to read from a snapshot due to pending collection catalog changes;可忽略。

2.4 Xinference 支配模型接入

Xinference 是一款开源模型推理平台,除了支持 LLM,它还可以支配 Embedding 和 ReRank 模型,这在企业级 RAG 构建中非常关键。
同时,Xinference 还供应 Function Calling 等高等功能。
还支持分布式支配,也便是说,随着未来运用调用量的增长,它可以进行水平扩展。

详细安装内容参考:Xinference实战指南:全面解析LLM大模型支配流程,加速AI项目落地进程官网:https://xorbits.cn/inferencegithub:https://github.com/xorbitsai/inference/tree/main官方手册:https://inference.readthedocs.io/zh-cn/latest/index.html

如果你的目标是在一台 Linux 或者 Window 做事器上支配大模型,可以选择 Transformers 或 vLLM 作为 Xinference 的推理后端:

Transformers:通过集成 Huggingface 的 Transformers 库作为后端,Xinference 可以最快地 集成当本日然措辞处理(NLP)领域的最前沿模型(自然也包括 LLM)。
vLLM: vLLM 是由加州大学伯克利分校开拓的一个开源库,专为高效做事大型措辞模型(LLM)而设计。
它引入了 PagedAttention 算法, 通过有效管理把稳力键和值来改进内存管理,吞吐量能够达到 Transformers 的 24 倍,因此 vLLM 适宜在生产环境中利用,应对高并发的用户访问。
SGLang :是一个用于大型措辞模型和视觉措辞模型的推理框架。
基于并增强了多个开源 LLM 做事引擎(包括LightLLM、vLLM和Guidance )的许多精良设计。
SGLang 利用了FlashInfer把稳力性能 CUDA 内核,并集成了受gpt-fast启示的 torch.compile1 x A100 (bf16) 上的 Llama-8B 从小模型 Llama-8B 开始,下图展示了每个引擎在离线设置下在六个不同数据集上可以实现的最大输出吞吐量。
TensorRT-LLM 和 SGLang 都可以在输入较短的数据集上实现高达每秒 5000 个 token 的出色吞吐量。

假设你做事器配备 NVIDIA 显卡,可以cuda安装教程详解指令来安装 CUDA,从而让 Xinference 最大限度地利用显卡的加速功能。

安装 Xinference

详细安装内容参考:Xinference实战指南:全面解析LLM大模型支配流程,加速AI项目落地进程

首先我们须要准备一个 3.9 以上的 Python 环境运行来 Xinference,建议先根据 conda 官网文档安装 conda。
然后利用以下命令来创建 3.11 的 Python 环境:

conda create --name xinference python=3.11conda activate xinference

以下两条命令在安装 Xinference 时,将安装 Transformers 和 vLLM 作为 Xinference 的推理引擎后端:

pip install "xinference"pip install "xinference[ggml]"pip install "xinference[pytorch]"#安装xinference所有包pip install "xinference[all]"pip install "xinference[transformers]" -i https://pypi.tuna.tsinghua.edu.cn/simplepip install "xinference[vllm]" -i https://pypi.tuna.tsinghua.edu.cn/simplepip install "xinference[transformers,vllm]" # 同时安装#或者一次安装所有的推理后端引擎pip install "xinference[all]" -i https://pypi.tuna.tsinghua.edu.cn/simplepython -c "import torch; print(torch.cuda.is_available())"

如果输出结果为True,则表示 PyTorch 正常,否则须要重新安装 PyTorch。

启动xinference 做事(UI) Xinference 默认会在本地启动做事,端口默认为 9997。
由于这里配置了-H 0.0.0.0参数,非本地客户端也可以通过机器的 IP 地址来访问 Xinference 做事。

xinference-local --host 0.0.0.0 --port 7861xinference-local -H 0.0.0.0将本地模型接入 One API

为 qwen2-instruct 添加一个渠道,这里的 Base URL 须要填 Xinference 做事的端点,并且注册 qwen2-instruct (模型的 UID) 。

可以利用以下命令进行测试:将 更换为你的 One API 地址, 更换为你的 One API 令牌。
model 为刚刚在 One API 填写的自定义模型。

curl --location --request POST 'https://<oneapi_url>/v1/chat/completions' \--header 'Authorization: Bearer <oneapi_token>' \--header 'Content-Type: application/json' \--data-raw '{ "model": "qwen2-instructt", "messages": [{"role": "user", "content": "Hello!"}]}'将本地模型接入 FastGPT

由于环境变量不利于配置繁芜的内容,新版 FastGPT 采取了 ConfigMap 的形式挂载配置文件,你可以在 projects/app/data/config.json 看到默认的配置文件。
可以参考 docker-compose 快速支配 来挂载配置文件。

开拓环境下,你须要将示例配置文件 config.json 复制成 config.local.json 文件才会生效。

参考官网配置文件先容:

关于模型 logo 统一放置在项目的public/imgs/model/xxx目录中,目前内置了以下几种,如果有须要,可以PR增加。
默认头像为 Hugging face 的 logo~

/imgs/model/baichuan.svg - 百川/imgs/model/chatglm.svg - 智谱/imgs/model/calude.svg - calude/imgs/model/ernie.svg - 文心一言/imgs/model/moonshot.svg - 月之暗面/imgs/model/openai.svg - OpenAI GPT/imgs/model/qwen.svg - 通义千问/imgs/model/yi.svg - 零一万物/imgs/model/gemini.svg - gemini/imgs/model/deepseek.svg - deepseek/imgs/model/minimax.svg - minimaxLLM

"feConfigs": { "lafEnv": "https://laf.dev" // laf环境。
https://laf.run (杭州阿里云) ,或者私有化的laf环境。
如果利用 Laf openapi 功能,须要最新版的 laf 。
}, "systemEnv": { "vectorMaxProcess": 15, "qaMaxProcess": 15, "pgHNSWEfSearch": 100 // 向量搜索参数。
越大,搜索越精确,但是速率越慢。
设置为100,有99%+精度。
}, "llmModels": [ { "model": "gpt-3.5-turbo", // 模型名(对应OneAPI中渠道的模型名) "name": "gpt-3.5-turbo", // 别名 "avatar": "/imgs/model/openai.svg", // 模型的logo "maxContext": 16000, // 最大高下文 "maxResponse": 4000, // 最大回答 "quoteMaxToken": 13000, // 最大引用内容 "maxTemperature": 1.2, // 最大温度 "charsPointsPrice": 0, // n积分/1k token(商业版) "censor": false, // 是否开启敏感校验(商业版) "vision": false, // 是否支持图片输入 "datasetProcess": true, // 是否设置为知识库处理模型(QA),务必担保至少有一个为true,否则知识库会报错 "usedInClassify": true, // 是否用于问题分类(务必担保至少有一个为true) "usedInExtractFields": true, // 是否用于内容提取(务必担保至少有一个为true) "usedInToolCall": true, // 是否用于工具调用(务必担保至少有一个为true) "usedInQueryExtension": true, // 是否用于问题优化(务必担保至少有一个为true) "toolChoice": true, // 是否支持工具选择(分类,内容提取,工具调用会用到。
目前只有gpt支持) "functionCall": false, // 是否支持函数调用(分类,内容提取,工具调用会用到。
会优先利用 toolChoice,如果为false,则利用 functionCall,如果仍为 false,则利用提示词模式) "customCQPrompt": "", // 自定义文本分类提示词(不支持工具和函数调用的模型 "customExtractPrompt": "", // 自定义内容提取提示词 "defaultSystemChatPrompt": "", // 对话默认携带的系统提示词 "defaultConfig":{} // 要求API时,挟带一些默认配置(比如 GLM4 的 top_p) }], "vectorModels": [ { "model": "text-embedding-ada-002", // 模型名(与OneAPI对应) "name": "Embedding-2", // 模型展示名 "avatar": "/imgs/model/openai.svg", // logo "charsPointsPrice": 0, // n积分/1k token "defaultToken": 700, // 默认文本分割时候的 token "maxToken": 3000, // 最大 token "weight": 100, // 优先演习权重 "defaultConfig":{}, // 自定义额外参数。
例如,如果希望利用 embedding3-large 的话,可以传入 dimensions:1024,来返回1024维度的向量。
(目前必须小于1536维度) "dbConfig": {}, // 存储时的额外参数(非对称向量模型时候须要用到) "queryConfig": {} // 参训时的额外参数 } ],

{ "model": "qwen2-instruct", "name": "qwen2-instruct", "avatar": "/imgs/model/qwen.svg", "maxContext": 125000, "maxResponse": 8000, "quoteMaxToken": 120000, "maxTemperature": 1.2, "charsPointsPrice": 0, "censor": false, "vision": true, "datasetProcess": false, "usedInClassify": true, "usedInExtractFields": true, "usedInToolCall": true, "usedInQueryExtension": true, "toolChoice": true, "functionCall": false, "customCQPrompt": "", "customExtractPrompt": "", "defaultSystemChatPrompt": "", "defaultConfig": {} }向量模型

{ "model": "bge-m3", "name": "bge-m3", "avatar": "/imgs/model/bge.svg", "charsPointsPrice": 0, "defaultToken": 512, "maxToken": 3000, "weight": 100 }ReRank 接入(私有支配)

配置文件中的 reRankModels 为重排模型,虽然是数组,不过目前仅有第1个生效。

{ "reRankModels": [ { "model": "bge-reranker-base", // 随意 "name": "检索重排-base", // 随意 "charsPointsPrice": 0, "requestUrl": "{{host}}/v1/rerank", "requestAuth": "安全凭据,已自动补 Bearer" } ]}

格式参考:目前仅有第1个生效

"reRankModels": [{ "model": "bge-reranker-v2-m3", // 随意 "name": "bge-reranker-v2-m3", // 随意 "charsPointsPrice": 0, "requestUrl": "http://10.80.1.252:7861/v1/rerank", "requestAuth": "Bearer" }, { "model": "jina-reranker-v2", // 随意 "name": "jina-reranker-v2", // 随意 "charsPointsPrice": 0, "requestUrl": "http://10.80.1.252:7861/v1/rerank", "requestAuth": "Bearer" } ],ReRank 接入(Cohere) 这个重排模型对中文不是很好,不如 bge 的好用。
申请 Cohere 官方 Key: https://dashboard.cohere.com/api-keys

{ "reRankModels": [ { "model": "rerank-multilingual-v2.0", // 这里的model须要对应 cohere 的模型名 "name": "检索重排", // 随意 "requestUrl": "https://api.cohere.ai/v1/rerank", "requestAuth": "Coherer上申请的key" } ]}

配置完成后重启fastgpt

docker-compose downdocker-compose up -d

3.FAQ (1)3.1 Mongo 副本集自动初始化失落败

最新的 docker-compose 示例优化 Mongo 副本集初始化,实现了全自动。
目前在 unbuntu20,22 centos7, wsl2, mac, window 均通过测试。
仍无法正常启动,大部分是由于 cpu 不支持 AVX 指令集,可以切换 Mongo4.x 版本。

如果是由于,无法自动初始化副本凑集,可以手动初始化副本集:

终端中实行下面命令,创建 mongo 密钥:修正 docker-compose.yml,挂载密钥重启做事进入容器实行副本凑集初始化3.2 如何修正 API 地址和密钥

默认是写了 OneAPi 的连接地址和密钥,可以通过修正docker-compose.yml中,fastgpt 容器的环境变量实现。

OPENAI_BASE_URL(API 接口的地址,须要加 / v1) CHAT_API_KEY(API 接口的凭据)。

修正完后重启:

3.3 如何更新版本查看更新文档,确认要升级的版本,避免跨版本升级。
修正镜像 tag 到指定版本实行下面命令会自动拉取镜像:实行初始化脚本(如果有)3.4 如何自定义配置文件

修正config.json文件,并实行docker-compose down再实行docker-compose up -d重起容器。
详细配置,参考配置详解。

3.5 如何检讨自定义配置文件是否挂载docker logs fastgpt 可以查看日志,在启动容器后,第一次要求网页,会进行配置文件读取,可以看看有没有读取成功以及有无缺点日志。
docker exec -it fastgpt sh 进入 FastGPT 容器,可以通过ls data查看目录下是否成功挂载config.json文件。
可通过cat data/config.json查看配置文件。

可能不生效的缘故原由

挂载目录禁绝确配置文件禁绝确,日志中会提示invalid json,配置文件须要是标准的 JSON 文件。
修正后,没有docker-compose down再docker-compose up -d,restart 是不会重新挂载文件的。
3.6 如何检说情况变量是否正常加载docker exec -it fastgpt sh 进入 FastGPT 容器。
直接输入env命令查看所有环境变量。
3.7 为什么无法连接本地模型镜像

docker-compose.yml中利用了桥接的模式建立了fastgpt网络,如想通过 0.0.0.0 或镜像名访问其它镜像,需将其它镜像也加入到网络中。

3.8端口冲突怎么办理?

docker-compose 端口定义为:映射端口:运行端口。

桥接模式下,容器运行端口不会有冲突,但是会有映射端口冲突,只需将映射端口修正身分歧端口即可。

如果容器1须要连接容器2,利用容器2:运行端口来进行连接即可。

(自行补习 docker 基本知识)

3.9relation “modeldata” does not exist

PG 数据库没有连接上 / 初始化失落败,可以查看日志。
FastGPT 会在每次连接上 PG 时进行表初始化,如果报错会有对应日志。

检讨数据库容器是否正常启动非 docker 支配的,须要手动安装 pg vector 插件查看 fastgpt 日志,有没有干系报错3.10 Illegal instruction

可能缘故原由:

arm 架构。
须要利用 Mongo 官方镜像: mongo:5.0.18cpu 不支持 AVX,无法用 mongo5,须要换成 mongo4.x。
把 mongo 的 image 换成: mongo:4.4.293.11 Operationauth_codes.findOne()buffering timed out after 10000ms

mongo 连接失落败,查看 mongo 的运行状态对应日志。

可能缘故原由:

mongo 做事有没有起来(有些 cpu 不支持 AVX,无法用 mongo5,须要换成 mongo4.x,可以 docker hub 找个最新的 4.x,修正镜像版本,重新运行)连接数据库的环境变量填写缺点(账号密码,把稳 host 和 port,非容器网络连接,须要用公网 ip 并加上 directConnection=true)副本集启动失落败。
导致容器一贯重启。
Illegal instruction.... Waiting for MongoDB to start: cpu 不支持 AVX,无法用 mongo5,须要换成 mongo4.x3.12 首次支配,root 用户提示未注册

日志会有缺点提示。
大概率是没有启动 Mongo 副本集模式。

3.13 登录提示 Network Error

由于做事初始化缺点,系统重启导致。

90% 是由于配置文件写不对,导致 JSON 解析报错剩下的基本是由于向量数据库连不上3.14 如何修正密码

修正docker-compose.yml文件中DEFAULT_ROOT_PSW并重启即可,密码会自动更新。

4.FastGPT 私有支配常见问题(2)4.1 缺点排查办法

碰着问题先按下面办法排查。

docker ps -a 查看所有容器运行状态,检讨是否全部 running,如有非常,考试测验docker logs 容器名查看对应日志。
容器都运行正常的,docker logs 容器名 查看报错日志带有requestId的,都是 OneAPI 提示缺点,大部分都是由于模型接口报错。
无法办理时,可以找找 github Issue,或新提 Issue,私有支配缺点,务必供应详细的日志,否则很难排查。
4.2 通用问题其他模型没法进行问题分类 / 内容提取 看日志。
如果提示 JSON invalid,not support tool 之类的,解释该模型不支持工具调用或函数调用,须要设置toolChoice=false和functionCall=false,就会默认走提示词模式。
目前内置提示词仅针对了商业模型 API 进行测试。
问题分类基本可用,内容提取不太行。
如果已经配置正常,并且没有缺点日志,则解释可能提示词不太适宜该模型,可以通过修正customCQPrompt来自定义提示词。
页面崩溃 关闭翻译检讨配置文件是否正常加载,如果没有正常加载会导致缺失落系统信息,在某些操作下会导致空指针。
95% 情形是配置文件不对。
会提示 xxx undefined提示URI malformed,请 Issue 反馈详细操作和页面,这是由于分外字符串编码解析报错。
某些 api 不兼容问题(较少)开启内容补全后,相应速率变慢 问题补全须要经由一轮 AI 天生。
会进行 3~5 轮的查询,如果数据库性能不敷,会有明显影响。
对话接口报错或返回为空 (core.chat.Chat API is error or undefined)检讨 AI 的 key 问题:通过 curl 要求看是否正常。
务必用 stream=true 模式。
并且 maxToken 等干系参数只管即便同等。
如果是海内模型,可能是命中风控了。
查看模型要求日志,检讨出入参数是否非常。
页面中可以正常回答,API 报错

页面中是用 stream=true 模式,以是 API 也须要设置 stream=true 来进行测试。
部分模型接口(国产居多)非 Stream 的兼容有点垃圾。
和上一个问题一样,curl 测试。

知识库索引没有进度 / 索引很慢 先看日志报错信息。
有以下几种情形:可以对话,但是索引没有进度:没有配置向量模型(vectorModels)不能对话,也不能索引:API 调用失落败。
可能是没连上 OneAPI 或 OpenAI有进度,但是非常慢:api key 弗成,OpenAI 的免费号,一分钟只有 3 次还是 60 次。
一天上限 200 次。
Connection error

网络非常。
海内做事器无法要求 OpenAI,自行检讨与 AI 模型的连接是否正常。

或者是 FastGPT 要求不到 OneAPI(没放同一个网络)

修正了 vectorModels 但是没有生效 重启容器,确保模型配置已经加载(可以在日志或者新建知识库时候看到新模型)记得刷新一次浏览器。
如果是已经创建的知识库,须要删除重修。
向量模型是创建时候绑定的,不会动态更新。
4.3 常见的 OneAPI 缺点

带有 requestId 的都是 OneAPI 的报错。

insufficientuserquota user quota is not enough OneAPI 账号的余额不敷,默认 root 用户只有 200 刀,可以手动修正。
路径:打开 OneAPI -> 用户 -> root 用户右边的编辑 -> 剩余余额调大xxx 渠道找不到FastGPT 模型配置文件中的 model 必须与 OneAPI 渠道中的模型对应上,否则就会提示这个缺点。
可检讨下面内容:OneAPI 中没有配置该模型渠道,或者被禁用了。
FastGPT 配置文件有 OneAPI 没有配置的模型。
如果 OneAPI 没有配置对应模型的,配置文件中也不要写。
利用旧的向量模型创建了知识库,后又更新了向量模型。
这时候须要删除以前的知识库,重修。
如果 OneAPI 中,没有配置对应的模型,config.json中也不要配置,否则随意马虎报错。
Incorrect API key provided: sk-xxxx.You can find your api Key at xxx OneAPI 的 API Key 配置缺点,须要修正OPENAI_API_KEY环境变量,并重启容器(先 docker-compose down 然后再 docker-compose up -d 运行一次)。
可以exec进入容器,env查看环境变量是否生效。
badresponsestatus_code bad response status code 503模型做事不可用模型接口参数非常(温度、max token 等可能不适配)….

更多优质内容请关注公号:汀丶人工智能;会供应一些干系的资源和优质文章,免费获取阅读