-
Notifications
You must be signed in to change notification settings - Fork 2.3k
9. 常见问题
部署过程中如果出现以下报错:
使用代码编辑器(如 VS Code)打开 docker/volumes/elasticsearch/setup_es.sh
。在编辑器的右下角,你会看到 CRLF 或 LF 的标识,点击它并选择 LF。保存文件后再重新启动
docker compose --profile "*" up -d
。以及相关issue
2、windows本地部署,“Error response from daemon: Ports are not available: exposing port TCP 0.0.0.0:2379 -> 127.0.0.1:0:2379” 如何解决?
# 查看占用
netstat -ano | findstr :2379
net stop winnat
net start winnat
可以通过以下命令查询具体错误日志
docker logs coze-server | grep -i 'node execute failed'
当文本/表格/图片知识库创建成功,但上传文件后长时间显示‘处理中’,如下图所示:
请参考下述步骤检查 docker/.env
文件中的基础组件配置,配置介绍文档 5. 基础组件配置。
- 检查 .env 文件中的 embedding 配置。
模型 检查方式 EMBEDDING_TYPE="openai" 1. OPENAI_EMBEDDING_BASE_URL:coze-server 通常使用各平台协议提供的 sdk 调用 api,此时不要求包含 /embeddings
后缀,请参考具体 api 提供方的文档进行配置
2. OPENAI_EMBEDDING_BY_AZURE:非微软 azure api 请设置为 false
3. OPENAI_EMBEDDING_DIMS / OPENAI_EMBEDDING_REQUEST_DIMS:
1. 请根据模型所支持的向量维度,将两个 key 设置为相同的数值
2. 部分模型 api 传入向量维度会报错,可以将 OPENAI_EMBEDDING_REQUEST_DIMS 注释掉
3. 部分模型不支持设定向量维度,请对照模型文档进行配置EMBEDDING_TYPE="ark" 1. ARK_EMBEDDING_MODEL:
1. 使用模型名称时需要携带具体版本,例如doubao-embedding-large-text-250515
;使用 endpoint 时(诸如 ep-xxxx) 完整复制即可
2. 目前(0728)暂不支持图像向量化模型(doubao-embedding-vision)调用,请使用文本向量化模型,近期会支持上
2. ARK_EMBEDDING_DIMS:请参考官方文档配置支持的嵌入维度EMBEDDING_TYPE="http" 1. http 协议目前有自己独立的输入输出格式,可以参考 https://github.com/coze-dev/coze-studio/blob/main/backend/infra/impl/embedding/http/http.go 进行封装
2. 目前暂不支持 ollama,敬请期待 - 检查 .env 文件 ocr 配置 检查 VE_OCR_AK 和 VE_OCR_SK 是否正确填写,如果未配置的话请在文档处理时关闭 ocr 功能
- 检查 .env 文件模型(BUILTIN_CM_)配置。 智能体查询转 SQL、查询改写、图片知识库智能标注这三个功能依赖这部分配置,如果不需要用到的话可以不配置。参考【模型配置】章节提到的内容进行检查即可。
- 上述所有配置都正确无误后,重启服务并重试。
- 重启服务:
docker compose --profile "*" up -d
- 新建知识库,上传文档。
- 如果依旧失败,获取下面两部分信息后,在用户群 / issues 提问联系开发者排查
-
container_id=$(docker ps -aqf "name=coze-server") && docker logs "$container_id" 2>&1 | grep 'HandleMessage'
获取文档处理日志。- 如果出现
the num_rows (300) of field (dense_text_content) is not equal to passed num_rows (100): invalid parameter[expected=100][actual=300]"
类似的错误,说明是模型维度问题,请检查所配置的模型是否支持配置维度,按照参数手动调用模型输出的维度是否符合预期,无需提问 - 如果出现 http 超时 / connection refused 等报错,请检查容器网络和 env 配置。
- 如果出现
-
container_id=$(docker ps -aqf "name=coze-server") && docker exec -it $container_id /bin/sh
,进入 container 后cat .env
获取配置信息,注意密钥脱敏。
-
- 重启服务:
大模型访问的图片/文件链接需要是公网可访问的链接,图片存组件需要在公网部署,具体可以参考:上传组件配置
是正常的 ,setup相关的容器是做一些脚本初始化工作,执行完毕后会自动退出。
-
问题现象:用户在搭建智能体、工作流和扣子应用时,无法在模型列表中选择模型、切换模型。例如:
- 问题原因:在配置模型时,开发者在不同的模型文件中配置了相同的 id,导致模型 id 冲突。
-
解决方式:
- 在
backend/conf/model
下打开所有的模型配置 yaml 文件。 - 找到重复的 id,为各个模型另外设置一个 id,确保每个模型的 id 均为唯一的非 0 整数。
- 执行命令重启服务:
docker compose --profile "*" up -d
- 在
当和智能体对话、调试智能体,或运行工作流大模型节点时,如果模型返回 Internal server error 等报错信息,或者在系统日志中查看到类似信息,表示模型配置文件填写错误。 此场景常见的报错信息和对应日志信息如下:
- 对话报错
Something error:Internal server error
,对应的日志信息为status code: 404, status: 404 Not Found, message: Invalid URL (POST xxxx/chat/completions)
或者can't fetch endpoint sts token without endpoint
。 - 对话或日志中报错
connection refused
。
以上报错信息表示模型配置文件填写错误,建议按照以下操作步骤检查 backend/conf/model
下的 yaml 文件配置。完整的模型配置可参考文档 3. 模型配置。
- 检查模型通用配置:
- id:所有文件中的 id 唯一,无重复 id。
-
base_url:coze-server 通常使用各模型厂商协议提供的 SDK 调用模型,请参考具体模型厂商的文档进行配置。注意 Coze Studio 不要求 base_url 包含
/chat/completions
后缀。 - api_key 和 model:应正确配置 api_key 和 model,否则无法这些配置调用模型进行对话。
- yaml 文件:检查 yaml 语法是否合法,不合法时,系统会阻止 coze-server 启动。
- 检查各个模型的专有配置:
以下是通常需要重点关注的模型配置清单,完整的配置方式可参考文档 3. 模型配置。
模型/平台 | 检查方式 |
---|---|
OpenAI | 检查 by_azure 字段配置,如果模型是微软 azure 提供的模型服务,此参数应设置为 true。 |
Ollama | 1. 检查 base_url: 1. 镜像网络模式是 bridge,coze-server 镜像内 localhost 不是主机的 localhost。需要修改为 ollama 部署机器的 ip,或 http://host.docker.internal:11434 。 2. ip:port 后不需要加 path,例如 /v1 。 2. 检查 api_key:未设置 api_key 时,此参数置空。 3. 确认部署 Ollama 主机的防火墙是否已开放 11434 端口。 4. 确认 ollama 网络已开启对外暴露。 |
阿里百炼平台 |
阿里百炼平台兼容 OpenAI 协议调用模型,此时: * Protocol 设置为 openai 。 * base_url 设置为 https://dashscope.aliyuncs.com/compatible-mode/v1 。 * api_key 和 model 自行配置为阿里百炼提供的 api_key 和 model 即可。 |
- 全部检查完毕后,执行以下步骤重启服务并重试。
- 执行命令重启服务:
docker compose --profile "*" up -d
- 新建智能体创建对话。
如果模型依旧报错,参考以下步骤获取日志,并在用户群 / issues 提问联系开发者排查。获取日志的详细方式可参考服务日志。
docker logs coze-server | grep -i 'node execute failed'
- 执行命令重启服务:
在 coze-studio
项目中,代码节点默认内置了两个第三方依赖库:httpx
和 numpy
。Coze Studio 也支持开发者自行添加其他的 Python
第三方库。详细操作步骤如下:
-
修改配置文件。 在
./scripts/setup/[python.sh](python.sh)
脚本与./backend/Dockerfile
文件中,可找到third - party libraries
注释,在这两个文件的第三方库注释下方直接添加依赖库对应的pip install
命令即可。 例如添加 2.0.0 版本的torch
:# If you want to use other third - party libraries, you can install them here. pip install torch==2.0.0
-
在
./backend/conf/workflow/config.yaml
中添加第三方模块的包名称。例如添加 torch:NodeOfCodeConfig: SupportThirdPartModules: - httpx - numpy - torch
-
执行以下命令重启服务。
docker compose --profile "*" up -d