Coze 开源版(Coze Studio)模型配置详细教程(2025年最新版)
Coze Studio 开源版支持多种大模型(LLM),包括OpenAI、DeepSeek、豆包(Doubao)、通义千问(Qwen)、Gemini、Claude、Ollama本地模型等。配置方式有两种:早期版本主要通过YAML文件手动配置(最常见),新版本(镜像 >= 0.5.0)支持Admin后台可视化新增。
官方Wiki推荐优先用后台配置,但许多用户仍用YAML方式(更灵活,尤其本地/自定义模型)。下面一步步教你,亲测有效!
前提:已完成部署
- 克隆仓库:
git clone https://github.com/coze-dev/coze-studio.git - 进入docker目录:
cd coze-studio/docker - 复制env:
cp .env.example .env - 启动:
docker compose --profile '*' up -d - 访问 http://localhost:8888 注册登录
不配置模型,创建Agent时会提示无可用模型!
方法1:YAML文件配置(推荐,兼容所有版本,支持20+模板)
模型配置文件统一放在 backend/conf/model/ 目录下,每个YAML文件对应一个模型。
-
找到模板:
- 路径:
coze-studio/backend/conf/model/template/ - 这里有20+模板,如:
model_template_openai.yaml(OpenAI/GPT系列)model_template_ark_doubao.yaml(豆包/Doubao)model_template_basic.yaml(通用,适合DeepSeek/Qwen/Gemini等OpenAI兼容接口)- Ollama本地模型也用basic模板
- 路径:
-
复制并修改:
cp backend/conf/model/template/model_template_basic.yaml backend/conf/model/deepseek.yaml用编辑器(如VSCode)打开deepseek.yaml,修改关键字段:
示例:配置DeepSeek V3(API方式)
id: 1 # 唯一整数ID,全局不可重复(上线后别改) name: DeepSeek-V3 icon_uri: default_icon/deepseek.png # 可选图标 description: zh: DeepSeek V3 开源模型 en: DeepSeek V3 open source model meta: conn_config: base_url: https://api.deepseek.com/v1 # DeepSeek官方base_url api_key: sk-your-deepseek-api-key_here # 你的API Key,从platform.deepseek.com获取 model: deepseek-chat # 或 deepseek-reasoner 等具体模型 # enable_thinking: true # 可选,开启思考模式(部分模型支持) default_parameters: # 可选默认参数 - name: temperature value: 0.7其他热门示例:
- 豆包(Doubao):用
model_template_ark_doubao-seed-1.6.yaml,改api_key和model(如doubao-seed-1-6-flash) - 通义千问(Qwen):
id: 2 name: Qwen3-235B meta: conn_config: base_url: https://dashscope.aliyuncs.com/compatible-mode/v1 api_key: your-aliyun-dashscope-key model: qwen3-235b-a22b-instruct-2507 - Ollama本地模型(如qwen3:0.6b):
id: 2003 name: qwen3-local meta: conn_config: base_url: http://host.docker.internal:11434/v1 # Docker内访问主机Ollama(Windows/Mac用这个;Linux用主机IP) api_key: ollama # 随便填(Ollama不校验) model: qwen3:0.6b
- 豆包(Doubao):用
-
生效:
- 保存后,重启服务:
docker compose --profile '*' restart coze-server - 登录后台,创建Agent时就能看到新模型了!
- 保存后,重启服务:
方法2:Admin后台可视化配置(新版本推荐,镜像>=0.5.0)
- 登录 http://localhost:8888
- 进入Admin管理后台:http://localhost:8888/admin/#model-management
- 点击“新增模型”,填写:
- 模型名称、ID
- Provider(选择OpenAI兼容或特定厂商)
- Base URL、API Key、Model名称
- 其他参数(如temperature默认值)
- 保存即可,无需重启。
常见坑 & Tips
- ID重复:会导致模型不显示,确保唯一。
- API Key错:测试时用curl验证API是否通。
- Ollama连接:Windows/Mac用
host.docker.internal,Linux用主机IP;防火墙开11434端口。 - 无模型可选:检查docker volumes是否映射正确(backend/conf挂载到容器)。
- 支持模型列表:模板覆盖主流,基本OpenAI兼容的都能接(包括Groq、SiliconFlow等)。
- 更新迭代快:2025年底社区已优化多,建议拉最新代码。
配置好后,你的Coze就能用强大模型驱动Agent了!比如接DeepSeek V3,数学/代码能力爆表。实测超顺手,如果你卡在具体模型(如某个报错),把错误贴给我,我帮调试。继续玩转开源AI,流量博主必备神器!🚀