Coze 开源版(Coze Studio)模型配置详细教程

Coze 开源版(Coze Studio)模型配置详细教程

_

Coze 开源版(Coze Studio)模型配置详细教程(2025年最新版)

Coze Studio 开源版支持多种大模型(LLM),包括OpenAI、DeepSeek、豆包(Doubao)、通义千问(Qwen)、Gemini、Claude、Ollama本地模型等。配置方式有两种:早期版本主要通过YAML文件手动配置(最常见),新版本(镜像 >= 0.5.0)支持Admin后台可视化新增

官方Wiki推荐优先用后台配置,但许多用户仍用YAML方式(更灵活,尤其本地/自定义模型)。下面一步步教你,亲测有效!

前提:已完成部署

  • 克隆仓库:git clone https://github.com/coze-dev/coze-studio.git
  • 进入docker目录:cd coze-studio/docker
  • 复制env:cp .env.example .env
  • 启动:docker compose --profile '*' up -d
  • 访问 http://localhost:8888 注册登录

不配置模型,创建Agent时会提示无可用模型!

方法1:YAML文件配置(推荐,兼容所有版本,支持20+模板)

模型配置文件统一放在 backend/conf/model/ 目录下,每个YAML文件对应一个模型。

  1. 找到模板

    • 路径:coze-studio/backend/conf/model/template/
    • 这里有20+模板,如:
      • model_template_openai.yaml(OpenAI/GPT系列)
      • model_template_ark_doubao.yaml(豆包/Doubao)
      • model_template_basic.yaml(通用,适合DeepSeek/Qwen/Gemini等OpenAI兼容接口)
      • Ollama本地模型也用basic模板
  2. 复制并修改

    cp backend/conf/model/template/model_template_basic.yaml backend/conf/model/deepseek.yaml
    

    用编辑器(如VSCode)打开deepseek.yaml,修改关键字段:

    示例:配置DeepSeek V3(API方式)

    id: 1  # 唯一整数ID,全局不可重复(上线后别改)
    name: DeepSeek-V3
    icon_uri: default_icon/deepseek.png  # 可选图标
    description:
      zh: DeepSeek V3 开源模型
      en: DeepSeek V3 open source model
    meta:
      conn_config:
        base_url: https://api.deepseek.com/v1  # DeepSeek官方base_url
        api_key: sk-your-deepseek-api-key_here  # 你的API Key,从platform.deepseek.com获取
        model: deepseek-chat  # 或 deepseek-reasoner 等具体模型
      # enable_thinking: true  # 可选,开启思考模式(部分模型支持)
    default_parameters:  # 可选默认参数
      - name: temperature
        value: 0.7
    

    其他热门示例:

    • 豆包(Doubao):用model_template_ark_doubao-seed-1.6.yaml,改api_key和model(如doubao-seed-1-6-flash)
    • 通义千问(Qwen)
      id: 2
      name: Qwen3-235B
      meta:
        conn_config:
          base_url: https://dashscope.aliyuncs.com/compatible-mode/v1
          api_key: your-aliyun-dashscope-key
          model: qwen3-235b-a22b-instruct-2507
      
    • Ollama本地模型(如qwen3:0.6b):
      id: 2003
      name: qwen3-local
      meta:
        conn_config:
          base_url: http://host.docker.internal:11434/v1  # Docker内访问主机Ollama(Windows/Mac用这个;Linux用主机IP)
          api_key: ollama  # 随便填(Ollama不校验)
          model: qwen3:0.6b
      
  3. 生效

    • 保存后,重启服务:docker compose --profile '*' restart coze-server
    • 登录后台,创建Agent时就能看到新模型了!

方法2:Admin后台可视化配置(新版本推荐,镜像>=0.5.0)

  1. 登录 http://localhost:8888
  2. 进入Admin管理后台:http://localhost:8888/admin/#model-management
  3. 点击“新增模型”,填写:
    • 模型名称、ID
    • Provider(选择OpenAI兼容或特定厂商)
    • Base URL、API Key、Model名称
    • 其他参数(如temperature默认值)
  4. 保存即可,无需重启。

常见坑 & Tips

  • ID重复:会导致模型不显示,确保唯一。
  • API Key错:测试时用curl验证API是否通。
  • Ollama连接:Windows/Mac用host.docker.internal,Linux用主机IP;防火墙开11434端口。
  • 无模型可选:检查docker volumes是否映射正确(backend/conf挂载到容器)。
  • 支持模型列表:模板覆盖主流,基本OpenAI兼容的都能接(包括Groq、SiliconFlow等)。
  • 更新迭代快:2025年底社区已优化多,建议拉最新代码。

配置好后,你的Coze就能用强大模型驱动Agent了!比如接DeepSeek V3,数学/代码能力爆表。实测超顺手,如果你卡在具体模型(如某个报错),把错误贴给我,我帮调试。继续玩转开源AI,流量博主必备神器!🚀

Coze 开源版(Coze Studio)向量模型(Embedding)配置详细教程 2025-12-19
coze 开源版本使用体验 2025-12-19

评论区