Dify 本地部署

Dify 本地部署

_

Dify 是一个开源的大语言模型(LLM)应用开发平台,支持工作流、RAG、Agent 等功能,非常适合本地私有化部署。推荐使用 Docker Compose 方式进行本地部署,这是最简单且官方推荐的方法。

前置要求

  • 安装 DockerDocker Compose(推荐最新版)。
    • Windows/Mac:下载 Docker Desktop。
    • Linux:参考官方安装指南。
  • 系统资源建议:至少 4 核 CPU、8GB 内存(推荐更多,以支持模型运行)。
  • Git(用于克隆代码)。

部署步骤

  1. 克隆 Dify 仓库

    git clone https://github.com/langgenius/dify.git
    cd dify/docker
    
  2. 配置环境变量

    • 复制示例文件:
      cp .env.example .env
      
    • 编辑 .env 文件(使用 vim 或 notepad 等工具),根据需要修改配置(如数据库密码、端口等)。默认配置即可运行,无需大改。
      • 关键选项:
        • VECTOR_STORE:向量数据库(默认 Weaviate,可改成 Milvus 等)。
        • 如果需要本地模型支持,可后续配置。
  3. 启动服务

    docker compose up -d
    
    • 这会自动拉取镜像并启动所有容器(包括 API、Web、前端、数据库、Redis、Weaviate 等)。
    • 首次运行可能需要几分钟拉取镜像。
  4. 初始化安装

    • 本地访问:打开浏览器 http://localhost/install(或服务器 IP:http://你的IP/install)。
    • 设置管理员账号(邮箱 + 密码)。
  5. 登录使用

    • 初始化完成后,访问 http://localhost(或 http://你的IP)。
    • 登录后即可创建应用、工作流、知识库等。

常见问题与优化

  • 镜像拉取慢(国内用户):在 .env 中配置镜像加速器,或使用国内镜像源(如阿里云)。
  • 端口冲突:修改 docker-compose.yaml 中的端口映射。
  • 接入本地模型(如 Ollama、LocalAI):
    • 先本地运行 Ollama(ollama serve),下载模型(如 ollama run llama3)。
    • 在 Dify 设置 > 模型供应商 > Ollama 中添加:
      • Base URL:http://host.docker.internal:11434(Docker 内访问宿主机)或宿主机 IP。
  • 更新 Dify
    git pull
    docker compose down
    docker compose up -d
    
  • 停止服务
    docker compose down
    

官方文档参考

  • Docker Compose 部署:https://docs.dify.ai/getting-started/install-self-hosted/docker-compose
  • GitHub 仓库:https://github.com/langgenius/dify

部署完成后,你可以完全本地运行 Dify,所有数据私有安全。如果遇到具体错误,可以查看日志:

docker compose logs -f

如果需要更高级的源码部署或其他问题,欢迎提供更多细节!

RAG 系统知识库建设指南:文件类型选择与预处理全攻略 2025-12-25
2025-12月第三周(19-25) 2025-12-26

评论区