Dify 是一个开源的大语言模型(LLM)应用开发平台,支持工作流、RAG、Agent 等功能,非常适合本地私有化部署。推荐使用 Docker Compose 方式进行本地部署,这是最简单且官方推荐的方法。
前置要求
- 安装 Docker 和 Docker Compose(推荐最新版)。
- Windows/Mac:下载 Docker Desktop。
- Linux:参考官方安装指南。
- 系统资源建议:至少 4 核 CPU、8GB 内存(推荐更多,以支持模型运行)。
- Git(用于克隆代码)。
部署步骤
-
克隆 Dify 仓库:
git clone https://github.com/langgenius/dify.git cd dify/docker -
配置环境变量:
- 复制示例文件:
cp .env.example .env - 编辑
.env文件(使用 vim 或 notepad 等工具),根据需要修改配置(如数据库密码、端口等)。默认配置即可运行,无需大改。- 关键选项:
VECTOR_STORE:向量数据库(默认 Weaviate,可改成 Milvus 等)。- 如果需要本地模型支持,可后续配置。
- 关键选项:
- 复制示例文件:
-
启动服务:
docker compose up -d- 这会自动拉取镜像并启动所有容器(包括 API、Web、前端、数据库、Redis、Weaviate 等)。
- 首次运行可能需要几分钟拉取镜像。
-
初始化安装:
- 本地访问:打开浏览器 http://localhost/install(或服务器 IP:http://你的IP/install)。
- 设置管理员账号(邮箱 + 密码)。
-
登录使用:
- 初始化完成后,访问 http://localhost(或 http://你的IP)。
- 登录后即可创建应用、工作流、知识库等。
常见问题与优化
- 镜像拉取慢(国内用户):在
.env中配置镜像加速器,或使用国内镜像源(如阿里云)。 - 端口冲突:修改
docker-compose.yaml中的端口映射。 - 接入本地模型(如 Ollama、LocalAI):
- 先本地运行 Ollama(ollama serve),下载模型(如 ollama run llama3)。
- 在 Dify 设置 > 模型供应商 > Ollama 中添加:
- Base URL:http://host.docker.internal:11434(Docker 内访问宿主机)或宿主机 IP。
- 更新 Dify:
git pull docker compose down docker compose up -d - 停止服务:
docker compose down
官方文档参考
- Docker Compose 部署:https://docs.dify.ai/getting-started/install-self-hosted/docker-compose
- GitHub 仓库:https://github.com/langgenius/dify
部署完成后,你可以完全本地运行 Dify,所有数据私有安全。如果遇到具体错误,可以查看日志:
docker compose logs -f
如果需要更高级的源码部署或其他问题,欢迎提供更多细节!