百度360必应搜狗淘宝本站头条
当前位置:网站首页 > 技术文章 > 正文

Dify 快速上手指南_快速上手指南官网

myzbx 2025-10-19 10:03 5 浏览

随着 AI 技术的快速发展,构建大语言模型应用已经成为了许多开发者和企业的重要需求。而 Dify 作为一个开源的 LLM 应用开发平台,凭借其直观的界面和强大的功能,正在成为这个领域的佼佼者。最近,Dify 发布了 v2.0.0 beta 版本 ,这个版本带来了许多重要的改进和新特性,正好趁着这个契机,我们来深入了解下这个平台。

Dify 介绍

Dify 是一个开源的 LLM 应用开发平台,其核心理念是让 AI 应用开发变得更加简单和高效。它不仅提供了可视化的工作流编排,还集成了 RAG 管道、智能体能力、模型管理和可观测性等功能,让开发者能够快速从原型迁移到生产环境。

Dify 一词源自 Define + Modify ,指的是定义并持续改进你的 AI 应用,它也可以当做 Do it for you 的缩写。

它的核心功能包括:

  • 全面的模型支持 :无缝集成包括 OpenAI 与 A #技术分享nthropic 等数十个商业模型,支持 Hugging Face、OpenRouter 等 MaaS 供应商接口以及任意 OpenAI 兼容的接口,并提供了本地模型推理 Runtime 的支持;
  • 灵活的工作流 :在可视化画布上构建和测试强大的 AI 工作流,分为 Chatflow 和 Workflow 两种类型;
  • 直观的提示词编排 :用于制作提示词的直观界面,比较模型性能,并为基于聊天的应用添加文本转语音等附加功能;
  • 高质量的 RAG 管道 :广泛的 RAG 功能,涵盖从文档摄取到检索的所有内容,支持从 PDF、PPT 和其他常见文档格式中提取文本;
  • 稳健的智能体框架 :可以基于 LLM 的 Function Calling 或 ReAct 定义智能体,并为智能体添加自定义工具;
  • 丰富的工具系统 :Dify 提供了 50 多个内置工具,如 Google Search、WolframAlpha 等;并支持轻松导入自定义的 API 工具或 MCP 工具;
  • 强大的插件生态 :支持模型、工具、Agent 策略、扩展等插件类型,开发者可以根据需要方便的扩展 Dify 的功能;
  • LLMOps :随时间监控和分析应用日志和性能,你可以基于生产数据和注释持续改进提示词、数据集和模型;
  • 后端即服务 :Dify 的所有功能都提供相应的 API,因此你可以轻松地将 Dify 集成到你自己的业务逻辑中;

本地部署准备工作

Dify 提供了多种部署方式,最简单的方式是使用 Docker Compose。在开始之前,请确保你的机器满足以下最低系统要求:

  • CPU >= 2 Core
  • RAM >= 4 GiB

首先,我们需要克隆 Dify 的源代码:

$ LATEST_TAG=$(curl -s https://api.github.com/repos/langgenius/dify/releases/latest | jq -r .tag_name)
$ git clone --branch "$LATEST_TAG" https://github.com/langgenius/dify.git

上面的命令会自动获取最新的稳定版本并克隆到本地,我在写这篇文章时最新版本是 v1.8.1。

然后进入 docker 目录:

$ cd dify/docker

这个目录包含了 Dify 部署所需的所有配置文件,其中 docker-compose.yml 文件定义了 Dify 的完整架构,包括以下核心组件:

  • api - Dify API 服务
  • worker - Celery 后台任务处理器
  • worker_beat - Celery 定时任务调度器
  • web - 前端 Web 应用
  • db - PostgreSQL 主数据库
  • redis - Redis 缓存和消息队列
  • sandbox - Dify 代码执行沙盒
  • plugin_daemon - 插件守护进程
  • ssrf_proxy - SSRF 代理 (Squid)
  • nginx - 反向代理和负载均衡器
  • weaviate - Weaviate 向量数据库

这个文件还内置了大量的其他向量数据库组件配置,可以通过不同的 Profile 来切换:

  • qdrant - Qdrant 向量数据库
  • pgvector - pgvector 扩展的 PostgreSQL
  • pgvecto-rs - pgvecto-rs 向量数据库
  • chroma - Chroma 向量数据库
  • milvus - 包括 etcd、minio、milvus 三个组件
  • etcd - Milvus 的 etcd 配置存储
  • minio - Milvus 的 MinIO 对象存储
  • milvus-standalone - Milvus 向量数据库
  • opensearch - 包括 opensearch 和 dashboards 两个组件
  • opensearch - OpenSearch 向量数据库
  • opensearch-dashboards - OpenSearch 仪表板
  • elasticsearch - 包括 elasticsearch 和 kibana 两个组件
  • elasticsearch - Elasticsearch 向量数据库
  • kibana - Kibana 可视化界面

还有不少比较小众的向量数据库,比如 Couchbase、Vastbase、OceanBase、Oracle、OpenGauss、MyScale、Matrixone 等等。除了向量数据库,文件中还有另外两个额外的组件,用户可以择需使用:

  • certbot - SSL 证书自动管理
  • unstructured - 非结构化文档处理

接下来,复制环境配置文件:

$ cp .env.example .env

这个 .env 文件包含了 Dify 运行所需的所有环境变量,包括数据库连接信息、加密密钥、模型配置等。默认配置已经可以正常运行,我们暂时不用改。

C Docker Compose 本地部署

然后使用 Docker Compose 启动所有核心服务:

$ docker compose up -d

或者指定特定的 Profile 启动:

$ docker compose --profile qdrant up -d

这个命令会下载所有必要的镜像并启动服务,首次运行可能需要一些时间,因为需要下载各种 Docker 镜像。等待所有容器启动完毕后,如果一切正常,各服务状态如下所示:

这些服务之间的依赖关系如下图所示:

源码安装

除了使用 Dify 官方构建好的 Docker 镜像启动服务之外,我们也可以直接通过源码来启动,不过还是需要 Docker Compose 来安装中间件:

$ cp middleware.env.example middleware.env
$ docker compose -f docker-compose.middleware.yaml up -d

启动成功后各服务状态如下:

相比于之前的 Docker Compose 部署,这里少了 nginxwebapiworkerworker-beat 这 5 个服务,因此需要通过源码启动,包括两个后端服务和一个前端服务:

  • API 服务 :为前端服务和 API 访问提供 API 请求服务
  • Worker 服务 :为数据集处理、工作区、清理等异步任务提供服务
  • Web 服务 :启动用于前端页面的 Web 服务

后端服务需要 Python 3.12 版本,可以使用 uv 来创建 Python 虚拟环境:

$ uv venv --python 3.12

前端服务需要 Node.js v22 (LTS) 和 PNPM v10 版本,安装方法参考官方文档:

  • nodejs.org/
  • pnpm.io/installatio…

启动 API 服务

我们首先进入 api 目录:

$ cd api

复制环境变量文件:

$ cp .env.example .env

然后使用 openssl 命令生成一个随机密钥:

$ openssl rand -base64 42

该命令的意思是生成 42 字节的随机数据并用 Base64 进行编码。

将该值替换 .env 文件中的 SECRET_KEY 值:

SECRET_KEY=xxx

也可以使用下面的 awk 命令一句话搞定:

$ awk -v key="$(openssl rand -base64 42)" \
    '/^SECRET_KEY=/ {sub(/=.*/, "=" key)} 1' \
    .env > temp_env && mv temp_env .env

这里的 awk -v key="$(...)" 表示将生成的密钥存储在 key 这个变量中, /^SECRET_KEY=/ 表示匹配以 SECRET_KEY= 开头的行, {sub(/=.*/, "=" key)} 表示将等号后的所有内容替换为新密钥,后面的 1 是 awk 的默认动作,表示打印所有行,然后将输出重定向到临时文件 temp_env ,最后成功后再将临时文件重命名为原文件。注意这里不能直接输出到原文件,会导致原文件被清空!

然后运行 uv 命令安装所需依赖:

$ uv sync

在启动前,我们还需要初始化数据库:

$ uv run flask db upgrade

这个命令会按顺序执行 migrations/versions/ 目录下的迁移脚本,更新数据库结构,包括创建或修改表、列、索引等。

最后启动 API 服务:

$ uv run flask run --host 0.0.0.0 --port=5001 --debug

启动 Worker 服务

如果要从队列中消费异步任务,我们还需要启动 Worker 服务:

$ uv run celery -A app.celery worker \
    -P gevent \
    -c 1 \
    --loglevel INFO \
    -Q dataset,generation,mail,ops_trace

Celery 是一个基于 Python 的 分布式任务队列(Distributed Task Queue) ,主要用于处理异步任务和定时任务。它可以让你把一些耗时的操作(比如发送邮件、处理图片、数据分析等)放到后台去执行,而不会阻塞主程序的运行。Celery 通过 消息中间件(Broker) 来传递任务,常用的有 Redis、RabbitMQ、Amazon SQS 等。

这里的 -Q dataset,generation,mail,ops_trace 表示监听的队列:

  • dataset : 数据集相关任务(数据处理、索引等)
  • generation : 内容生成任务(大模型调用等)
  • mail : 邮件发送任务
  • ops_trace : 操作追踪任务

启动 Web 服务

后端服务启动好之后,我们最后再来启动前端 Web 服务。首先进入 web 目录:

$ cd web

安装依赖:

$ pnpm install --frozen-lockfile

再准备环境变量文件:

$ cp .env.example .env.local

构建 Web 服务:

$ pnpm build

启动 Web 服务:

$ pnpm start

成功启动后,在浏览器中访问
http://localhost:3000/install
设置管理员账户:

设置管理员账户后,你就可以访问 http://localhost:3000 进入 Dify 的主界面了:

小结

从今天起,我们开始学习 Dify 这个开源的 LLM 应用开发平台。今天主要介绍了它的核心功能,并演示了两种主要的部署方式:

  1. Docker Compose 部署 :这是最简单快捷的方式,适合快速体验和小规模部署,只需几条命令就能启动包含所有组件的完整 Dify 环境;
  2. 源码安装 :提供了更大的灵活性和控制权,适合需要深度定制或开发调试的场景,也方便我们更好地理解 Dify 的架构;

Dify v2 版本发布在即,标志着这个平台正在朝着更加成熟和功能完备的方向发展,非常值得研究。接下来,就让我带领大家一起好好探索下 Dify 的各个功能特性,从源码的角度深入剖析其实现原理。

欢迎关注

如果这篇文章对您有所帮助,欢迎关注我的同名公众号:日习一技,每天学一点新技术 。

我会每天花一个小时,记录下我学习的点点滴滴。内容包括但不限于:

  • 某个产品的使用小窍门
  • 开源项目的实践和心得
  • 技术点的简单解读

目标是让大家用5分钟读完就能有所收获,不需要太费劲,但却可以轻松获取一些干货。不管你是技术新手还是老鸟,欢迎给我提建议,如果有想学习的技术,也欢迎交流!

相关推荐

别再问Cookie了,再问就崩溃了!_别问 再问

作者:懿来自:Java极客技术说实话,之前面试都是直接去背诵的面试题,关于Cookie的一些内容,比如说,记录浏览器端的数据信息啦,Cookie的生命周期啦,这些内容,也从来没有研究过C...

5分钟学会物流轨迹地图API嵌入到页面中,实现物流轨迹可视化

前言在电子商务和在线购物日益普及的今天,为用户提供实时的物流信息已成为提升客户满意度的关键。本文将指导您如何在网页中嵌入物流轨迹地图API,以便用户能够直观地跟踪他们的包裹。1.申请接口、获取API密...

Springboot项目中几种跨域的解决方法

环境:springboot2.3.9.RELEASE什么是跨源资源共享跨源资源共享(CORS)(或通俗地译为跨域资源共享)是一种基于HTTP头的机制,该机制通过允许服务器标示除了它自己以外的其它...

基于Java实现,支持在线发布API接口读取数据库,有哪些工具?

基于java实现,不需要编辑就能发布api接口的,有哪些工具、平台?还能一键发布、快速授权和开放提供给第三方请求调用接口的解决方案。架构方案设计:以下是一些基于Java实现的无需编辑或只需少量编辑...

Axios VS Fetch, 用哪个更好?详细对比附案例

在JavaScript中进行HTTP请求时,最常用的两个工具是:原生fetchAPI流行的第三方库Axios我都在生产环境中使用过这两个工具。虽然两者都表现良好,但有时我会后悔选择了其中一个而非另一...

Ollama:Web搜索API和MCP_oalib search

如果您曾经尝试过LLM,您就会明白其中的痛点:模型在模式匹配方面非常出色,但往往会虚构一些东西。如果你问起上周发生的事情,突然间,您得到的只是来自2022年的鬼故事。这次更新改变了这一切。基本上...

基于浏览器扩展 API Mock 工具开发探索|得物技术

一、前言在日常开发过程中,偶尔会遇到后端接口未完成或者某个环境出现问题需要根据接口返回来复现等等场景。刚好最近在学习浏览器插件的相关知识,并在此背景下开发了一款基于浏览器插件的Mock工具。该工...

JavaScript动态注入的几种方法_js动态引入js

在现代的Web开发中,JavaScript动态注入是一个强大的技术,它允许开发者在网页运行时动态地修改网页内容和行为,方便进行调试和维护。动态注入通常涉及以下几个关键概念:DOM(文档对象模型)、和...

面试官:如何通过 MyBatis 查询千万数据并保证内存不溢出?

推荐学习真香警告!Alibaba珍藏版mybatis手写文档,刷起来牛掰!“基础-中级-高级”Java程序员面试集结,看完献出我的膝盖闭关28天,奉上[Java一线大厂高岗面试题解析合集],备战金九银...

nextjs教程三:获取数据_nextcloud数据迁移

数据的获取数据获取是任何应用程序中最重要的部分,本文将介绍,如何在react,nextjs中获取数据主要有种方法可以获取数据在服务端,用fetch获取数据在客户端,通过路由处理器获取数据下面分别...

Fetch API 教程_fetch_all

JavaScript初学者学完语法,进入实际的网页编程,一定有人告诉你,要掌握一个叫做XMLHttpRequest的东西。脚本都靠它发出HTTP请求,跟服务器通信。所谓的AJAX操作就是...

Mozilla火狐39.0正式版增加Emoji支持

2015-07-0310:41:43作者:李熙Mozilla旗下浏览器火狐(Firefox)39.0正式版在今日发布,新版在性能上改进不大,着重于浏览器的功能和细节改进:新版提升了Firefox...

如何设计前端监控sdk,实现前端项目全链路监控

一、埋点系统设计与实现(文章最后有如何回答)1.埋点分类1.1手动埋点(代码埋点)//业务代码中主动调用tracker.track('button_click',{&nbs...

如何快速实现一套流程编排系统,前端开发组件都有哪些,一篇搞懂

早上9点,AI产品经理紧急拉会:“我们的客户明天要看到AI审批流程原型,传统开发至少要一周,有什么办法今天就能上线?”这时,你打开流程编排画布,拖拽几个节点,连接大模型API和服务,1小时后客户竖起...

2023金九银十必看前端面试题!2w字精品!

导文2023金九银十必看前端面试题!金九银十黄金期来了想要跳槽的小伙伴快来看啊CSS1.请解释CSS的盒模型是什么,并描述其组成部分。答案:CSS的盒模型是用于布局和定位元素的概念。它由内容区域...