支持私有云部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


AI工程师自曝低效日常!Dify实战手册:励志分享100个高效工作流

发布日期:2025-03-20 04:56:21 浏览次数: 1527 来源:程序员阿赞
推荐语

AI工程师亲述日常低效工作流,Dify平台助你高效实现AI应用。

核心内容:
1. AI工程师日常工作中的低效实践案例
2. Dify平台定义与功能介绍
3. Dify如何助力不同场景下的AI应用开发与优化

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

 

我相信有很多朋友和我一样在工作过程中用过了AI。

作为一个软件工程师,尤其是在写代码的过程中,较几年前没有AI什么都需要上网查的年代,效率上有了大幅的提升。

作为一个平时工作主要围绕着AI开展的工程师,做AI也超过一年时间了,最近经常有朋友问,你自己做AI的,你说说AI有啥用?

这个问题把我问愣住了。

貌似连我这个经常在倒腾AI的人,除了让AI写代码/查BUG之外,好像也没有别的了。

仔细一想,很多时候也还在用非常低效的方式工作

比如,我要去某网站爬一些数据,我可能会自己用python写代码解析各种html中的selector,自己组装数据,即使有AI的帮助,也只是让AI帮忙重复写请求和解析代码,这并不高效。

比如,我在写sql的时候,有时候明知道有Text2SQL,也会因为懒得把表结构信息拷贝给AI,而花不少工夫在调SQL上。

再比如,我也会经常人肉到魔塔社区、Github上去翻阅最近有没有出新的、重磅的模型和开源项目,然而这种重点内容明明可以让AI检索之后,自动推送给我,免得我错过重要的消息。

当然还有更多的场景,我们都可以用AI来提高获取信息速度和解决问题的效率,那么本系列文章,我们就来解决这个问题。

dify是什么?

Dify 是一款开源的大语言模型(LLM) 应用开发平台。使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。

Dify 能做什么?

Dify 一词源自 Define + Modify,意指定义并且持续的改进你的 AI 应用,它是为你而做的(Do it for you)。

  • • 创业,快速的将你的 AI 应用创意变成现实,无论成功和失败都需要加速。在真实世界,已经有几十个团队通过 Dify 构建 MVP(最小可用产品)获得投资,或通过 POC(概念验证)赢得了客户的订单。
  • • 将 LLM 集成至已有业务,通过引入 LLM 增强现有应用的能力,接入 Dify 的 RESTful API 从而实现 Prompt 与业务代码的解耦,在 Dify 的管理界面是跟踪数据、成本和用量,持续改进应用效果。
  • • 作为企业级 LLM 基础设施,一些银行和大型互联网公司正在将 Dify 部署为企业内的 LLM 网关,加速 GenAI 技术在企业内的推广,并实现中心化的监管。
  • • 探索 LLM 的能力边界,即使你是一个技术爱好者,通过 Dify 也可以轻松的实践 Prompt 工程和 Agent 技术,在 GPTs 推出以前就已经有超过 60,000 开发者在 Dify 上创建了自己的第一个应用。

2025年2月28日,Dify团队在经历了15个版本的运营之后,终于来到了1.0.0版本这个历史性的发布时刻。

在1.0.0版本中,Dify彻底解耦了可以从 Dify 扩展的工具和模型,使我们能够以真正的即插即用方式安装它们,并基于此推出了 Dify Marketplace,这是一个集中式平台,插件可以在其中自由共享,允许用户发布和下载不同的插件。

部署Dify

准备工作

  1. 1. 一台电脑或服务器,mac、windows、linux均可,性能越强越好,并安装好docker,可以搜索各类教程
  2. 2. GPU服务器(本地部署大模型)或大模型的API(Deepseek、阿里云、硅基流动等等均可)

为了不过多的把时间都浪费在各种部署和调试上,我这里直接使用阿里云百炼平台的api做demo,其中已经包含了各种国内常用的大模型。

开始部署

在安装好Docker之后,我们可以使用下面的命令,就完成启动了。

git clone https://github.com/langgenius/dify.git
cd ./docker
docker compose -f docker-compose.yaml up -d

但是,针对网络环境并不那么友好的读者朋友,可能会非常慢,如果条件不允许一两天都部署不好。

我们用AI的目的是为了提高效率,如果被网络卡很久弄不好,就违背了初衷了。

高效安装

我们第一个高效工作流,就是提供一个对国内网络环境友好的安装版本

可以把上述官方仓库的地址,修改为下面的地址:

https://github.com/dongfangzan/dify.git

在这个仓库中,我们修改了一下两处地方

docker-compose.yaml

在本文件中,我们已将所有dify使用的镜像从官方仓库推送到了阿里云镜像仓库,理论国内的网络访问都会比较快了,并且后续版本更新之后,我们也会持续进行更新。

pip源

将dify安装插件时的pip源同样修改为阿里云,插件安装速度更快。

现在安装只需执行下面的命令即可

https://github.com/dongfangzan/dify.git
cd ./docker
docker compose -f docker-compose.yaml up -d
大概2-3分钟,下载完成之后,访问下面的地址就可以看到Dify启动成功了。
http://127.0.0.1

完成管理员设置之后,我们就可以正式登入Dify界面了。

配置大模型

点击右上角的插件->从 Marcketplace 安装

在界面上搜索 tongyi 关键字,这里搜中文是搜不到的,这估计是一个bug,也许社区会逐步修复。

点击安装,稍等片刻就可以看到插件安装成功的通知了。

这个插件的安装不会很快,如果感兴趣可以通过下面的命令查看日志,其他插件类似。

docker logs -f docker-plugin_daemon-1

值得注意的是,如果你用的是官方提供的docker-compose文件,且网络环境不太好,可能插件会安装的非常慢,甚至docker-plugin_daemon-1这个容器会反复挂掉重启

点击右上角头像-设置

选择模型供应商,找到我们刚才安装好的插件,就可以

点击保存,就可以看到已经设置好了。

这时点击系统模型设置,就可以看到当前模型供应商下所有的模型啦。

测试对话

点击顶部的工作室-选择创建空白应用

选择聊天助手-输入应用名称 & 图标,点击创建

然后选择好模型,随便输入一点内容,测试一下聊天就好了。


其他模型

你还可以在插件-模型中找到更多的模型供应商,这里就不一一赘述了,都可以通过上述的方式安装完插件进行一些简单配置即可。

这里我们再介绍两种常用的配置

Ollama

我们以本地部署的deepseek-r1为例子,主需要注意url为自己电脑的ip即可

OpenAI-API-compatible

很多自己搭建的大模型,通常都会用到这个,我们以一个自己部署的通义千问2.5-VL为例,API endpoint URL处不要忘记/v1

最后

我们总以为AI是生产力的终点,却忘了它真正的使命是让我们重新成为「人」

那些曾被重复性工作淹没的创造力,那些在低效流程中消磨的好奇心,那些因疲于奔命而黯淡的想象力,都将在人机协同的新范式下重新绽放

Dify不是另一个需要驾驭的工具,而是一扇门。

门后是这样一个未来:

工程师不再困于SQL调优的泥潭,转而去设计更优雅的数据架构;

产品经理不必通宵写竞品分析,转而推演更本质的商业逻辑;

创业者们告别无意义的试错循环,转而专注解决真实世界的痛点。

正如凯文·凯利所说:「所有公司终将成为AI公司,但真正的赢家会是先成为人类公司的那些。」

这趟效率革命的列车已经启动,下一站,我们将用Dify拆解第一个真实场景——让AI替你24小时监控开源项目更新,从此告别信息焦虑。

你准备好成为这场变革的参与者,而不只是旁观者了吗?

 

53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询