微信扫码
添加专属顾问
我要投稿
AI工程师亲述日常低效工作流,Dify平台助你高效实现AI应用。核心内容:1. AI工程师日常工作中的低效实践案例2. Dify平台定义与功能介绍3. Dify如何助力不同场景下的AI应用开发与优化
我相信有很多朋友和我一样在工作过程中用过了AI。
作为一个软件工程师,尤其是在写代码的过程中,较几年前没有AI什么都需要上网查的年代,效率上有了大幅的提升。
作为一个平时工作主要围绕着AI开展的工程师,做AI也超过一年时间了,最近经常有朋友问,你自己做AI的,你说说AI有啥用?
这个问题把我问愣住了。
貌似连我这个经常在倒腾AI的人,除了让AI写代码/查BUG之外,好像也没有别的了。
仔细一想,很多时候也还在用非常低效的方式工作。
比如,我要去某网站爬一些数据,我可能会自己用python写代码解析各种html中的selector,自己组装数据,即使有AI的帮助,也只是让AI帮忙重复写请求和解析代码,这并不高效。
比如,我在写sql的时候,有时候明知道有Text2SQL,也会因为懒得把表结构信息拷贝给AI,而花不少工夫在调SQL上。
再比如,我也会经常人肉到魔塔社区、Github上去翻阅最近有没有出新的、重磅的模型和开源项目,然而这种重点内容明明可以让AI检索之后,自动推送给我,免得我错过重要的消息。
当然还有更多的场景,我们都可以用AI来提高获取信息速度和解决问题的效率,那么本系列文章,我们就来解决这个问题。
Dify 是一款开源的大语言模型(LLM) 应用开发平台。使开发者可以快速搭建生产级的生成式 AI 应用。即使你是非技术人员,也能参与到 AI 应用的定义和数据运营过程中。
Dify 一词源自 Define + Modify,意指定义并且持续的改进你的 AI 应用,它是为你而做的(Do it for you)。
2025年2月28日,Dify团队在经历了15个版本的运营之后,终于来到了1.0.0版本这个历史性的发布时刻。
在1.0.0版本中,Dify彻底解耦了可以从 Dify 扩展的工具和模型,使我们能够以真正的即插即用方式安装它们,并基于此推出了 Dify Marketplace,这是一个集中式平台,插件可以在其中自由共享,允许用户发布和下载不同的插件。
为了不过多的把时间都浪费在各种部署和调试上,我这里直接使用阿里云百炼平台的api做demo,其中已经包含了各种国内常用的大模型。
在安装好Docker之后,我们可以使用下面的命令,就完成启动了。
git clone https://github.com/langgenius/dify.git
cd ./docker
docker compose -f docker-compose.yaml up -d
但是,针对网络环境并不那么友好的读者朋友,可能会非常慢,如果条件不允许一两天都部署不好。
我们用AI的目的是为了提高效率,如果被网络卡很久弄不好,就违背了初衷了。
我们第一个高效工作流,就是提供一个对国内网络环境友好的安装版本。
可以把上述官方仓库的地址,修改为下面的地址:
https://github.com/dongfangzan/dify.git
在这个仓库中,我们修改了一下两处地方
docker-compose.yaml
在本文件中,我们已将所有dify使用的镜像从官方仓库推送到了阿里云镜像仓库,理论国内的网络访问都会比较快了,并且后续版本更新之后,我们也会持续进行更新。
pip源
将dify安装插件时的pip源同样修改为阿里云,插件安装速度更快。
现在安装只需执行下面的命令即可
https://github.com/dongfangzan/dify.git
cd ./docker
docker compose -f docker-compose.yaml up -d
大概2-3分钟,下载完成之后,访问下面的地址就可以看到Dify启动成功了。完成管理员设置之后,我们就可以正式登入Dify界面了。
点击右上角的插件->从 Marcketplace 安装
在界面上搜索 tongyi 关键字,这里搜中文是搜不到的,这估计是一个bug,也许社区会逐步修复。
点击安装,稍等片刻就可以看到插件安装成功的通知了。
这个插件的安装不会很快,如果感兴趣可以通过下面的命令查看日志,其他插件类似。
docker logs -f docker-plugin_daemon-1
值得注意的是,如果你用的是官方提供的docker-compose文件,且网络环境不太好,可能插件会安装的非常慢,甚至docker-plugin_daemon-1这个容器会反复挂掉重启
点击右上角头像-设置
选择模型供应商,找到我们刚才安装好的插件,就可以
点击保存,就可以看到已经设置好了。
这时点击系统模型设置,就可以看到当前模型供应商下所有的模型啦。
点击顶部的工作室-选择创建空白应用
选择聊天助手-输入应用名称 & 图标,点击创建
然后选择好模型,随便输入一点内容,测试一下聊天就好了。
你还可以在插件-模型中找到更多的模型供应商,这里就不一一赘述了,都可以通过上述的方式安装完插件进行一些简单配置即可。
这里我们再介绍两种常用的配置
我们以本地部署的deepseek-r1为例子,主需要注意url为自己电脑的ip即可
很多自己搭建的大模型,通常都会用到这个,我们以一个自己部署的通义千问2.5-VL为例,API endpoint URL处不要忘记/v1
我们总以为AI是生产力的终点,却忘了它真正的使命是让我们重新成为「人」
那些曾被重复性工作淹没的创造力,那些在低效流程中消磨的好奇心,那些因疲于奔命而黯淡的想象力,都将在人机协同的新范式下重新绽放。
Dify不是另一个需要驾驭的工具,而是一扇门。
门后是这样一个未来:
工程师不再困于SQL调优的泥潭,转而去设计更优雅的数据架构;
产品经理不必通宵写竞品分析,转而推演更本质的商业逻辑;
创业者们告别无意义的试错循环,转而专注解决真实世界的痛点。
正如凯文·凯利所说:「所有公司终将成为AI公司,但真正的赢家会是先成为人类公司的那些。」
这趟效率革命的列车已经启动,下一站,我们将用Dify拆解第一个真实场景——让AI替你24小时监控开源项目更新,从此告别信息焦虑。
你准备好成为这场变革的参与者,而不只是旁观者了吗?
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-03-20
AI交互新范式:MCP(模型上下文协议)场景化应用与科普
2025-03-20
本地部署OpenManus对接QWQ-32B大模型并实现远程访问
2025-03-20
188元,无需网络,DIY 开源AI-Box离线运行 DeepSeek /Qwen /Gemini 大模型!
2025-03-20
小白也能搞懂的MCP教程,MCP到底有什么用?简单易懂,一学就通
2025-03-20
国内使用Claude 3.7 sonnet的6种方法
2025-03-20
SmolDocling | 高效文档转换VLM
2025-03-19
有意思了,DeepSeek 自动操作浏览器!已开源!
2025-03-19
发布第三天,我的开源项目突破 1K Star!
2025-01-01
2024-07-25
2025-01-21
2024-05-06
2024-09-20
2024-07-20
2024-06-12
2024-08-13
2024-07-11
2024-12-26
2025-03-19
2025-03-17
2025-03-17
2025-03-13
2025-03-13
2025-03-08
2025-03-03
2025-03-02