AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


Dify: 最强AI工作流应用开发平台指南
发布日期:2024-09-09 22:21:53 浏览次数: 1654


「关于Dify的精彩介绍」

Dify是一款了不起的开源平台!它专门用来开发大型语言模型(LLM)的应用程序。你想想看,它融合了后端即服务(BaaS)和LLMOps的先进概念,让开发者们能快马加鞭地构建出生产级别的生成式AI应用。

最棒的是,即便你是技术小白,也能轻松上手,参与到定义AI应用和管理数据的全过程里。

有了Dify内置的一整套关键技术栈,构建LLM应用就跟玩似的!它支持上百种模型,界面直观易懂,还配备了高质量的检索增强生成(RAG)引擎,以及灵活多变的Agent框架。再加上那简洁明了的用户界面和API,开发者们再也不用在繁琐的重复劳动上浪费时间了,可以全身心投入到创新与业务需求中去。

类似UE游戏引擎那种蓝图去编写的你的AI应用,相当于你可以利用Dify打造自己的工作流。只要你逻辑够好,不懂python也能开发出自己的工作流。

「为啥要选Dify?」

如果你对GPT-4这样的LLM技术进步速度感到惊叹不已,恨不得马上把它运用到实际中,却又被一堆问题搞得一头雾水:

  • 怎么才能根据我们自己的数据或内容,“训练”出一个得心应手的模型?
  • AI怎么才能跟上时代步伐,知道最近发生的大事?
  • 我怎么才能保证AI不会误导用户,给出错误的信息?
  • 这个精调和嵌入到底是个啥玩意儿?

别急,Dify就是你的救星!

Dify的宗旨就是让开发者(当然,还有那些非技术大神)能够快速构建基于大型语言模型的AI应用,而且保证这些应用既看得见摸得着,又好用又能不断升级。通过它,我们可以像部署助手API和GPT那样,基于任何模型展开行动,同时在灵活安全的环境下,牢牢掌握住我们私有数据的主导权。更重要的是,Dify将助力我们的大型模型应用基于最新的数据发展,帮助我们摆脱LLM可能带来的偏见和误解,进一步提升我们在特定领域的专业水平,让我们私有的LLM成为行业内的佼佼者。

部署Dify

安装Docker桌面根据你的操作系统。

git clone https://github.com/langgenius/dify.git

cd dify/docker
docker compose up -d
# 等待安装完毕后启动服务

查看docker容器我们可以看到:

docker-api-1        langgenius/dify-api:0.3.2          "/entrypoint.sh"         api                 4 seconds ago       Up 2 seconds        80/tcp, 5001/tcp
docker-db-1         postgres:15-alpine                 "docker-entrypoint.s…"   db                  4 seconds ago       Up 2 seconds        0.0.0.0:5432->5432/tcp
docker-nginx-1      nginx:latest                       "/docker-entrypoint.…"   nginx               4 seconds ago       Up 2 seconds        0.0.0.0:80->80/tcp
docker-redis-1      redis:6-alpine                     "docker-entrypoint.s…"   redis               4 seconds ago       Up 3 seconds        6379/tcp
docker-weaviate-1   semitechnologies/weaviate:1.18.4   "/bin/weaviate --hos…"   weaviate            4 seconds ago       Up 3 seconds        
docker-web-1        langgenius/dify-web:0.3.2          "/entrypoint.sh"         web                 4 seconds ago       Up 3 seconds        80/tcp, 3000/tcp
docker-worker-1     langgenius/dify-api:0.3.2          "/entrypoint.sh"         worker              4 seconds ago       Up 2 seconds        80/tcp, 5001/tcp

我们主要看nginx那个服务容器已经映射到80端口,我们只要输入localhost即可访问Dify应用。

基本功能

我们创建一个新的文本生成应用,你可以根据你的喜好来填写应用的标题和描述。

强大的工作流

工作流通过将复杂的任务分解成较小的步骤(节点)降低系统复杂度,减少了对提示词技术和模型推理能力的依赖,提高了 LLM 应用面向复杂任务的性能,提升了系统的可解释性、稳定性和容错性。

比如我们平时写代码,会将一个大的功能拆分多个function,将多个function按顺序组合调用得到我们最后的结果,这些操作下来就是工作流。只不过我们现在不是写代码,变成可视化节点编写我们的AI应用。

「你可以通过连接不同的节点在一个无限的画布上构建你的 Workflow。」

在本次版本中,我们优先支持一些核心节点包括:

  • **LLM:**选择任意一个主流的大型语言模型,并定义它的输入和输出。
  • **工具:**使用内置的和自定义的工具来扩展你的 workflow 能够实现的功能。
  • **意图分类器:**让 LLM 对用户的输入自动分类,根据不同的类别进行工作流转。
  • **知识检索:**为你的 LLMs 挂载来自现有知识库的上下文数据。
  • **代码:**执行自定义的 Python 或 Node.js 代码。
  • **If/Else 块:**定义条件逻辑以创建分支的 Workflows。

「开放性:支持 DSL 导入导出」

Dify Workflow 支持 DSL 导入导出是其最酷的功能之一。通过 DSL,你可以轻松地导出你的 Workflows 并将它们导入到其他工作区,在系统之间移动你的 Workflows 并根据你的需要再次自定义它们。这个特性为社区内的合作、分享和在他人工作基础上再构建打开了一扇世界之窗。

如果你有什么更好玩的工作流,或者你想和梦兽编程一起交流。可以关注梦兽编程公众号扫码进群一起讨论Dify。期待你们的加入


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询