AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


我们是这样做大模型应用的(文末有惊喜)
发布日期:2024-11-12 18:25:52 浏览次数: 1544 来源:fairy with you



介绍

Dify 是一款开源的大语言模型(LLM) 应用开发平台。它融合了后端即服务(Backend as Service)和 LLMOps 的理念,使开发者可以快速搭建生产级的生成式 AI 应用。

Dify 一词源自 Define + Modify,意指定义并且持续的改进你的 AI 应用,它是为你而做的(Do it for you)。

你或许可以把 LangChain 这类的开发库(Library)想象为有着锤子、钉子的工具箱。与之相比,Dify 提供了更接近生产需要的完整方案,Dify 好比是一套脚手架,并且经过了精良的工程设计和软件测试。

重要的是,Dify 是开源的,它由一个专业的全职团队和社区共同打造。你可以基于任何模型自部署类似 Assistants API 和 GPTs 的能力,在灵活和安全的基础上,同时保持对数据的完全控制。

以上内容摘自Dify官方文档。

从Dify介绍我们可以简单把它理解为一个智能体平台,类似百度的文心智能体平台、字节的扣子、腾讯的元器等。

我们可以在Dify平台很方便地接入目前市面上主流的大模型的能力,并且Dify内置了很多好用的工具,这让Dify拥有很强的拓展能力。例如可以可以给大模型问题联网搜索的SearXNG。下面我们部署体验一下Dify。

部署

我们使用Docker Compose去部署Dify(如果你仅仅想体验Dify功能,官方提供了云服务支持在线体验,链接见后文末传送门,部署章节可以直接跳过到体验部分)。官方建议部署Dify的机器的资源配置:

  • CPU>=2 Core
  • RAM>=4GiB

我们准备好一台不低于2核4G的机器就可以开始部署Dify了。

1、克隆Dify代码仓库:

git clone https://github.com/langgenius/dify.git

2、启动Dify

cd dify/docker
cp .env.example .env
docker compose up -d

运行上述命令后看到控制台有下面输出:

[+] Running 11/11
 ✔ Network docker_ssrf_proxy_network  Created                                                                 0.1s 
 ✔ Network docker_default             Created                                                                 0.0s 
 ✔ Container docker-redis-1           Started                                                                 2.4s 
 ✔ Container docker-ssrf_proxy-1      Started                                                                 2.8s 
 ✔ Container docker-sandbox-1         Started                                                                 2.7s 
 ✔ Container docker-web-1             Started                                                                 2.7s 
 ✔ Container docker-weaviate-1        Started                                                                 2.4s 
 ✔ Container docker-db-1              Started                                                                 2.7s 
 ✔ Container docker-api-1             Started                                                                 6.5s 
 ✔ Container docker-worker-1          Started                                                                 6.4s 
 ✔ Container docker-nginx-1           Started                                                                 7.1s

检查容器都是正常运行,查看端口映射就可以访问Dify了。部署部分内容完全摘自官方文档。如遇到部署问题可在公众号私信后台留言交流!

体验

使用Docker Compose部署完成Dify之后我们就可以体验Dify了。我们在浏览器通过hostIp即可访问Dify,如果你的80端口已经在用了,你需要在部署的时候修改下容器端口的映射规则。

输入邮箱和用户名密码即可完成Dify的初始化。

下面我们介绍下Dify的主要玩法。

接入大模型

Dify本身已经把主流大模型已经对接好了,我们只需要去申请对应的API Key补充到Dify里面即可。

创建应用

Dify平台支持创建四种类型的应用:聊天助手、文本生成应用、Agent、工作流。这里我们主要介绍Agent和工作流类型。首先我们可以新建一个Agent类型的应用:

可以看到Agent支持关联知识库作为上下文回答,支持添加开场白以及其他丰富的工具来完善Agent应用的能力:

下面我们体验一下“旅行规划助手”的能力:

可以看到Agent给出了计划。联系知识库做上下文问答的效果如下:

下面我们体验一下文字转卡片的一个工作流,整个工作流是我们输入作者名字和内容,调用了一个文字生成图片的接口:

点击运行就生成了我给大家准备的专属1024祝福卡片:

Dify的应用可通过DSL文件格式进行分享,如果需要请在后台留言私信!!!

Dify的所有应用都支持API访问,这个给开发者提供了无限可能,大家可以基于应用的API能力定制自己的应用,这也是我们最近在做的大模型应用的思路。

本期内容相对来说较为浅薄,更多Dify的玩法大家可以移步官方文档。

最后,祝各位朋友1024节日快乐!!!


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询