微信扫码
添加专属顾问
我要投稿
探索AI应用开发的新视角,深入了解智能体、LLM等核心概念。核心内容:1. 智能体(Agent)的定义及其与传统人工智能的区别2. 构建通用智能体平台的关键能力和应用场景3. 大语言模型(LLM)的工作原理及其训练和使用方式
什么是智能体 (Agent)
一种基于LLM(LargeLanguage Model)的能够感知环境、做出决策并执行行动以实现特定目标的自主系统。与传统人工智能不同,Al Agent 模仿人类行为模式解决问题,通过独立思考和调用工具逐步完成给定目标,实现自主操作。
通用智能体平台
以Agent为核心技术驱动,构建通用智能体平台,通过在智能体感知、记忆、规划和执行各关键环节的能力攻关,以适应不断变化的实际业务和日常办公需求,提供更加个性化和精准的服务,并助力工程人员解放脑、解放手、想的更全、做的更准,共同推动了其在更多复杂场景下的应用。
什么是LLM (Large Language Model)
大语言模型是一类基于深度学习的人工智能模型,旨在处理和生成自然语言文本。通过训练于大规模文本数据,使得大语言模型能够理解并生成与人类语言相似的文本,执行各类自然语言处理任务。
LLM的训练及使用
LLM能够理解并生成与人类语言相似的文本,执行各类自然语言处理任务,具体可应用场景包括而不限于文本生成、机器翻译、摘要生成、对话系统、情感分析等。其具有强大的泛化能力、能够处理多种任务。
LLM的训练
LLM的训练过程分为预训练和微调两个阶段。
预训练阶段
模型在大规模未标注文本数据上进行自监督学习,学习通用的语言表示。
微调阶段
模型在特定任务的标注数据上进行有监督学习,调整模型参数以适应具体任务需求。
LLM的使用
一方面,对于直观的日常使用,用户输入问题(提示词,Prompt),大模型给出该问题的回答。
另一方面,对于基于LLM的AI应用编程,可通过以指定格式调用LLM的API,获取问题的答案。
基于LLM的Agent框架
LLM:对标人类大脑,思考如何解决问题、给出怎样的回答。
记忆:长期记忆加短期记忆。即智能体使用的历史记录、系统数据,以及智能体执行过程中产生的各种中建信息。
规划技能:提示词编排、意图理解、任务分解、自我反思。
工具使用:智能体在执行任务中可能会使用到的各种工具接口。
Transformer架构
LLM的核心技术架构是Transformer,这是一个基于自注意力机制的深度学习模型。Transformer架构的关键在于其能够并行处理序列数据,大大提高了模型的训练效率和性能
参数规模
LLM通常采用大规模神经网络,参数数量从数百万到数十亿不等,例如通义干问(Qwen-7B)具有70亿的参数规模训练数据需要高质量的、经过预处理的多模态数据。参数规模的增加使模型具有更强的学习和泛化能力,能够处理复杂的语言任务,但也带来了计算成本和资源需求的显著增加。
什么是RAG
LLM回答用户问题时,是基于训练LLM时使用的文本数据进行的。而面对未知知识的问题,它并不能正确回答而容易产生错误的结果,即大模型的幻觉。
什么是RAG
RAG(Retrieval-augmented Generation)是一种自然语言查询方法,通过一个检索信息组件从外部知识源获取附加信息,馈送到LLM prompt以更准确地回答所需的问题。通过额外的知识来增强LLM 以回答问题,用以减少 LLM产生幻觉的倾向。
利用RAG减少幻觉
基于RAG技术,可以通过构建一个知识库,让LLM能够在回答问题时以这个知识库为基础,具备回答知识库中的相关内容的能力。
RAG的优势
基于RAG技术创建的知识库,可以比较便利地增删改其中的文档,可以支持更频繁的更新。
RAG的整体流程
RAG的整体流程分为两大步:
一是事先的索引丨(lndexing)也即是从私有文档构建知识库的过程;即为图蓝色虚线链路。
二是即时的查询(Querying)也即是针对已构建的知识库进行查询问答的过程。即为图红色虚线链路。先检索,然后生成。
RAG的效果
一是赋予LLM回答私有知识库问题的能力,减弱幻觉;
二是提供了回答中引用的原文出处,提高检索效率,同时便于直接对比原文确保LLM回答的准确性在智能问答、文档摘要、数据整理等领域发挥重要作用
什么是提示词 (工程)
提示词(Prompt)是指向LLM提供输入以引导其生成特定输出的文本或指令。
提示词
提示词包括两类,系统提示词与用户提示词。用户提示词即为用户的问题;系统提示词为人工智能应用内置的指向LLM的一组初始指令或背景信息,用于指导LLM的行为方式和响应模式。
一般情况下,提示词更多的是指用户提示词、即用户发送给LLM的问题。
提示词对LLM的影响
在生成文本时,LLM会试图理解并根据其理解生成相应的响应LLM生成的回答的质量受用户提示词的影响,更完善的提示词能够让LLM更好地理解用户意图、给出更契合更完善的回答
如何优化提示词
在提出用户问题时候,应该清晰而具体地表达指令,提出具体的需求;如果对LLM的输出格式有要求,那么最好提供参考文本作为示例。
如何编写更好的提示词
更为完善的提示词基本组成部分:
指令:要求模型对文本的处理动作。
指令的对象:需要模型处理的文本。
示例:案例或思维模型提示。
输出要求:对于输出内容的内容和格式要求;
异常情况:对于模型无法执行,或指令信息缺失时的异常处理机制。
下图为具体的示例(询问旅游规划),可以发现,在直接使用例如OpenAI等提供的LLM时,为了获取更好的问答体验,需要花费较长时间、较多心思来编写更好更完善的提示词,使用体验反而可能变差了
万字雄文:一次说清统一认证中心实现
统一认证中心的架构设计与实现(一)
什么时候你意识到做技术永无出路?
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-15
单卡复现 DeepSeek R1 Zero教程来了!
2025-02-15
申请API-KEY,通过接口使用DeepSeek服务
2025-02-15
DeepSeek零门槛三步极速部署指南,注册秒过,对话零延迟!
2025-02-15
大模型应用部署过程中流量管控的常见需求和应对方案
2025-02-15
腾讯云TI平台和HAI部署DeepSeek的步骤及其区别
2025-02-15
Chain-of-Action (行动链):从Agent工作流到Agent模型
2025-02-14
使用 Apache Dubbo 释放 DeepSeek R1 的全部潜力
2025-02-14
DeepSeek:没用CUDA,没用NVlink,AMD率先拥抱
2025-02-04
2025-02-04
2024-09-18
2024-07-11
2024-07-11
2024-07-26
2024-07-09
2025-01-27
2024-12-29
2025-02-01
2025-02-10
2025-02-10
2025-02-09
2025-02-05
2025-01-24
2025-01-22
2025-01-14
2025-01-12