微信扫码
与创始人交个朋友
我要投稿
在过去六个月里,我们 LinkedIn 的团队一直在努力开发一种新的 AI 驱动的系统体验。我们希望重新设想我们的用户如何进行工作岗位搜索和浏览专业内容。
生成式 AI 的爆发让我们停下来思考,现在有哪些场景是一年前不可能实现的。我们尝试了许多想法,但都没有真正奏效,最终我们发现了可以将每个动态和职位发布变成一个开始:
更快获取信息,例如从帖子中提取要点或了解公司的最新动态。
以及更多[1]
概述
让我们通过一个真实场景来展示系统是如何工作的。
选择合适的代理:这是您旅程的开始。我们的系统会根据您的问题决定哪个 AI 代理最适合处理它。在这种情况下,它识别出您对技术公司内可访问性感兴趣,并将您的查询路由到专门处理一般知识寻求问题的 AI 代理。
撰写回应:有了必要的信息,AI 代理现在可以写回应了。它过滤和综合数据,提供一个连贯、信息丰富的答案,向您展示可访问性举措如何为技术公司推动商业价值。为了避免生成一大段文字并使体验更加互动,内部 API 被调用来用文章链接或帖子中提到的人的资料装饰回应。
这大部分得益于大型语言模型(LLMs)的出现,我们认为分享我们在它们之上构建时面临的幕后故事会很有趣。
容易的部分
路由:决定查询是否在范围内,以及将查询转发到哪个 AI 代理。示例的代理包括:职位评估、公司理解、帖子要点等。
检索:以召回为导向的步骤,AI 代理决定调用哪些服务以及如何调用(例如 LinkedIn 人物搜索、Bing API 等)。
调整“路由”和“检索”感觉更自然,因为它们的分类性质:我们构建了开发集,并使用提示词工程和内部模型对其进行了适配。现在,生成则是另一回事。它遵循 80/20 规则;达到 80% 的速度很快,但最后的 20% 占用了我们大部分的工作。当你的产品期望 99% 以上的答案都应该是优秀的,即使使用最先进的模型,仍然需要大量的工作和创造力来获得每一个 1% 的提升。
固定三步流水线
基于嵌入的检索(EBR),由内存数据库驱动,作为我们的‘低成本微调’,直接将响应示例嵌入我们的提示词中
我们希望在多个团队中快速行动,因此决定将任务拆分为由不同人员开发的独立代理(即AI 代理):一般知识、工作评估、帖子要点等。
然而,这种方法引入了重大妥协。通过并行化任务,我们在速度上获得了优势,但代价是碎片化。当与助手的后续互动可能由不同的模型、提示或工具管理时,保持统一的用户体验变得具有挑战性。
为了解决这个问题,我们采用了简单的组织结构:
一个小型的“横向”工程小组,负责处理通用组件并专注于整体体验。这包括:
产品托管服务
评估/测试工具
所有垂直领域(如代理的全球身份、对话历史、越狱防御等)使用的全局提示模板
我们的 iOS/Android/Web 客户端共享的 UX 组件
用于无需客户端代码更改或发布即可发布新 UI 更改的服务器驱动 UI 框架
对我们有效的方法:
共享提示模板(如“身份”定义)、UX 模板、工具和监控
我们遇到的困难
评估我们答案的质量比预期的要困难。挑战可以大致分为三个领域:制定准则、扩展注释和自动评估。
扩展数据标注是第二步。最初团队中的每个人都参与进来(产品、工程、设计等),但我们知道我们需要一个更有原则的方法,具有一致和多样化的注释者(评分)。我们的内部语言学家团队建立了工具和流程,通过这些工具和流程,我们每天能评估多达 500 次对话,并获得关于:整体质量分数、幻觉率、负责任 AI 违规、连贯性、风格等的指标。这成为我们理解趋势、迭代提示并确保我们准备好上线的主要标志。
图2:我们执行的评估步骤。工程师进行快速粗略的评估以获取方向性指标。注释者提供更细致的反馈,但反馈周期大约需要1天。成员是最终的评判者,为我们提供了规模,但某些指标可能需要3天以上才能进行单次更改。
领英拥有大量关于个人、企业、技能、课程等方面的独特数据,这些数据对于构建提供独特和差异化价值的产品至关重要。然而,大语言模型(LLMs)并未接受过这些信息的训练,因此无法直接利用它们进行推理和生成响应。为了解决这个问题,一种标准的做法是建立一个检索增强生成(RAG)管道,通过该管道调用内部 API,并将它们的响应注入到后续的 LLM 提示中,以提供额外的上下文来支撑响应。
这样的技能使LLM能够执行与我们的产品相关的各种操作,如查看个人资料、搜索文章/人物/工作/公司,甚至查询内部分析系统。同样的技术也用于调用非领英 API,如 Bing 搜索和新闻。
图3:使用技能调用内部 API
容量和感知成员延迟始终是我们关注的重点。一些方面:
质量与响应时间:像思维链(CoT)这样的技术在提升答案质量和减少幻觉方面非常有效。然而,这些技术需要使用成员无法直接看到的令牌,从而增加了他们感受到的响应延迟。
吞吐量与响应延迟:运行大型生成模型时,通常情况下,首次令牌时间(TTFT)和令牌间时间(TBT)随着系统利用率的提高而增加。在令牌间时间(TBT)方面,增加可能是线性的。如果你愿意牺牲这两个指标,通常可以实现每秒令牌数(TPS)的两倍或三倍增长,但我们最初必须对它们进行严格限制。
成本:GPU集群不仅难以获取,而且成本高昂。起初,我们不得不制定时间表来规定何时可以进行产品测试,因为测试会消耗大量令牌,从而影响开发者的正常工作。
这些因素有时会相互作用,产生有趣的影响。例如,我们最初只对首次令牌时间(TTFT)进行了限制,因为这直接关系到我们初始产品的用户响应延迟。当我们解决幻觉问题并且思维链在我们的提示中变得重要时,我们忽略了令牌间时间(TBT)会对我们造成更大的影响,因为任何‘推理’令牌都会成倍增加用户感知的延迟。这导致我们的一个公开发布突然触发警报,有些任务达到了超时,我们迅速增加系统容量以缓解这一问题。
我们正在进行的工作:
将更简单的任务迁移到内部经过微调的模型上
为LLM部署提供更加可预测的基础设施
减少每个处理步骤中的令牌浪费
收获
我们已经说得够多了,让我们的产品自己来展示吧。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-24
RAGChecker:显著超越RAGAS,一个精细化评估和诊断 RAG 系统的创新框架
2024-11-23
FastRAG半结构化RAG实现思路及OpenAI O1-long COT蒸馏路线思考
2024-11-23
检索增强生成(RAG):解密AI如何融合记忆与搜索
2024-11-23
如何提高RAG系统准确率?12大常见痛点及巧妙解!
2024-11-23
RAG 2.0性能提升:优化索引与召回机制的策略与实践
2024-11-22
RAG技术在实际应用中的挑战与解决方案
2024-11-22
从普通RAG到RAPTOR,10个最新的RAG框架
2024-11-22
如何使用 RAG 提高 LLM 成绩
2024-07-18
2024-05-05
2024-07-09
2024-05-19
2024-07-09
2024-06-20
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27
2024-10-25
2024-10-21
2024-10-21