微信扫码
与创始人交个朋友
我要投稿
上个月,Google 在 Huggingface[1] 和 Kaggle[2] 上开源了两个新模型:datagemma-rag-27b-it 和 datagemma-rig-27b-it。其中新提出的 RIG(Retrieval Interleaved Generation)检索交错生成,提供了 LLM 与外部数据库交互的新思路。
熟悉 LLM 的同学都知道,LLM 是通过训练数据学习到的知识,因此使用大模型的时候会遇到“幻觉”和“过时”等问题,这都源于训练数据库没有包含相应的知识或者训练用的数据没有及时更新。考虑到 LLM 训练的昂贵的时间和金钱成本,在真是的应用中,通常会采用 RAG(Retrieval Augmented Generation)检索增强生成 技术来给 LLM “外挂” 一个最新的数据库,通过检索的方式利用 LLM 的能力来相应用户关于特定数据或最新数据的问题。
RAG 工作流程:
如图所示,当询问“再生资源的使用是否增加的时候?”,RAG 应用通过检索到的数据表进行数据获取,得到了数据准确的回答。
这次开源的 RIG 模型则采用了另一种模式 检索交错生成,这里的交错是指在生成部分响应和检索外部数据之间交替进行。该模型不会等待检索完所有数据后再生成响应;相反,它将这两个任务交错进行,因此检索和响应生成同时进行。
RIG 的流程可以分为几个关键步骤:
Google 这次的两个开源模型都是针对 Data Commons 进行的优化和测试,旨在解决大模型和真实数字数据交互的场景。“Data Commons 是一个公开可用的知识图谱,包含数十万个统计变量中超过 2400 亿个丰富的数据点。它从联合国 (UN)、世界卫生组织 (WHO)、疾病控制和预防中心 (CDC) 以及人口普查局等受信任的组织获取这些公共信息。将这些数据集组合成一组统一的工具和 AI 模型,使政策制定者、研究人员和组织能够寻求准确的见解。”
同时,Google 也在Colab[3]开放了两个模型的 Notebook,方便体验。现在让我们看一下 RIG 在 Data Commmons 上的真实使用效果。
问题:What progress has Pakistan made against health goals?
datagemma-rig-27b-it 的回答:
Pakistan has made some progress against its health goals, but significant challenges remain.
Here are some key points:
Progress made:
Increased life expectancy: Life expectancy at birth has increased from [DC#1(62.102 yr [1] || 61.8 years)] in 2000 to [DC#2(66.269 yr [2] || 67.2 years)] in 2020.
Reduced maternal mortality: Maternal mortality ratio has declined from [DC#3(387.3715 Per 100,000 live births [3]* || 276 per 100,000 live births)] in 2000 to [DC#4(177.7277 Per 100,000 live births [4]* || 140)] in 2018.
...
FOOTNOTES
[1] - Per datacatalog.worldbank.org, value was 62.102 yr in 2000. See more at https://datacommons.org/explore#q=what%20was%20the%20life%20expectancy%20in%20Pakistan%20in%202000%3F&mode=toolformer_rig
[2] - Per datacatalog.worldbank.org, value was 66.269 yr in 2020. See more at https://datacommons.org/explore#q=what%20was%20the%20life%20expectancy%20in%20Pakistan%20in%202020%3F&mode=toolformer_rig
...
在当前版本的 RIG 中,所有数值数据都有 DC 和 LLM 自生成两种来源,方便用户进行比较和筛选,同时每一个数据还会给出精确到条目的来源。
从上述回答中可以看出,RIG 和 RAG 一样,主要作用是减少 LLM 使用时的幻觉,通过将实时数据检索与生成过程交织在一起,RIG 在形成响应时持续查询可信数据源,有助于模型将其输出建立在现实世界的事实信息中,从而显著降低幻觉的风险。
RIG 的另一个显著优势是它能够在生成响应的同时实时适应。与 RAG 在数据在生成响应之前仅检索一次不同, RIG 在响应生成期间是动态交错检索。如果 LLM 遇到多条缺失或不完整的信息,它可以迭代地获取数据,同时优化其响应。
在实际使用中,RIG 更能有效发挥小规模参数 LLM 的性能。RAG 将所有查询与结果单词输入 LLM,响应的答案严重依赖 LLM 上下文长度的处理能力。RIG 的路线只针对特定数据检索,对于上下文长度的处理能力要求更也更低;同时,RIG 对于检索不到的数据会使用占位符的形式提醒用户,其对提供的数值答案相对可靠性更强,更适合对数值数据要求高的敏感低功耗场景,如价格客服、金融服务和医疗服务等。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-22
RAG技术在实际应用中的挑战与解决方案
2024-11-22
从普通RAG到RAPTOR,10个最新的RAG框架
2024-11-22
如何使用 RAG 提高 LLM 成绩
2024-11-21
提升RAG性能的全攻略:优化检索增强生成系统的策略大揭秘 | 深度好文
2024-11-20
FastGraphRAG 如何做到高达 20%优化检索增强生成(RAG)性能优化
2024-11-20
为裸奔的大模型穿上"防护服":企业AI安全护栏设计指南
2024-11-20
RAG-Fusion技术在产品咨询中的实践与分析
2024-11-19
构建高性能RAG:文本分割核心技术详解
2024-07-18
2024-05-05
2024-07-09
2024-07-09
2024-05-19
2024-06-20
2024-07-07
2024-07-07
2024-07-08
2024-07-09
2024-11-06
2024-11-06
2024-11-05
2024-11-04
2024-10-27
2024-10-25
2024-10-21
2024-10-21