微信扫码
添加专属顾问
我要投稿
发布时间:2024 年 04 月 18 日RAG
尽管自动化文本到 SQL 技术不断进步,但与人类专家相比,其执行准确性仍有较大差距。为了提升性能,同时降低成本和加快速度,我们采用了低成本微调、创新的多样化检索增强生成技术(RAG)以及优化的输入输出格式,以助力大型语言模型(LLMs)在 BIRD-SQL 基准测试中获得更高的执行准确性。我们推出了两种创新方法:Dubo-SQL v1 和 v2。Dubo-SQL v1 在 BIRD-SQL 的保留测试集中创下了新纪录,而 Dubo-SQL v2 在开发集上的表现更为出色。Dubo-SQL v1 采用了 OpenAI 的 LLMs,并通过使用成本效益高的 GPT-3.5 Turbo,超越了使用更昂贵 GPT-4 的下一个最佳模型。Dubo-SQL v1 的性能比使用 GPT-3.5 的前最佳模型提高了 20%以上。Dubo-SQL v2 则采用 GPT-4 Turbo 和 RAG 技术,取代了传统的微调方法,进一步提升了执行准确性。
Text2SQL也是AI领域非常火爆的一个应用场景。在BIRD-SQL测试数据集上,LLM通过简单的Zero Shot,可以把准确率从T5-Base的12.89%提升到GPT4的54.89%。但是GPT4的Zero Shot表现相比人类而言,仍然有很大的差距。
• 与Python或C++等语言的代码补全和编写任务不同,SQL编写更依赖于对用户上下文的深入了解。为了编写准确的SQL,可能需要数百万词的完整上下文。大型企业通常拥有成千上万的数据库表和比数据库模式更长的自然语言文档。没有这些指标定义、数据库模式和相关文档,文本到SQL模型最多只能生成语法正确的SQL语句,而无法准确定义用户指标及其所需的表格和列。
研究如何促使LLM更准确地编写代码以回答更复杂的问题,对于提高文本到SQL的执行准确率至关重要。
• 少数样本学习(Few-shot learning)通过在不改变模型参数的前提下,通过仅提供少量问答对,可以在较低的成本下接近或超越微调模型的性能。
• 思维链提示(Chain-of-Thought prompting)通过讨论中间步骤和模仿人类推理,使LLM能够更准确地回答复杂问题。
• 自我反思(Self-reflection)通过调用外部服务来检查LLM的答案,并根据反馈更新答案。
• 还有能够调用外部函数或额外LLM作为子代理的自治代理,这些代理能够自我判断何时成功回答问题或完成任务。在文本到SQL这样的特定领域内,可以预先规划多次调用LLM和其他函数,将问题分解为更易处理的部分,而不必赋予LLM完全的自主权。
• 在这些技术之前,微调(Fine tuning)允许通用LLM针对特定任务进行专业化,只需数百个标记的训练示例。与少数样本学习相比,微调需要更多的示例,但比LLM预训练需要的示例少得多。微调虽然有前期成本,但在推理时可以通过两种方式节省成本:
• 一是微调的小模型可能超过未微调的大模型的性能;
• 二是微调可以替代系统提示和少数样本示例,使得新问题可以用更简洁的提示提交。
• 如果模型被用于推理的次数足够多,微调和推理的总成本可能低于使用少数样本提示的成本。
在这篇文章里,作者开发了两种Text2SQL的方法:
• Dubo-SQL v1:一种低成本、高效率的微调方法,在BIRD-SQL基准测试中创下了新纪录,且成本低于竞争对手
• Dubo-SQL v2:采用了创新的检索增强生成流程,在使用GPT-4 Turbo时性能超过了v1
Dubo-SQL v1(如上图)是一种经济高效的微调技术,与GPT-3.5 Turbo搭配使用,在BIRD-SQL基准测试中刷新了记录;
首先,作者参考上图的示例格式准备表格架构和样本数据,具体案例见上图List 2。我们最多展示五条样本数据,如果每行的令牌数导致整个提示超出模型上下文窗口限制,我们会相应减少数据行数。如果数据库中提供了外键信息,我们也会一并包含,但会移除主键和列约束,以确保只提供数据分析师在编写SQL查询时通常需要的信息。
然后,我们按上图List 3的格式构建提示,具体案例在上图List 4。提示词尽可能简洁明了,不包含任何示例或演示、系统提示、角色分配(例如“你是一位资深数据分析师”)、任务描述或指令。直接提供数据库上下文,并以用户的问题作为结束。
最终,我们将BIRD训练集的样本提交给OpenAI,对GPT-3.5 Turbo进行微调。微调所用的理想响应是直接陈述SQL查询,不附带任何前言、思维过程或如JSON和代码块等格式。我们使用1,724万个令牌,对9,424个BIRD训练样本进行两个epochs的训练。
在测试阶段,以相同的方式构建提示,并将其提交给最大令牌数为1,000的微调模型。在所有情况下,我们都包括BIRD提供的证据,详情如下。在确定最终答案前,我们会尝试执行SQL查询。如果查询返回错误信息,我们会使用原始的用户提示和响应,加上第二个用户提示,分享错误并请求修正的SQL查询,如下图的List 5。
对于Dubo-SQL v2(如上图),作者没有使用Finetune,而是使用了提示工程,包括系统提示和少量样本示例。下图的List 6中的系统提示涵盖了角色分配、任务描述以及输入输出格式的说明。
在Dubo-SQL v1中,作者以CSV格式展示样本数据;而在Dubo-SQL v2中,采用了一种更易于大语言模型读取的输入格式。相较于传统数据分析工具如Python Pandas以及人类通过上下扫视即可轻松理解的CSV数据,大语言模型在处理长CSV文件时,可能难以将数据点与相应列对应起来。因此,我们采用每列独占一行的方式,旁边附上列描述和最多五个示例值。List 6中的系统提示还包含了数据库架构格式的模板,该格式与MAC-SQL相似,但做了细微调整,而提示和流程的其他部分则有显著不同。
作者还引入了以下改进:
• 多样化的RAG:在选择少量样本示例时,首先使用OpenAI的text-embedding-3-large工具计算BIRD训练集中所有自然语言问题向量的嵌入。我们仅嵌入问题本身,不包括证据或正确的SQL语句。对于每个新问题,我们根据余弦相似度来选择少量样本示例。我们发现,许多情况下最为相似的问题仅仅是彼此的小变体。为了获得更具信息量的示例,规定对于任何一个参考数据库,只允许使用一个示例问题-答案对。
• 会话历史中的Few Shot示例:在以往的研究中,Few Shot要么包含在系统提示中,要么包含在用户提示中,并明确指出它们是供大语言模型学习的例子。如果我们将问题作为用户消息、答案作为助手消息纳入会话历史中,并且这些消息的格式与新用户问题的格式以及大语言模型预期的响应格式保持一致,大语言模型能从这些少量样本示例中学到更多。
• JSON格式输出:请求以JSON格式输出结果可以提高执行准确率,相比直接请求SQL语句,无需额外的代码块或JSON格式包装。
上图所示,在BIRD测试集中,Dubo-SQL v1的执行准确率达到了60.71%。不仅超越了基于OpenAI专有模型构建的同类模型,如MAC-SQL(59.59%)、DAIL-SQL(57.41%)、DIN-SQL(55.90%),也超过了BIRD团队设定的零样本GPT-4基线(54.89%)。
此外,Dubo-SQL v1的模型,基于GPT-3.5 Turbo构建,比ChatGPT(39.30%)高出21.41%。
一旦GPT-4的微调功能对公众开放,对Dubo-SQL v1进行类似训练的过程有望进一步提升执行准确率。
如上图所示,Dubo-SQL v2的执行准确率61.47%,比Dubo-SQL v1提高了1.63%,尽管与MCS-SQL和GRA-SQL相比仍有差距。通过引入多样化的少量样本示例,以更高的执行准确率避免了微调步骤,尤其是当与具有更强基线推理能力的大型语言模型Agent应用相结合时。尽管Dubo-SQL v2的推理成本较高,但其初始设置成本较Dubo-SQL v1更低。面对新环境,如大型企业数据库,Dubo-SQL v2能够提供更迅速的初步测试途径。
Dubo-SQL v1的训练费用,按照OpenAI每百万训练令牌8美元的定价,总计为273美元。平均每题的令牌数和95百分位的令牌数分别为1686和3327,其中输出令牌的中位数和95百分位数分别为49和80。根据OpenAI对微调模型的收费标准,即每百万输入令牌3美元,每百万输出令牌6美元,即便是在95百分位的情况下,每道自然语言问题的推理成本也低于0.01美元。
这一成本较之DIN-SQL的每题0.50美元有显著优势,尽管DIN-SQL的性能略低于Dubo-SQL v1,差距为4.81%。考虑到开发集中单就有1533个问题,Dubo-SQL v1的综合推理和训练成本仍低于DIN-SQL。在实际生产环境中,鉴于推理问题与训练问题的比例可能更高,使用Dubo-SQL v1的成本节约将更加显著。
对于Dubo-SQL v2,每道自然语言问题的平均令牌数和95百分位的令牌数分别为7970和13599。根据OpenAI对GPT-4 Turbo的定价,每百万输入令牌10美元,每百万输出令牌30美元,其推理成本为每题低于0.14美元,虽然高于Dubo-SQL v1,但相比DIN-SQL依然具有成本优势。
对Dubo-SQL v2分别测试了加入和不加入我们所引入各项改进的效果,测试样本为从BIRD开发集中随机抽取的500个问题。
• 引入错误修正循环,将执行准确率提升了2.2%。
• 将输出格式从纯文本改为JSON格式,同样提升了2.2%的执行准确率。
• 而从简单的检索增强生成方法,即选择与问题最相似的问题,转变为我们采用的挑选多样化相似问题集的方法,执行准确率提升了2.6%。
• 如果使用Dubo-SQL v1的同一微调模型(GPT3.5),执行准确率会下降6.6%;而如果使用未经微调的GPT-3.5 Turbo,则执行准确率会下降16.0%。
还探讨了使用一至八个少量样本示例的效果,并发现使用四个样本最为理想(见下图)。对于不同的大语言模型Agent应用,理想的少量样本示例数量也会有所不同。
• Github地址:https://github.com/mercatorhq/dubo-sql
https://arxiv.org/abs/2404.12560
if like_this_article():
do_action('点赞')
do_action('再看')
add_wx_friend('iamxxn886')
if like_all_arxiv_articles():
go_to_link('https://github.com/HuggingAGI/HuggingArxiv') star_github_repo(''https://github.com/HuggingAGI/HuggingArxiv')
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-02-01
2025-01-01
2024-08-13
2025-02-04
2024-07-25
2024-04-25
2024-06-13
2024-09-23
2024-04-26
2024-08-21
2025-03-17
2025-03-17
2025-03-16
2025-03-16
2025-03-16
2025-03-15
2025-03-15
2025-03-15