AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


OpenAI终于推出Prompt Caching:成本砍半、速度翻倍!细节介绍都在这里了
发布日期:2024-10-09 20:35:42 浏览次数: 1624 来源:AGI Hunt


OpenAI 终于推出Prompt Caching 给开发者省钱了。

OpenAI最新推出的Prompt Caching功能,一下子就让API调用成本腰斩,速度翻倍。这下,AI应用开发者们该笑醒了。

让我们来看看这个新功能:

成本砍半,速度飙升


OpenAI这次真的是下了血本:
  • 成本直接减半:长提示词的API调用成本降低了50%
  • 速度提升惊人:延迟降低了80%

这意味着什么?

简单来说,开发者可以用更少的钱,做更多的事

适用范围广,自动生效


这可不是什么小打小闹的实验性功能。OpenAI直接把它应用到了主力模型上:

  • GPT-4o
  • GPT-4o mini
  • o1-preview
  • o1-mini

最爽的是,这个功能是自动应用的。开发者们不需要修改一行代码,就能享受到这个福利。

缓存机制详解


那么,这个神奇的缓存是怎么工作的呢?
  • 缓存触发条件:提示词超过1,024个token
  • 缓存增量:以128个token为单位递增
  • 缓存匹配:需要完全匹配前缀才能命中缓存
  • 缓存保留时间:5-10分钟无活动后清除,最长保留1小时
  • 监控方式:通过API响应中的'cached_tokens'字段查看

开发者优化建议


OpenAI还贴心地给出了优化建议:
  1. 静态内容放在提示词开头,这样更容易命中缓存
  2. 缓存的输入token价格是未缓存token的一半
  3. 无需任何代码修改,系统会自动应用缓存

@bidhanxyz( @bagel_network 的创始人)甚至预测:

有人会在API上实现模糊缓存,将成本再降低50%。

这话说的,OpenAI的工程师们怕是要加班了。

@ShenHuang_(Google Travel Ads的技术主管)也表示:

这可以节省我大量的API调用成本?

看来,不只是小开发者,连大公司都对这个功能垂涎三尺啊。

AI开发的春天来了?


这个功能早有呼声,@AI_GPT42说到

我一直在等这个功能?

OpenAI这一次终于回应了开发者的需求。可以说是跟上了其他厂商(如deepseed, claude等),为AI应用开发铺平了道路

成本降低,速度提升,用同样的钱能干更多的事,这也意味着更多的创新可能性。


53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询