微信扫码
与创始人交个朋友
我要投稿
OpenAI 终于推出Prompt Caching 给开发者省钱了。
OpenAI最新推出的Prompt Caching功能,一下子就让API调用成本腰斩,速度翻倍。这下,AI应用开发者们该笑醒了。
让我们来看看这个新功能:
成本砍半,速度飙升
这意味着什么?
简单来说,开发者可以用更少的钱,做更多的事。
适用范围广,自动生效
这可不是什么小打小闹的实验性功能。OpenAI直接把它应用到了主力模型上:
最爽的是,这个功能是自动应用的。开发者们不需要修改一行代码,就能享受到这个福利。
缓存机制详解
开发者优化建议
@bidhanxyz( @bagel_network 的创始人)甚至预测:
有人会在API上实现模糊缓存,将成本再降低50%。
这话说的,OpenAI的工程师们怕是要加班了。
@ShenHuang_(Google Travel Ads的技术主管)也表示:
这可以节省我大量的API调用成本?
看来,不只是小开发者,连大公司都对这个功能垂涎三尺啊。
AI开发的春天来了?
这个功能早有呼声,@AI_GPT42说到:
我一直在等这个功能?
OpenAI这一次,终于回应了开发者的需求。可以说是跟上了其他厂商(如deepseed, claude等),为AI应用开发铺平了道路。
成本降低,速度提升,用同样的钱能干更多的事,这也意味着更多的创新可能性。
53AI,企业落地应用大模型首选服务商
产品:大模型应用平台+智能体定制开发+落地咨询服务
承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-11-25
AI与你两小时对话就能复制出另一个你:准确率高达85%
2024-11-25
神奇的 OuteTTS - 0.1 - 350M:用几秒钟音频克隆声音的黑科技!
2024-11-23
大模型微调,使用QLoRA和自定义数据集微调大模型(上)
2024-11-22
RAG与微调:大模型落地的最佳路径选择
2024-11-22
微调大模型的五个技巧
2024-11-20
深入了解Fine-Tuning:解锁大语言模型的潜能
2024-11-19
大模型RAG神器,利用LangSmith监测、跟踪、微调LLM和RAG
2024-11-19
9.9比9.11大0.79,让大模型准确地做好数学题
2024-07-11
2024-07-11
2024-07-09
2024-09-18
2024-06-11
2024-07-23
2024-07-20
2024-07-12
2024-07-26
2024-07-23
2024-11-18
2024-11-16
2024-11-16
2024-10-31
2024-10-31
2024-10-27
2024-10-26
2024-10-25