微信扫码
添加专属顾问
我要投稿
刚刚谷歌的 Gemini 模型又双叒叕升级了!谷歌发布了两款更新后的可投入生产的Gemini模型:Gemini-1.5-Pro-002 和 Gemini-1.5-Flash-002,以及以下更新内容:
1.5 Pro的价格降低了50%以上(针对提示词 (prompt) <128K的输入和输出)
1.5 Flash的速率限制提升了2倍,1.5 Pro提升了约3倍
输出速度提升2倍,延迟降低3倍
这些新模型基于最近的实验性模型发布,包含了对5月份在Google I/O发布的Gemini 1.5模型的重大改进。开发者可以通过Google AI Studio和Gemini API免费访问最新模型。对于大型企业和Google Cloud客户,这些模型也可以通过Vertex AI获得
Gemini 1.5系列是针对广泛的文本、代码和多模态任务设计的模型。例如,Gemini模型可以用于从1000页的PDF中提取信息,回答包含超过1万行代码的代码库中的问题,分析长达一小时的视频并从中创建有用的内容,等等
通过最新的更新,1.5 Pro和Flash在生产环境中更好、更快、更具成本效益。在更具挑战性的MMLU-Pro(流行的MMLU基准的改进版本)中,有了约7%的提升。在数学(MATH)和HiddenMath(内部保留的数学竞赛问题集)基准测试中,这两个模型分别提升了约20%。在视觉和代码生成用例中,这两个模型的性能也有所提升(范围为2-7%),特别是在评估视觉理解和Python代码生成时
提升了模型响应的整体有效性,这意味着在多个主题中,拒绝或无法提供帮助的情况减少,更多的回答是有帮助的
现在,响应风格根据开发者反馈变得更加简洁,旨在提高使用便利性并降低成本。对于像摘要、问答和信息提取这类用例,更新后模型的默认输出长度比以前的模型短5-20%左右。对于用户可能偏好更长回复的聊天产品,您可以阅读提示词策略指南,了解如何让模型更详细和更具对话性
有关迁移到最新Gemini 1.5 Pro和1.5 Flash版本的更多详细信息,请查看Gemini API模型页面
今天,谷歌宣布对最强1.5系列模型Gemini 1.5 Pro进行价格调整,输入Token价格降低64%,输出Token价格降低52%,增量缓存Token价格降低64%,自2024年10月1日起生效,适用于提示词少于128K Token的情况。结合上下文缓存,这将继续降低使用Gemini构建的成本
为了让开发者更容易使用Gemini构建应用程序,将1.5 Flash的付费层速率限制提升至2000 RPM,并将1.5 Pro提升至1000 RPM,相比之前分别是1000和360。在接下来的几周内,预计将继续提高Gemini API的速率限制,以便开发者能够利用Gemini构建更多应用。
随着最新模型的核心改进,显著减少了1.5 Flash的延迟,并大幅提升了每秒输出Token数量
图3:Google Gemini模型的延迟变化
谷歌发布了一个进一步改进的Gemini 1.5模型,名为“Gemini-1.5-Flash-8B-Exp-0924”。这一改进版在文本和多模态用例上都有显著性能提升。现在可以通过Google AI Studio和Gemini API访问该模型
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-08-13
2024-06-13
2024-09-23
2024-08-21
2024-05-28
2024-07-31
2024-08-04
2024-04-26
2024-07-09
2024-09-17
2025-03-10
2025-03-10
2025-03-10
2025-03-10
2025-03-08
2025-03-08
2025-03-07
2025-03-07