AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


超越GPT-4o!70B Llama3改进后超厉害!
发布日期:2024-05-22 10:52:40 浏览次数: 1780



70 B的模型,1000个token,相当于4000个字符!
在Llama3上做了一些改进,并且引进了一种加速算法,所以它的运算速度比原版要快上十三倍!
不仅仅是速度,它的性能比GPT-4o还要好。

关注腾科AI,可以免费体验无魔法版本的ChatGPT哦!



这个结果,是由最近很流行的人工智能程序工具 Cursor的团队 anysphere提供的。

要知道,就算是 Groq这个以速度见长的程序,70 Blama3的计算速度,也只有300个左右。
Cursor的这种速度,几乎可以说是完成了几乎瞬间完成的全部代码文件的编辑。
有人惊呼一声,如果将 Cursor的LAMa3放在 Groq上,那岂不是一秒就能达到一万多个 token?
这一次,使用了一个叫做“Fast Apply”的算法,可以在短时间内完成对代码的修改和应用。

首先要注意的是,虽然最后的结果是对代码进行了部分的修改,但在实际的工作中,并不是只有一些改变,而是整个系统都被改写了。
之所以这么做,是因为研究小组在进行了预测试之后,发现除了Claude-3-Opus之外,大部分的模型在真实的本地修正任务中都表现得很差。
造成这种情况的原因有三:
首先,在进行简单的改写时,会产生更多的 token,从而产生更多的正向传输,以决定正确的答案。
其次,该模型所用的数据大多为完备的代码,对于局部的改动比较陌生。
另外,大型模式差的数学操作不能确保当有不同的输出时可以正确地处理行数。

在确认了全局覆盖策略之后, Cursor小组利用与任务有关的数据来调整Llama3。
本研究使用的资料包括真实编辑资料和人工资料,以1:4的比例调配。
这里的综合数据是指使用GPT-4产生的编码编辑提案,随后“应用”到原来的代码中。

在此基础上,本文还对小文件,重复文件,不变样本等数据进行了降采样。
为了评价模型的性能,研究人员将其分成450次(每种最多400行),并使用Claude3-Opus评分。

最后,作者改进了70B Llama3,其性能接近Claude3-Opus-diff,并比GPT-4-Turbo、GPT-4o更好。


中文版ChatGPT4.0微信端使用方式



一、点击下方名片“腾科AI",关注后点击:“发消息” 按钮即可进入

①点击名片,关注公众号

②点击:发消息


二、ChatGPT4.0网址:https://gpt4.tenglangai.com/?pid=88881

“腾科AI公众号支持OPENAI官方多种模型:"绘图Dalle-3"“看图4V””GPT-4-128K”“GPT-4(联网)语音对话




53AI,企业落地应用大模型首选服务商

产品:大模型应用平台+智能体定制开发+落地咨询服务

承诺:先做场景POC验证,看到效果再签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

与创始人交个朋友

回到顶部

 
扫码咨询