微信扫码
添加专属顾问
我要投稿
LLM 界的大力出奇迹是什么样的?
美国初创公司 Magic 最近发布了一个具有1亿Token 的上下文模型。通俗点说就是你发给 AI 的消息可以写1亿个字,和国产的 Kimi 走的路子有点像。
Magic 为新发布的 LTM 模型则不依赖于传统的模糊记忆训练方法,而是设计了一种新的名为 HashHop 的技术。
基于这种技术的模型可以对推理过程中给予的多达1亿个上下文标记进行推理,Magic 还表示:
虽然这些超长上下文模型的商业应用很多,但我们只搞上游模型。
回到现实,其实当前的长上下文评估并不理想。
就拿“大海捞针”这个故事来比喻评估,将一个随机事实(针)放在长上下文窗口(大海)中,要求模型检索这件事。
Magic 因此设计了 HashHop 技术,一个新的评估上下文长度和可靠性的体系。
但哈希是随机的,所以导致不可压缩,要求模型能够始终存储和检索给定上下文大小的最大可能信息内容。
先是提出一个使用哈希对进行训练的模型:
然后要求它完成随机选择的哈希对的值:
这里衡量了单步感应头的出现,但实际应用通常需要多跳。
为了实现这一点,让模型完成一个哈希链:
强调保证顺序和位置不变性,将对提示中的哈希对进行打乱:
并提出了一种更有挑战的变体,使其中模型跳过一些步骤。
例如直接从哈希1映射到哈希6:
团队发现,在没有思路链的情况下尝试3次或更多次跳跃时性能会变差。
但对于一次2次跳跃(哈希1 → 哈希3),在没有思路链的情况下,性能上却提升了不少。
利用超长上下文机制在 text-to-diff 数据上训练了一个原型模型。
虽比前沿模型小几个数量级,但也承认了它的代码合成能力并不是很好,只能偶尔会产生合理的输出。
Google Cloud 将成为 Magic 的重要合作伙伴。
所谓超级计算机正是得到 NVIDIA 的大力支持,一共两台:
NVIDIA H100 Tensor Core GPU 提供的 Magic-G4 以及和 NVIDIA GB200 NVL72 提供的 Magic-G5。
还能够随着时间的推移扩展到数万个 Blackwell GPU。
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2025-04-29
MCP:AI时代的“万能插座”,大厂竞逐的焦点
2025-04-29
打起来了!MCP VS A2A,谁才是Agent的未来事实标准?
2025-04-29
Google 的 A2A 与 MCP 该如何选择?还是两种都用?
2025-04-29
一站式AI应用开发平台 Firebase Studio
2025-04-29
精华好文!用LLM评估LLM,真的靠谱吗?技术上如何实现?
2025-04-29
分而治之:全面解析分布式分离 Inference 系统
2025-04-29
AI 落地难?MCP 或许就是那把「关键钥匙」!
2025-04-29
企业级大模型推理和部署平台 2025
2024-08-13
2024-06-13
2024-08-21
2024-09-23
2024-07-31
2024-05-28
2024-08-04
2024-04-26
2024-07-09
2024-09-17
2025-04-29
2025-04-29
2025-04-29
2025-04-28
2025-04-28
2025-04-28
2025-04-28
2025-04-28