微信扫码
添加专属顾问
我要投稿
AI理解机制的全新视角,揭秘大模型如何进行复杂推理。核心内容:1. AI“显微镜”:构建替代模型追踪大模型思维2. 归因图揭示模型推理步骤和特征互动3. 大模型在诗歌创作和多语言处理中的内部机制分析
归因图用于描述模型在特定输入提示下生成目标词元输出时所经历的推理步骤。
归因图的边表征节点间的线性影响关系,节点代表以下对象:
每个特征的活动强度由其输入边的权重之和决定。
归因图展示了特征如何在特定输入提示下相互作用以生成模型输出。
而特征在所有上下文环境中交互的全局图景更值得关注,全局交互由模型权重决定:
相邻层神经元间的直接影响就是它们之间的连接权重;若神经元间隔较远,则影响会通过中间层传递。
这本质上是笔者在降低大模型幻觉的必由之路中描述的 Transformer视角下的范畴中采样,即在复杂高维的对象米田嵌入图中的采样路径。
“在外部感官输入下(被提示置于某种上下文),大模型内部将限定在相应的高维语言概率空间的子空间内推理;推理是在子空间中采样,类比时跨范畴采样;
采样不断进行,基于内部概率化了的世界模型(预训练获得的先验),针对感官输入(提示),做变分推断,最小化自由能,获取最佳采样分布q*,作为对导致感官输入的外部后验的预测。”
多语言电路,研究发现大模型混合使用了“特定于语言的”,和“抽象的、独立于语言的”电路,更大的模型中,“抽象的、独立于语言的”成分更突出。
这非常贴切的印证了笔者在 DeepSeek R1 & R2 技术原理 中,对大模型中不同层次/尺度语言处理机制的描述:
而推理不过是在LLM构建的高维概率语言空间里,对信息概率分布采样做变分;
这个过程可以映射到不同的上层自然语言,以及对应的语音,甚至进一步映射到某种符号语言 - 代码或数学公式;
而抽象的符号语言也可以用自然语言描述,从而进一步转换为对信息概率分布的处理过程。
文献1 https://transformer-circuits.pub/2025/attribution-graphs/methods.html
文献2 https://transformer-circuits.pub/2025/attribution-graphs/biology.html
53AI,企业落地大模型首选服务商
产品:场景落地咨询+大模型应用平台+行业解决方案
承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业
2024-08-13
2024-06-13
2024-08-21
2024-09-23
2024-07-31
2024-05-28
2024-08-04
2024-04-26
2024-07-09
2024-09-17
2025-04-06
2025-04-06
2025-04-05
2025-04-02
2025-04-02
2025-04-01
2025-04-01
2025-04-01