支持私有化部署
AI知识库

53AI知识库

学习大模型的前沿技术与行业应用场景


成功率提高7倍!新方法一句话就能让AI秒出分子设计+合成步骤

发布日期:2025-04-11 15:48:23 浏览次数: 1550 作者:麻省理工科技评论APP
推荐语

AI技术革命性突破,分子设计与合成效率大幅提升。

核心内容:
1. 基于图的模型与大语言模型结合,开创分子设计的多模态技术
2. 自然语言需求解析,智能模块切换,实现分子设计、原理阐释及合成路线规划
3. 有效合成方案成功率显著提升,为制药行业节省大量时间和资源

杨芳贤
53A创始人/腾讯云(TVP)最具价值专家

(来源:MIT News)


寻找具备研发新药物和新材料所需特性分子的过程既繁琐又昂贵,需要耗费大量计算资源,研究人员往往要花费数月时间,才能在浩如烟海的候选分子中筛选出数量有限的目标分子。


像 ChatGPT 这样的大语言模型有望简化这一流程,然而,让大语言模型像理解句子中的单词那样理解和推理构成分子的原子与化学键却存在技术壁垒。


近期,麻省理工学院和 MIT-IBM 沃森人工智能实验室的研究人员开发出一种颇具前景的方法,利用基于图的模型(Graph-based Model)来增强大语言模型(这些模型专为生成和预测分子结构而设计)。


该方法通过基础大语言模型解析用户自然语言需求后,能在分子设计、原理阐释及合成路线规划等环节智能切换 AI 模块。


它将文本、图形和合成步骤生成交织在一起,把单词、图形和反应整合为一个通用词汇表,供大语言模型使用,实现多模态信息无缝衔接。


与现有的基于大语言模型的方法相比,这种多模态技术生成的分子更符合用户设定的规格,有效合成方案成功率从 5% 提升至 35%


该方法的效果优于规模比它大 10 倍以上、仅使用文本表示来设计分子和合成路线的大语言模型,这表明多模态融合是新系统成功的关键。


“这有望成为一个‘端到端’的解决方案,能实现分子设计与合成全过程的自动化。如果大语言模型能在几秒钟内给出答案,将为制药公司节省大量时间。”麻省理工学院研究生、该技术论文的合作者 Michael Sun 说道。


这项研究成果将在国际学习表征会议上发表。论文的合作者还包括圣母大学研究生 Gang Liu、麻省理工学院电气工程与计算机科学教授 Wojciech Matusik,以及 MIT-IBM 沃森人工智能实验室资深科学家 Jie Chen。这项研究部分由美国国家科学基金会、海军研究办公室以及 MIT-IBM 沃森人工智能实验室资助。


优势互补


大型语言模型并非为理解化学的微妙之处而设计,这也是它们难以进行逆向分子设计的原因之一。逆向分子设计是指识别具有特定功能或特性的分子结构的过程。


大语言模型将文本转换为一种名为标记的表示形式,用于按顺序预测句子中的下一个单词。但分子是由原子和化学键组成的“图形结构”,不存在特定顺序,这使得它们很难编码为顺序文本。


另一方面,基于图的模型将原子和分子键表示为图形中相互连接的节点和边。尽管这些模型在逆向分子设计中应用广泛,但它们需要复杂的输入,无法理解自然语言,且生成的结果可能难以解释。


麻省理工学院的研究人员将大语言模型与基于图的模型整合到一个统一框架中,实现了优势互补。


Llamole(Large Language Model for Molecule Discovery,分子发现大型语言模型)利用基础大语言模型作为“智能调度员”,理解用户的查询,即用户用通俗语言对具有特定属性分子的需求。


例如,用户在寻找一种分子量为 209、具有特定键特性,且能穿透血脑屏障并抑制 HIV 的分子。


当大语言模型响应用户查询预测文本时,系统会通过独特的“触发令牌”机制,在三大功能模块间智能切换:1、结构生成模块(基于图扩散模型,根据输入条件构建分子骨架);2、语义转换模块(通过图神经网络将分子结构重新编码为大语言模型可理解的词元);3、合成规划模块(根据中间体结构预测反应路径,逆向推导从基础原料到目标分子的完整合成方案)。


“这样做的精妙之处在于模块间的信息闭环,大语言模型在激活特定模块前生成的所有内容,都会输入到该模块中。该模块会以与之前一致的方式进行工作。”Michael Sun 说道,“同样,每个模块的输出都会经过编码,并反馈到大语言模型的生成过程中,这样大语言模型就能了解每个模块的作用,并继续根据这些数据预测标记。”


更优、更简单的分子结构


最终,Llamole 会输出分子结构图像、分子文本描述以及分步合成计划,该计划详细说明了如何合成分子,包括具体的化学反应。


在设计符合用户规格分子的实验中,Llamole 的表现优于 10 种标准大语言模型、4 种微调大语言模型,以及最先进的特定领域方法。同时,它通过生成更高质量的分子,将逆合成规划成功率从 5% 提升至 35%,这意味着这些分子结构更简单,构建模块成本更低。


“大语言模型自身很难确定如何合成分子,因为这需要大量多步骤规划。我们的方法能生成更优且更易合成的分子结构。”Gang Liu 说道。


为了训练和评估 Llamole,研究人员从头构建了两个数据集,因为现有的分子结构数据集细节不足。他们用 AI 生成的自然语言描述和自定义描述模板,对数十万个专利分子进行了扩充。


他们为微调大语言模型构建的数据集包含与 10 种分子特性相关的模板,因此 Llamole 的一个局限在于,它被训练为仅考虑这 10 种数值特性来设计分子。


在未来的研究中,研究人员希望扩展 Llamole 的功能,使其能够考虑任何分子特性。此外,他们还计划改进图形模块,提高 Llamole 的逆合成成功率。


从长远来看,他们希望利用这种方法拓展应用范围,超越分子领域,创建能处理其他图基数据的多模态大语言模型,例如电网中的互连传感器数据或金融市场中的交易数据。


“Llamole 展示了将大型语言模型用作处理文本描述之外复杂数据的接口的可行性,我们预计它们将成为与其他 AI 算法交互以解决各类图形问题的基础。”Jie Chen 说道。


原文链接:

https://news.mit.edu/2025/could-llms-help-design-our-next-medicines-and-materials-0409












53AI,企业落地大模型首选服务商

产品:场景落地咨询+大模型应用平台+行业解决方案

承诺:免费场景POC验证,效果验证后签署服务协议。零风险落地应用大模型,已交付160+中大型企业

联系我们

售前咨询
186 6662 7370
预约演示
185 8882 0121

微信扫码

添加专属顾问

回到顶部

加载中...

扫码咨询