当前位置:首页 > Deepseek最新资讯 > 正文内容

ICLR 2026|早于DeepSeek Engram,STEM已重构Trans

1个月前 (03-09)Deepseek最新资讯45

  在标准 Transformer 的 FFN 中,知识主要隐式存储在 up-projection 等密集矩阵里,并通过输入相关的矩阵乘法被动态激活,这种方式在表达力上有效,但在参数可寻址性、可编辑性与系统效率上存在天然限制。

  围绕这一问题,学术界与工业界逐渐将目光投向更离散、更结构化的参数组织方式。以 DeepSeek 提出的 engram 为代表,近期多项工作重新唤起了对「查表式记忆(lookup-based memory)」的关注。而有意思的是,在 engram 发布之前约三个月,这篇 ICLR paper 也在这一方向进行系统探索 。

  与 MoE 相关工作不同,STEM 并非在现有稀疏路由框架上做局部改进,而是直接从 FFN 结构入手,将 up-projection 替换为按 token 索引的层级 embedding 表,以一种静态、无运行时路由的方式重构 Transformer 中「记忆」的访问路径。

  STEM 的关键洞察在于:如果 FFN 的作用更接近于「按 token 访问记忆」,那么这些地址向量是否真的需要由输入动态生成?

  基于这一问题,STEM 选择了一条极为直接的路径:不再通过 up-projection 计算地址向量,而是为每一层维护一个按 token 索引的 embedding 表,在前向传播时直接根据 token id 查表获取对应向量。

  gate 与 down-projection 则被完整保留,用于对查表得到的向量进行上下文调制与压缩。

  这一替换,使 FFN 的结构发生了一个本质变化:「记忆容量」第一次与「每 token 计算量」被明确解耦。

  尽管 STEM 只替换了 FFN 中的一个子模块,但实验结果表明,这一设计在多个维度上产生了显著影响。

  由于每一层的 embedding 都直接与 token id 绑定,研究者可以在不进行再训练的情况下,直接替换某个 token 的 STEM 向量,从而改变模型在相关事实上的输出行为deepseek。比如图中例子展示仅通过替换「Spain」与「Germany」的向量,就可以使模型对首都问题的回答发生对应变化。

  这一性质意味着,在相同甚至更低的计算成本下,模型能够维持更多「可寻址的记忆槽位」,对知识存储和检索尤为有利。

  从计算复杂度上看,移除 up-projection 后,每一层可节省约 d⋅d_ff 级别的矩阵乘法开销。更重要的是,大规模的 embedding 表可以被离载到 CPU,并通过异步 prefetch 与缓存策略进行访问。

  STEM 展示了一种值得关注的趋势:通过改变参数的「组织方式」,而非一味增加规模或计算,模型同样可以获得显著能力提升。

  在当前大模型架构逐渐走向复杂化的背景下,这种简洁、稳定且工程友好的设计思路,或许正是下一阶段基座模型演进中不可忽视的一条路径。

  本文第一作者 Ranajoy Sadhukhan 为卡内基梅隆大学(CMU)InfiniAI Lab 博士生,师从陈贝迪教授。该工作完成于其在 Meta AI 实习期间,实习导师包括刘泽春、曹晟(Rick Cao)与田渊栋等研究人员。

  InfiniAI Lab 由陈贝迪教授创立,致力于模型、系统与硬件协同设计,研究高效且可扩展的 AI 算法与系统,重点方向包括长上下文多模态建模、突破传统 scaling laws 的新一代模型架构,以及基础模型的理解与推理能力增强,同时推动算法与系统层面的效率优化,以促进 AI 技术的普及化。

  刘泽春为 Meta AI 研究科学家,研究方向涵盖基座模型训练,大模型压缩、稀疏化与端侧部署优化,专注于模型高效推理与系统协同设计。

  曹晟(Rick Cao)为 Meta AI 研究员,主要研究大模型系统优化与高效推理架构设计,关注大规模模型在真实系统环境中的部署与加速问题。

  田渊栋为 Meta AI 资深研究科学家,长期从事强化学习与大模型研究,曾参与 AlphaZero 等强化学习系统研发,并关注基础模型的推理与决策能力。原文出处:ICLR 2026|早于DeepSeek Engram,STEM已重构Transformer「记忆」,感谢原作者,侵权必删!

标签: deepseek

“ICLR 2026|早于DeepSeek Engram,STEM已重构Trans” 的相关文章

站在DeepSeek肩膀上,小红书开源首款多模态模型:看懂表情包与数学题,一手实

站在DeepSeek肩膀上,小红书开源首款多模态模型:看懂表情包与数学题,一手实

  智东西8月7日报道,昨天,小红书hi lab(人文智能实验室)开源了其首款多模态大模型dots.vlm1,这一模型基于DeepSeek V3打造,并配备了由小红书自研的12亿参数视觉编...

11月1日DeepSeek预测:凯尔特人vs76人,马克西率队延续不败神话?

11月1日DeepSeek预测:凯尔特人vs76人,马克西率队延续不败神话?

  NBA常规赛东部焦点战即将打响,11月1日07:00,历史豪门凯尔特人将客场挑战势头正盛的76人。目前76人以4胜0负高居东部第二,而凯尔特人2胜3负暂列第10,这场对决或将重塑东部格...

估值1.05万亿!DeepSeek双登《自然》封神,中国AI如何做到颠覆?

估值1.05万亿!DeepSeek双登《自然》封神,中国AI如何做到颠覆?

  要知道,该榜单每年仅甄选十位真正推动科学进步的领军者。梁文锋的入选,源自其带领团队研发的DeepSeek大模型对全球AI格局的颠覆性重塑。   而这并非他与《自然》的...

从DeepSeek到豆包手机助手:中国AI下一程何去何从?

从DeepSeek到豆包手机助手:中国AI下一程何去何从?

  你只需要给它设定一个目标,它就能自主规划任务、不断迭代,甚至自我试错,最终达成目标。这非常像人类的行为:有个目标,自己就会去规划路径,依靠各种记忆和判断去实现。   ...

《财富》发布中国科技50强:华为、DeepSeek入选 小米缺席

《财富》发布中国科技50强:华为、DeepSeek入选 小米缺席

  快科技8月22日消息,《财富》中国科技50强榜单发布,华为、DeepSeek、宁德时代等入选,小米缺席。   除上述三家公司,登上榜单的还有阿里巴巴、腾讯科技、比亚迪...

科技人才济济的印度,为何搞不出英伟达和DeepSeek?

科技人才济济的印度,为何搞不出英伟达和DeepSeek?

  英国《金融时报》日前的一篇报道,曾发出了一个疑问——印度作为全球顶尖科技人才的“摇篮”,为硅谷输送了无数精英工程师,为何却未能在本土培育出像英伟达或中国DeepSeek这样的尖端科技企...