当前位置:首页 > Deepseek最新资讯 > 正文内容

【中原计算机】人工智能专题:DeepSeek的稀疏注意力机制给AI产业释放更大的

2周前 (10-17)Deepseek最新资讯122

  人类在处理信息时选择性地关注关键信息,从而提高了处理效率和准确性。深度学习模仿人类的这种能力引入了注意力机制,从而给长文本处理带来了可能性。

  由于注意力机制面临显存开销和计算复杂度两大发展瓶颈,为了不断通过Scaling Law提升大模型长文本处理能力和模型性能,AI产业不断在进行算法、系统、硬件三个层面的提升和优化。其中在算法层面,DeepSeek作为开源大模型领域的代表和低成本模型方向的标杆,在注意力机制的技术改进方面也做了大量的工作。

  DSA:2025年9月DeepSeek发布了V3.2-Exp,它基于V3.1-Terminus构建,引入了新的注意力机制DSA,在保持模型性能的稳定的同时,在训练推理效率方面有了较大的提升,带来了模型较大幅度的降价。由于不需要重新训练模型,而是进行原有模型的升级,可以更低成本地进行稀疏注意力的探索与实验。

  稀疏注意力的引入将注意力计算复杂度从O(L²)(L为序列长度)降至亚平方级(如O(Llog L)、(O(L*k)),从而突破内存与算力瓶颈。此前,稀疏注意力工作主要集中在推理阶段,而业界预训练阶段多采用稠密注意力机制,而DeepSeek的NSA和DSA在训练阶段引入了稀疏注意力,给大模型带来的计算效率的提升和模型上下文的拓展,将给后训练释放更大的发展潜能,成为推动模型能力不断突破的重要支撑。

  人类在处理信息时选择性地关注关键信息,从而提高了处理效率和准确性。深度学习模仿人类的这种能力引入了注意力机制(Attention Mechanism),从而给长文本处理带来了可能性。2017年,谷歌提出了发布论文《Attention Is All You Need》提出了当前大语言模型的主流架构Transformer,Attention成为了大模型的核心模块,并解决了此前主流循环神经网络(RNN)的长序列遗忘问题。而后,稀疏注意力的引入将注意力计算复杂度从O(L²)(稠密注意力的计算复杂度,L为序列长度)降至亚平方级(如O(L*log L)、(O(L*k),稀疏注意力仅部分连接,效率更高),从而突破内存与算力瓶颈。时至今日,经过多代技术迭代,大模型上下文已经扩充到了128K甚至是1M的长度水平。

  由于注意力机制面临显存开销和计算复杂度两大发展瓶颈,为了不断通过Scaling Law提升大模型长文本处理能力和模型性能,AI产业不断在进行算法、系统、硬件三个层面的提升和优化。其中在算法层面,DeepSeek作为开源大模型领域的代表和低成本模型方向的标杆,在注意力机制的技术改进方面也做了大量的工作,其三次主要的贡献包括:

  传统的多头注意力的键值缓存(KV Cache)较大,DeepSeek通过将低秩近似方法引入键值缓存压缩中,从而提升了计算效率。MLA将注意力分数的显存占用减少了约90%,同时保持了模型的性能,也成为了R1成本显著低于头部模型的重要因素。

  此前,稀疏注意力工作主要集中在推理阶段,而业界预训练阶段多采用稠密注意力机制。训练与推理的不一致,难免会引入误差,从而限制了模型充分发挥稀疏注意力优势的能力。NSA和同时期开源的Kimi的MoBA(混合块注意力机制),都将稀疏注意力做到了预训练阶段,同时在性能上比肩稠密注意力。NSA以“块”为粒度,同时通过引入丰富的算子进行了软硬协同优化,较好地解决了GPU本身不适合稀疏计算的难题。

  (3)DSA:2025年9月DeepSeek发布了V3.2-Exp,它基于V3.1-Terminus构建,引入了新的注意力机制DSA,在保持模型性能的稳定的同时,在训练推理效率方面有了较大的提升,带来了模型较大幅度的降价。对比R1来看,V3.2-Exp的输入缓存命中时价格为R1的20%(0.2元/百万Tokens),输入缓存未命中时价格为R1的50%(2元/百万Tokens),输出价格为R1的19%(3元/百万Tokens),降幅最为明显。考虑到当前大模型之间能力差距在缩小,成本的下降意味着模型具有更好的性价比和可推广性,也将促进应用端实现更多功能的落地deepseek

  (1)实现方式的差异:NSA是参与整个预训练过程,而DSA并不是原生预训练,是基于V3.1-Terminus基座继续预训练而来。由于不需要重新训练模型,而是进行原有模型的升级,DAS可以更低成本地进行稀疏注意力的探索与实验。

  编程框架差异:DSA通过TileLang实现,而NSA则选用的是OpenAI开源的Triton,相对而言,TileLang可以实现更多的深度优化,这更加符合DeepSeek持续追求更高效的软硬件协同的企业风格,同时也更有利于国产芯片生态的深度适配。

  (3)在实现“挑重点”的方式上的差异:DSA通过引入“闪电索引器”,逐词判断快速找出文本中的重要词汇(2048个),并以这些筛选出的词汇进行细粒度稀疏计算;NSA将文本分成“块”,分三层挑重点。不同的稀疏化的思路,意味着针对具体的场景下DSA和NSA可能各有优势。长期来看,DSA的稳定性、安全性及泛化能力还有待进一步验证,有望在开源后得到更多的市场验证。

  如果将神经网络视为y=f(x),x是输入,y是输出。当前的趋势是多模态等需求导致x变长,同时为了在后训练中提升模型的推理能力和满足长思维链的需求,y的长度也在变长。

  考虑到传统在端依靠增大模型参数数量、训练数据的预训练上Scaling范式面临发展瓶颈,OpenAI的o1和DeepSeek-R1 发布后,厂商更多通过后训练方式来提升模型能力。

  在DeepSeek-R1-Zero的训练中,DeepSeek通过增加强化学习的训练迭代步数(后训练),模型输出的长度持续增长,思考的时间持续增加,AIME精度也在持续提升。

  以上因素结合来看,DSA和NSA为代表的稀疏注意力机制给大模型带来的计算效率的提升和模型上下文的拓展,将给后训练释放更大的发展潜能,成为推动模型能力不断突破的重要支撑。

  本报告署名分析师具有中国证券业协会授予的证券分析师执业资格,本人任职符合监管机构相关合规要求。本人基于认真审慎的职业态度、专业严谨的研究方法与分析逻辑,独立、客观的制作本报告。本报告准确的反映了本人的研究观点,本人对报告内容和观点负责,保证报告信息来源合法合规。原文出处:【中原计算机】人工智能专题:DeepSeek的稀疏注意力机制给AI产业释放更大的发展潜能,感谢原作者,侵权必删!

标签: deepseek

“【中原计算机】人工智能专题:DeepSeek的稀疏注意力机制给AI产业释放更大的” 的相关文章

豆包月活1.57亿反超DeepSeek重夺榜首,腾讯元宝增速22.4%

豆包月活1.57亿反超DeepSeek重夺榜首,腾讯元宝增速22.4%

  【#豆包月活用户超DeepSeek#】9月16日,QuestMobile发布的2025年8月AI应用行业月度报告显示,当月,豆包以6.6%的环比增速达到1.57亿应用规模,反超Deep...

共筑支付互联生态 共享数字金融未来! 连连数字参加第十四届中国支付清算论坛

共筑支付互联生态 共享数字金融未来! 连连数字参加第十四届中国支付清算论坛

  2025年9月16-17日,第十四届中国支付清算论坛在北京召开。本次论坛由中国支付清算协会主办,以“共筑支付互联生态 共享数字金融未来”为主题。   连连银通电子支付...

湖北英山:深化质量管理 筑基高质量发展

湖北英山:深化质量管理 筑基高质量发展

  近年来,湖北省英山县烟草专卖局(营销部)高度重视质量管理活动,始终将质量建设作为提升员工素质、激发团队活力、解决实际问题、推动持续改进的重要抓手,营造出全员关注创新、崇尚创新的浓厚氛围...

2025年10月deepseek排名优化推荐:市场报告与知名机构对比

2025年10月deepseek排名优化推荐:市场报告与知名机构对比

  进入2025年,生成式搜索流量已占中文互联网检索总量的47%,DeepSeek、豆包、通义千问、元宝、Kimi五家平台每日联合处理请求超18亿次。企业市场部发现,传统SEO带来的点击占...

哈佛团队研发HPV-DeepSeek,已启动更大规模临床验证

哈佛团队研发HPV-DeepSeek,已启动更大规模临床验证

  HPV-DeepSeek 是什么?乍一看,你可能觉得这是不是和中国的 DeepSeek 公司有什么关系?事实上,这是一群科学家于近期打造的一款液体活检检测方法,该方法可以在无症状个体出...

特斯拉终于用上了国产大模型!豆包和DeepSeek上车,但比中国车企晚了半年

特斯拉终于用上了国产大模型!豆包和DeepSeek上车,但比中国车企晚了半年

  车东西8月22日消息,日前,特斯拉发布了《特斯拉车机语音助手使用条款》,宣布车机语音助手将接入火山引擎提供的豆包大模型(云雀大模型)和DeepSeek Chat,而对于具体上线时间官方...