当前位置:首页 > Deepseek最新资讯 > 正文内容

【中原计算机】人工智能专题:DeepSeek的稀疏注意力机制给AI产业释放更大的

6个月前 (10-17)Deepseek最新资讯312

  人类在处理信息时选择性地关注关键信息,从而提高了处理效率和准确性。深度学习模仿人类的这种能力引入了注意力机制,从而给长文本处理带来了可能性。

  由于注意力机制面临显存开销和计算复杂度两大发展瓶颈,为了不断通过Scaling Law提升大模型长文本处理能力和模型性能,AI产业不断在进行算法、系统、硬件三个层面的提升和优化。其中在算法层面,DeepSeek作为开源大模型领域的代表和低成本模型方向的标杆,在注意力机制的技术改进方面也做了大量的工作。

  DSA:2025年9月DeepSeek发布了V3.2-Exp,它基于V3.1-Terminus构建,引入了新的注意力机制DSA,在保持模型性能的稳定的同时,在训练推理效率方面有了较大的提升,带来了模型较大幅度的降价。由于不需要重新训练模型,而是进行原有模型的升级,可以更低成本地进行稀疏注意力的探索与实验。

  稀疏注意力的引入将注意力计算复杂度从O(L²)(L为序列长度)降至亚平方级(如O(Llog L)、(O(L*k)),从而突破内存与算力瓶颈。此前,稀疏注意力工作主要集中在推理阶段,而业界预训练阶段多采用稠密注意力机制,而DeepSeek的NSA和DSA在训练阶段引入了稀疏注意力,给大模型带来的计算效率的提升和模型上下文的拓展,将给后训练释放更大的发展潜能,成为推动模型能力不断突破的重要支撑。

  人类在处理信息时选择性地关注关键信息,从而提高了处理效率和准确性。深度学习模仿人类的这种能力引入了注意力机制(Attention Mechanism),从而给长文本处理带来了可能性。2017年,谷歌提出了发布论文《Attention Is All You Need》提出了当前大语言模型的主流架构Transformer,Attention成为了大模型的核心模块,并解决了此前主流循环神经网络(RNN)的长序列遗忘问题。而后,稀疏注意力的引入将注意力计算复杂度从O(L²)(稠密注意力的计算复杂度,L为序列长度)降至亚平方级(如O(L*log L)、(O(L*k),稀疏注意力仅部分连接,效率更高),从而突破内存与算力瓶颈。时至今日,经过多代技术迭代,大模型上下文已经扩充到了128K甚至是1M的长度水平。

  由于注意力机制面临显存开销和计算复杂度两大发展瓶颈,为了不断通过Scaling Law提升大模型长文本处理能力和模型性能,AI产业不断在进行算法、系统、硬件三个层面的提升和优化。其中在算法层面,DeepSeek作为开源大模型领域的代表和低成本模型方向的标杆,在注意力机制的技术改进方面也做了大量的工作,其三次主要的贡献包括:

  传统的多头注意力的键值缓存(KV Cache)较大,DeepSeek通过将低秩近似方法引入键值缓存压缩中,从而提升了计算效率。MLA将注意力分数的显存占用减少了约90%,同时保持了模型的性能,也成为了R1成本显著低于头部模型的重要因素。

  此前,稀疏注意力工作主要集中在推理阶段,而业界预训练阶段多采用稠密注意力机制。训练与推理的不一致,难免会引入误差,从而限制了模型充分发挥稀疏注意力优势的能力。NSA和同时期开源的Kimi的MoBA(混合块注意力机制),都将稀疏注意力做到了预训练阶段,同时在性能上比肩稠密注意力。NSA以“块”为粒度,同时通过引入丰富的算子进行了软硬协同优化,较好地解决了GPU本身不适合稀疏计算的难题。

  (3)DSA:2025年9月DeepSeek发布了V3.2-Exp,它基于V3.1-Terminus构建,引入了新的注意力机制DSA,在保持模型性能的稳定的同时,在训练推理效率方面有了较大的提升,带来了模型较大幅度的降价。对比R1来看,V3.2-Exp的输入缓存命中时价格为R1的20%(0.2元/百万Tokens),输入缓存未命中时价格为R1的50%(2元/百万Tokens),输出价格为R1的19%(3元/百万Tokens),降幅最为明显。考虑到当前大模型之间能力差距在缩小,成本的下降意味着模型具有更好的性价比和可推广性,也将促进应用端实现更多功能的落地deepseek

  (1)实现方式的差异:NSA是参与整个预训练过程,而DSA并不是原生预训练,是基于V3.1-Terminus基座继续预训练而来。由于不需要重新训练模型,而是进行原有模型的升级,DAS可以更低成本地进行稀疏注意力的探索与实验。

  编程框架差异:DSA通过TileLang实现,而NSA则选用的是OpenAI开源的Triton,相对而言,TileLang可以实现更多的深度优化,这更加符合DeepSeek持续追求更高效的软硬件协同的企业风格,同时也更有利于国产芯片生态的深度适配。

  (3)在实现“挑重点”的方式上的差异:DSA通过引入“闪电索引器”,逐词判断快速找出文本中的重要词汇(2048个),并以这些筛选出的词汇进行细粒度稀疏计算;NSA将文本分成“块”,分三层挑重点。不同的稀疏化的思路,意味着针对具体的场景下DSA和NSA可能各有优势。长期来看,DSA的稳定性、安全性及泛化能力还有待进一步验证,有望在开源后得到更多的市场验证。

  如果将神经网络视为y=f(x),x是输入,y是输出。当前的趋势是多模态等需求导致x变长,同时为了在后训练中提升模型的推理能力和满足长思维链的需求,y的长度也在变长。

  考虑到传统在端依靠增大模型参数数量、训练数据的预训练上Scaling范式面临发展瓶颈,OpenAI的o1和DeepSeek-R1 发布后,厂商更多通过后训练方式来提升模型能力。

  在DeepSeek-R1-Zero的训练中,DeepSeek通过增加强化学习的训练迭代步数(后训练),模型输出的长度持续增长,思考的时间持续增加,AIME精度也在持续提升。

  以上因素结合来看,DSA和NSA为代表的稀疏注意力机制给大模型带来的计算效率的提升和模型上下文的拓展,将给后训练释放更大的发展潜能,成为推动模型能力不断突破的重要支撑。

  本报告署名分析师具有中国证券业协会授予的证券分析师执业资格,本人任职符合监管机构相关合规要求。本人基于认真审慎的职业态度、专业严谨的研究方法与分析逻辑,独立、客观的制作本报告。本报告准确的反映了本人的研究观点,本人对报告内容和观点负责,保证报告信息来源合法合规。原文出处:【中原计算机】人工智能专题:DeepSeek的稀疏注意力机制给AI产业释放更大的发展潜能,感谢原作者,侵权必删!

标签: deepseek

“【中原计算机】人工智能专题:DeepSeek的稀疏注意力机制给AI产业释放更大的” 的相关文章

【民生AI体验官】DeepSeek v3.2实现国产AI的伟大“闭环”

【民生AI体验官】DeepSeek v3.2实现国产AI的伟大“闭环”

  据深度求索微信公众号,9月29日,深度求索团队正式发布 DeepSeek-V3.2-Exp 模型在最后阶段,以 TileLang 作为精度基线,逐步使用底层语言实现更高效的版本。因此,...

拓维信息携智能计算新品亮相华为全联接大会,赋能千行万业数智化

拓维信息携智能计算新品亮相华为全联接大会,赋能千行万业数智化

  9月18日-20日,2025华为全联接大会在上海世博中心盛大举办。作为华为“鲲鹏/昇腾/海思+大模型+鸿蒙”全方位战略合作伙伴,拓维信息赴大会十年之约,全面展示最新推出的兆瀚智能计算全...

刚刚,阿里首个超万亿参数新王登基!Qwen3-Max屠榜全SOTA,碾压Deep

刚刚,阿里首个超万亿参数新王登基!Qwen3-Max屠榜全SOTA,碾压Deep

  总的来说,Qwen3-Max-Preview有以下几大亮点:性能更强、知识更广、更擅长对话deepseek、任务处理、指令遵循。   比如,在一个杯子流体模拟中,Ge...

DeepSeek梁文锋登《自然》杂志年度十大科学人物榜

DeepSeek梁文锋登《自然》杂志年度十大科学人物榜

  格隆汇12月9日|英国《自然》杂志网站发布2025年度十大科学人物榜单,今年的评选表彰了那些探索宇宙最深处和海洋最深处的科学家,也将人工智能的创新探索者纳入榜单deepseek,其中包...

DeepSeek V3.1引爆算力板块 浙江大学人工智能研究所副所长郑小林:自主

DeepSeek V3.1引爆算力板块 浙江大学人工智能研究所副所长郑小林:自主

  “在国产算力受限的当下,更需通过MoE模型优化、模型智能调度等技术,挖掘现有算力潜力。”浙江大学计算机学院教授、博士生导师,浙江大学人工智能研究所副所长郑小林对财联社记者表示。...

DeepSeek预测:国际米兰vs乌迪内斯!蓝黑军团火力全开,劳塔罗领衔屠杀?

DeepSeek预测:国际米兰vs乌迪内斯!蓝黑军团火力全开,劳塔罗领衔屠杀?

  意甲第2轮焦点战,卫冕冠军国际米兰坐镇梅阿查迎战中游球队乌迪内斯。蓝黑军团首轮5-0血洗都灵,以净胜球优势领跑积分榜;乌迪内斯则1-1战平维罗纳,暂列第13。本场胜负将直接影响争冠与保...