当前位置:首页 > Deepseek最新资讯 > 正文内容

DeepSeek发布开源周首个成果 可优化英伟达GPU效率

1年前 (2025-02-25)Deepseek最新资讯569

新京报贝壳财经讯(记者罗亦丹)北京时间2月24日上午,DeepSeek发布了其“开源周”的第一项成果:FlashMLA(直译为快速多头潜在注意力机制)的代码。

据了解,MLA(多头潜在注意力机制)正是DeepSeek降低大模型成本使用的关键技术之一,其可以显著减少大模型训练和推理过程中的内存占用,而FlashMLA则是针对Hopper GPU(一种英伟达GPU架构)开发的高效MLA解码内核,其针对可变长度序列进行了优化,目前已投入了生产,其可以使得H800达到3000GB/s内存,实现580TFLOPS(每秒浮点运算次数)计算性能。

贝壳财经记者注意到,根据此前DeepSeek发布V3大模型时公开的技术文档,该大模型正是使用英伟达的H800芯片训练而成。

上海骊翰科技咨询有限公司发文称,FlashMLA能在不损失模型性能的前提下,将缓存体积压缩至原来的1/4,从而大幅降低显存需求。例如,原始需要存储的100GB中间结果,压缩后仅需25GB,通过开源让企业可以直接使用FlashMLA来优化自家模型。随着FlashMLA的普及,AI推理有望进入千元级硬件跑百亿模型的时代。


“DeepSeek发布开源周首个成果 可优化英伟达GPU效率” 的相关文章

DeepSeek在法律领域有哪些重要应用场景?

DeepSeek在法律领域有哪些重要应用场景?

DeepSeek在法律领域有哪些重要应用场景?<think> 嗯,用户之前问过DeepSeek在科技领域的应用场景,特别是自动驾驶和智能视频方面的应用。现在用户又补充了“法律领域”,让我...

中信证券:看好DeepSeek新一代模型带动云端推理需求爆发

中信证券:看好DeepSeek新一代模型带动云端推理需求爆发

中信证券发布研报指出,DeepSeek通过工程化能力创新,实现了大模型训练和推理算力成本的极致优化,也为端侧部署高性能模型提供新的方向。中信证券看好DeepSeek新一代模型带动云端推理需求爆发,加速...

“国民级应用”纷纷下场 DeepSeek开启AI新时代?

“国民级应用”纷纷下场 DeepSeek开启AI新时代?

刚刚过去的周末,人工智能大模型DeepSeek再次登上各大社交平台的热搜榜,同时出现的,还有“国民级应用”腾讯和百度的名字,引发业界和普通用户高度关注。15日晚间,腾讯宣布微信搜一搜正灰度测试接入De...

DeepSeek谈艺 | 耿翊:构筑精神的诗性寓言

DeepSeek谈艺 | 耿翊:构筑精神的诗性寓言

新春以来,DeepSeek成为各个行业所聚焦的热点话题。这个融合了人工智能与大数据分析的前沿平台,正逐步揭开其神秘面纱,展现出对各行各业颠覆性的潜力。随着DeepSeek技术的不断成熟与普及,我们正站...

全市首个!大兴人才服务平台用上DeepSeek大模型

全市首个!大兴人才服务平台用上DeepSeek大模型

 为深入推进北京高水平人才高地建设,进一步提升地区人才宣传服务质量,创新打造区级独立人才服务宣传综合展示平台,全面实施“求贤、集贤、礼贤”三大人才工程,努力实现人才服务“随时查”“掌上办”,助力区域产...

朱民:大家现在都在讲DeepSeek,这是未来的全球化

朱民:大家现在都在讲DeepSeek,这是未来的全球化

北京商报讯(记者李海媛)3月25日至3月28日,博鳌亚洲论坛2025年年会在海南博鳌举行。3月27日,在“构建开放世界经济:挑战与出路”分论坛中,中国国际经济交流中心副理事长、国际货币基金组织原副总裁...