当前位置:首页 > DeepSeek技术交流 > 正文内容

400亿参数大模型:分布式算力,DeepSeek架构,3090单卡部署

3小时前DeepSeek技术交流11

闻乐 发自 凹非寺量子位 | 公众号 QbitAI

打破科技巨头算力垄断,个人开发者联手也能训练超大规模AI模型?

Nous Research宣布推出Psyche Network,可以将全球算力整合起来训练强大的人工智能。

Psyche是一个基于Deepseek的V3 MLA架构的去中心化训练网络,测试网首次启动时直接对40B参数LLM进行预训练,可以在单个H/DGX上训练,并在3090 GPU上运行。

以往类似规模的模型训练往往需要耗费大量的资源和时间,并且通常是由大型科技公司或专业研究机构凭借其雄厚的资金和算力优势来完成的。

Psyche的出现让个人和小团体也可获取资源创建独特大规模模型。

对此,有网友表示,Nous Research有潜力成为新的前沿AI实验室。

技术突破和网络架构

DisTrO优化器

在传统AI训练中,数据需在中心服务器与分布式GPU之间高频传输,带宽不足会导致GPU利用率暴跌。

2024年Nous研发的DisTrO分布式训练优化器,通过梯度压缩(仅传输关键参数更新)和异步更新策略,将跨节点通信的数据量降低90%以上,突破了训练过程中的带宽限制,使得训练可以去中心化。

点对点网络堆栈

Psyche创建了一个自定义的点对点网络堆栈,用于协调全球分布式GPU运行DisTrO。

这个基于P2P(点对点)协议的专用网络层,无需依赖中心化服务器协调,全球GPU可直接通过加密通道交换梯度数据。

这一设计彻底摆脱了对传统云服务商高带宽网络的依赖,即使是家用宽带连接的GPU,也能稳定参与训练。

系统架构

Psyche网络架构有三个主要部分:

coordinator:协调器,存储有关训练运行状态和参与者列表的元数据。处理一轮训练中每个阶段之间的转换,且负责为运行中的所有客户端提供同步点。

clients:客户端,负责训练、见证和验证。每个客户端都保持自身状态与协调器同步。

data provider:负责提供训练所需的数据。可以是本地的也可以是HTTP或 CP提供者。

40B参数LLM预训练

此前互联网公开的大规模预训练多由Meta、Google等巨头主导(如LLaMA 2的700亿参数模型),Psyche以去中心化模式实现同等级别训练。

Psyche首次测试网运行使用的是Deepseek的V3 MLA架构。

MLA通过低秩联合压缩键值和矩阵分解技术,降低计算复杂度与内存占用,使 400 亿参数大语言模型在有限算力下高效训练。

多头注意力机制与潜空间表示学习相结合,提升模型语言理解与生成能力;并且,旋转位置嵌入的运用,有效解决长序列位置依赖问题,从多维度保障了训练的高效性与模型性能的优质性。

数据集:

使用了FineWeb(14T)、去除部分不常见语言的FineWeb-2(4T)和The Stack v2(1T),些数据集涵盖丰富信息,为模型训练提供了有力支持。

分布式训练策略:

模型并行与数据并行结合:将400亿参数拆解为128个分片,分布在不同节点进行 “模型并行” 训练,同时每个节点处理独立的数据批次(“数据并行”),通过DisTrO优化器同步梯度更新。动态自适应批量大小:根据节点网络延迟自动调整每个批次的训练数据量(如高延迟节点使用较小批次,减少等待时间),使全局训练效率提升25%。未来将是分布式训练的天下?

随着AI模型参数规模呈指数级增长,传统集中式训练模式正面临算力垄断、成本高昂和扩展性瓶颈的严峻挑战。

分布式训练的崛起,正在彻底改写这一格局。

就在几天前,Prime Intellect发布了首个分布式RL训练模型INTELLEC-2,引起了广泛关注。

Nous Research也称Psyche初始训练只是起点,后续计划整合监督微调、强化学习等完整的训练后阶段工作,以及推理和其他可并行工作负载。

谁能站稳分布式训练擂台?当然,我们期待更多更优秀的成果~

感兴趣的小伙伴可以到官方查看更加详细的内容。博客:https://nousresearch.com/nous-psyche/训练仪表板:https://psyche.network代码:https://github.com/PsycheFoundation/psyche文档:https://docs.psyche.network论坛:https://forum.psyche.networkHuggingFace:https://huggingface.co/PsycheFoundationDiscord:https://discord.com/invite/jqVphNsB4H参考链接:[1]https://x.com/NousResearch/status/1922744494002405444[2]https://x.com/PrimeIntellect/status/1921730059620196772

— 完 —


“400亿参数大模型:分布式算力,DeepSeek架构,3090单卡部署” 的相关文章

从仿冒域名到仿冒程序恶意软件“蹭热度”瞄上DeepSeek

从仿冒域名到仿冒程序恶意软件“蹭热度”瞄上DeepSeek

伴随DeepSeek热度狂飙,各种仿冒网站、钓鱼网站也趁机“搭车”。安全专家提醒,这些“山寨网站”极易令不明真相的网友蒙受损失,甚至会肆意传播恶意软件,广大用户需加强终端安全防护,避免因误装恶意程序而...

“内置DeepSeek”,日媒:AI成中国汽车新卖点

“内置DeepSeek”,日媒:AI成中国汽车新卖点

东风日产的N7电动汽车将搭载DeepSeek凤凰网科技讯 北京时间3月24日,据《日经亚洲》报道,中国汽车公司正在将DeepSeek的AI功能添加到旗下车型中,以便在中国这个全球最大汽车市场中脱颖而出...

对话中科闻歌王磊:DeepSeek给创业者带来的震撼与启示

对话中科闻歌王磊:DeepSeek给创业者带来的震撼与启示

未来,我们可能需要构建自己的统一计算框架,一旦能够打造好,那国内的GPU芯片生态建设必将向前迈出一大步。腊月二十八那天,中科闻歌董事长王磊跟团队开会到凌晨2点,技术嗅觉敏感的他们一直在讨论DeepSe...

新版DeepSeek-V3官方报告出炉:超越GPT-4.5,仅靠改进后训练

新版DeepSeek-V3官方报告出炉:超越GPT-4.5,仅靠改进后训练

明敏 发自 凹非寺量子位 | 公众号 QbitAI刚刚,DeepSeek官方发布DeepSeek-V3模型更新技术报告。V3新版本在数学、代码类相关评测集成绩超过GPT-4.5!而且这只是通过改进后训...

斯坦福2025 AI Index报告来了:DeepSeek在全文中被提到45次

斯坦福2025 AI Index报告来了:DeepSeek在全文中被提到45次

斯坦福《2025 AI指数》揭示:美国以40个顶尖模型领跑,中国性能差距缩至1.7%;训练成本飙升近2亿美元,但推理费用骤降99%。DeepSeek以600万美元低成本突围,质疑与希望并存;AI碳足迹...

青海移动完成基于国产化算力的DeepSeek模型部署

青海移动完成基于国产化算力的DeepSeek模型部署

中国移动通信集团青海有限公司基于寒武纪MLU 590国产化算力资源池,已全面部署上线DeepSeek国产化大模型服务,实现了全版本覆盖、全尺寸适配、全功能畅用,全方位加入DeepSeek生态圈。【新华...