当前位置:首页 > Deepseek最新资讯 > 正文内容

DeepSeek-OCR实现光学压缩 光计算可为大模型「减负」

5个月前 (11-27)Deepseek最新资讯171

  注意力机制是大语言模型能够取得成功的重要基石,然而随着上下文窗口不断增加,计算注意力矩阵所需的算力呈指数级增长,当上下文窗口长度达到 1000K 时,仅存储注意力矩阵就需要约 2TB 的显存,最终将导致大模型“脑子”不够用了。

  为了解决这个问题,DeepSeek设想通过上下文光学压缩的方法实现利用视觉token对文本token完成压缩,最终DeepSeek-OCR的论文验证了这一设想可行性,并启发业内尝试推动让大模型像人一样开始遗忘。

  光计算系统解决方案商光本位科技表示,上下文光学压缩可行性的验证,更进一步说明光计算会成为大语言模型的未来,公司正积极推进光计算与大模型接轨。

  在DeepSeek-OCR的论文中,DeepSeek用数据展示了该方法在视觉压缩上的能力,当压缩率达到10倍时,仍然能保持96.5%的精度,这一惊人的表现揭露了视觉压缩的可行性。

  DeepSeek提出的DeepEncoder模块是实现上下文光学压缩的核心引擎,其中包含三个模块,分别是SAM、两层卷积块和CLIP。

  SAM模块先通过窗口注意力机制,将原图分割成多个局部窗口,使用ViT图像识别模型将每个局部窗口的图像通过矩阵进行关联度计算,相互关联性高的区域会融合彼此的特征从而使它们关联变得统一,而空白区域由于关联性差而保持低特征值,在下一步的卷积模块处理中会被卷积块丢弃,实现信息提取、压缩两不误。

  最后经过提取、压缩的视觉token被输入到CLIP,利用全局注意力机制,从这些压缩后的信息中捕捉图像的整体语义和上下文。

  至此DeepSeek-OCR完成了全部的压缩环节,成功将原本需要1000文本token才能代表的数据压缩成100个视觉token。

  从过程来看,DeepSeek-OCR实现光学压缩主要用到的ViT图像识别模型与CNN卷积运算两大结构,其中的关键环节是在ViT中引入注意力机制以及CNN中利用不同的卷积核对于信息进行过滤。

  从本质上看,不论是ViT中的注意力机制还是CNN中不同的卷积核的过滤,都是信息聚合的计算过程,这使得ViT和CNN两种计算结构都需要一个高效的硬件载体来进行计算。

  ViT、CNN这种底层计算为向量矩阵乘法以及卷积形式的信息压缩机制,天然适合通过光计算的并行计算架构处理,使得光计算芯片完成信息压缩的速度和能耗都会远优于电芯片。此外灵活性也大大增加,光计算芯片内部的传播路径以及计算的逻辑还可以根据不同的需求进行调整。

  如同下图所示,通过将计算引入光域,DeepEncoder在经过光本位科技自主研发的128×128矩阵规模的全域可编程存算一体光计算引擎加速后,可以达到对该类计算任务的计算效率提升100倍与能效比提升10倍的效果。

  为何光计算可以实现信息压缩的高效加速与极致的能效比?通过测试,光本位科技认为在压缩上下文这样的类脑任务中,光计算相较GPU有着压倒性的优势。

  最直观的优势便是计算过程的简化。在传统的电芯片中需要完成卷积、缩放、池化、激活、衰减、采样量化等多种计算过程,但在光计算中,图像信息可以自然的通过光学的方式进行计算和处理,上述的计算过程将在传播过程中即可完成,完全不依赖任何额外功耗进行计算。

  如下图所示deepseek,图像信息通过光的折射将不同频率的光信号直接输入到光计算芯片内部,经过不同计算光路上的调制和耦合,即可完成压缩,实现无额外能量消耗的计算。此外,光本位科技特有的存算一体架构可以使其光计算引擎在处理批量任务时保持“零静态维持功耗”。

  光计算芯片另一大优势是可扩展性。无论是扩大阵列规模以提升并行度;还是提高参数刷新频率以提升动态可编程性等均可实现,且比电子芯片上限更高、能耗更少。维度的任意扩展为长文本推理提供了超出传统电计算路径的扩展空间。

  除了图像,光本位科技正在尝试将其他形式的信息编码成不同频率的光信号,并输入到光计算芯片内部,经过不同光路上的调制和耦合,同样实现无额外能量消耗的计算。

  DeepSeek-OCR发布后,DeepSeek提出将探索基于人脑遗忘机制的算法,其核心是用模糊代替过去的删除。光本位科技认为遗忘算法机制实现的核心仍然是高效的提取特征,降低特征维度,甚至与已有的特征进行融合形成新的特征。

  由此,公司设想未来将存算一体架构通过特殊的光路结构乃至异质集成设计,利用相变材料(PCM)的非易失性可以高效地模拟与信息关联的人脑神经元,从而实现高效的计算以及类脑的信息编码与存储。

  DeepSeek-OCR的出现为光计算芯片的通用化设计提供了新思路,或将成为打通光计算硬件端与大模型连接的突破点。

  光本位科技计划未来利用光计算芯片的优势推出上下文压缩专用硬件、AI任务专用硬件以及配套软件栈,与大模型实现接轨。如此不仅能够实现在已有的模型上进一步提升近百倍的算力以及超过十倍的能效比,还能够为未来的新计算范式提供高效的计算基座。

  如今,随着大模型的广泛运用,长文本推理对参数规模、带宽与上下文信息压缩能力提出新挑战。传统GPU受制于内存墙与功耗密度,扩展上下文时往往受限于显存与带宽。因此需要光计算利用其大算力、高带宽、低功耗的优势来改变大模型现状。

  光本位科技表示,未来将逐渐构建起全光大规模AI计算的下一代颠覆式平台系统,提供全场景覆盖的全栈光计算解决方案。原文出处:DeepSeek-OCR实现光学压缩 光计算可为大模型「减负」,感谢原作者,侵权必删!

标签: deepseek

“DeepSeek-OCR实现光学压缩 光计算可为大模型「减负」” 的相关文章

10月27日 DeepSeek预测 雄鹿vs骑士:字母哥率队复仇,雄鹿客场险胜

10月27日 DeepSeek预测 雄鹿vs骑士:字母哥率队复仇,雄鹿客场险胜

  北京时间10月27日清晨6点,NBA常规赛将迎来一场焦点战——东部第一的密尔沃基雄鹿客场挑战克利夫兰骑士。目前雄鹿以2胜0负(胜率100%)高居榜首,而骑士1胜1负(胜率50%)暂列第...

1月17日DeepSeek预测:骑士vs76人,米切尔率队再克费城?

1月17日DeepSeek预测:骑士vs76人,米切尔率队再克费城?

  东部季后赛卡位战硝烟再起!北京时间1月17日早8点,骑士将客场挑战76人,这是双方三天内的第二次交锋。目前76人以22胜17负位列东部第5,骑士23胜19负紧随其后排名第7,这场胜负或...

DeepSeek新论文来了!联手清华、北大,优化智能体大模型推理

DeepSeek新论文来了!联手清华、北大,优化智能体大模型推理

  ,专门针对智能体工作负载下的大语言模型(LLM)推理性能进行优化。具体来讲,通过引入「双路径 KV-Cache 加载」机制,解决了在预填充 - 解码(PD)分离架构下,KV-Cache...

回应DeepSeek挑战 OpenAI发布开放权重人工智能模型

回应DeepSeek挑战 OpenAI发布开放权重人工智能模型

  在DeepSeek的开源AI模型引起全球关注的数月后,OpenAI发布了两个开放权重AI模型,能够模仿人类推理过程。   OpenAI 8月5日表示,两个分别名为GP...

上交所副总经理王泊:始终赋能科创板企业加速成长创造“DeepSeek时刻”

上交所副总经理王泊:始终赋能科创板企业加速成长创造“DeepSeek时刻”

  近日,在“硬科硬客”新质生产力行业沙龙2025年会上,上海证券交易所副总经理王泊表示,对上交所以及科创板而言,坚持金融服务实体经济的根本宗旨,提升支持科技创新的能级,充分发挥交易所资本...

1.32亿!DeepSeek大单,360拿下

1.32亿!DeepSeek大单,360拿下

  智东西10月29日报道,10月28日,武汉人工智能创新应用示范基地项目(一期)中标结果公示,   今年9月底,该项目发布招标公告,招标人为武汉长江新区长新数科信息技术...