推广 热搜: 广州  SEO  贷款  深圳    医院  用户体验  网站建设  机器人  摩托车 

总数找到:DeepSeek发新成果 稀疏注意力机制NSA显著提升长上下文处理速度

   2025-02-19 01:06:23 互联网23
核心提示:2月18日,DeepSeek团队发布了一篇新论文,介绍了一种改进的稀疏注意力机制NSA,适用于超快速的长上下文训练与推理

2月18日,DeepSeek团队发布了一篇新论文,介绍了一种改进的稀疏注意力机制NSA,适用于超快速的长上下文训练与推理。NSA以性价比极高的方式在训练阶段应用稀疏性,在训推场景中均实现速度的明显提升,特别是在解码阶段实现了高达11.6倍的提升。

DeepSeek发新成果

DeepSeek创始人兼CEO梁文锋出现在了合著名单之中,位列倒数第二,表明他作为项目管理者参与了一线研究工作。这篇论文的第一作者Jingyang Yuan是在实习期间完成的研究。

DeepSeek发新成果 稀疏注意力机制NSA显著提升长上下文处理速度

NSA具有三大核心组件:动态分层稀疏策略、粗粒度token压缩和精粒度token选择。这些组件协同工作,既提升了效率,也保留了模型对全局长上下文的感知能力和局部精确性。NSA专门针对现代硬件进行优化设计,支持模型训练,加速推理并降低预训练成本,对性能无明显影响。采用NSA机制的模型在通用基准、长上下文任务和基于指令的推理上,与全注意力模型相当或表现更优。

DeepSeek发新成果 稀疏注意力机制NSA显著提升长上下文处理速度

在8卡A100计算集群上,NSA的前向传播和反向传播速度分别比全注意力快9倍和6倍,由于减少了内存访问量,NSA在长序列解码时相较于全注意力模型速度显著提升。

 
免责声明:以上所展示的信息由网友自行发布,内容的真实性、准确性和合法性由发布者负责。 裹足不进网对此不承担任何保证责任, 裹足不进网仅提供信息存储空间服务。任何单位或个人如对以上内容有权利主张(包括但不限于侵犯著作权、商业信誉等),请与我们联系并出示相关证据,我们将按国家相关法规即时移除。

本文地址:http://cn.gzbj58.com/news/169905.html

反对 0收藏 0 打赏 0
 
更多>同类资讯
推荐图文
推荐资讯
点击排行

网站首页  |  付款方式  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  RSS订阅
免责声明:本站所有信息均来自互联网搜集,产品相关信息的真实性准确性均由发布单位及个人负责,请大家仔细辨认!并不代表本站观点,裹足不进网对此不承担任何相关法律责任!如有信息侵犯了您的权益,请告知,本站将立刻删除。
友情提示:买产品需谨慎
网站资讯与建议:1991659015@qq.com 客服QQ:1991659015点击这里给我发消息1991659015点击这里给我发消息