1月1日,DeepSeek在新年前发布了一项重要研究,提出了一种名为mHC(流形约束超连接)的新网络架构。该架构旨在解决传统架构在大规模模型训练中的不稳定性问题,为下一代基础架构的演进指明了新方向。

新论文《mHC: Manifold-Constrained Hyper-Connections》由DeepSeek创始人兼CEO梁文锋及解振达、韦毅轩、曹焕琪等人共同完成。近年来,以超连接为代表的研究拓展了过去十年确立的通用残差连接范式,通过拓宽神经网络的信息传输通道和增加通道间的连接,提升了模型性能。然而,这也导致了大规模训练中的不稳定性、可扩展性受限及内存访问开销大的问题。
DeepSeek的这篇论文针对这些问题提出了改进框架mHC架构。这一架构类似于给超连接的信息通道加了一套“交通规则”,在保留性能优势的同时,恢复了信息原样传递的特性,使模型训练更稳定且更容易扩展,从而推动大模型底层架构的工业化落地。
简单来说,如果将AI模型想象成一个很长的“计算链条”,传统方法的问题在于信息传递时管道较窄,容易造成“堵车”。后来的方法是将管道加宽,虽然信息流更多,但水流过猛有时会冲坏水管。mHC相当于给水管加了“智能调节阀”,确保水流稳定,运行时更节省资源。
DeepSeek表示,mHC为未来研究开辟了多个前景广阔的路径,希望它能重新激发学界对宏观架构设计的兴趣。通过深化对拓扑结构如何影响优化与表征学习的理解,mHC或将有助于突破当前限制,并可能为下一代基础架构的演进指明新方向。
从行业意义上来看,mHC或许能让企业在训练更大规模的基础模型时减少硬件投入、缩短训练周期。算力有限的中小AI企业也能尝试开发更复杂的大模型,降低了大模型研发的门槛。此外,训练稳定性和可扩展性的提升能让大模型在更复杂的场景中落地,如需要超大规模参数的多模态模型和工业级的智能决策系统。
有行业人士认为,DeepSeek的这一研究是底层创新,这次创新的架构看向的是Transformer最基础的问题,结合此前的积累,预测DeepSeek有望在V4版本中做出重大更新。
自2025年初引发广泛关注以来,这一年DeepSeek虽未正式推出R2或V4等重大版本,但在模型迭代与开源上持续发力。仅12月就同步推出了DeepSeek-V3.2与V3.2-Special,11月底也开源了数学推理模型DeepSeek-Math-V2,成为目前首个达到国际奥数金牌水平并开放使用的数学模型。

![[快讯]广州一街道回应扬尘逼迁争议 雾炮机操作失误所致](http://cn.gzbj58.com/file/upload/202601/05/005935361.jpg)

![[快讯]元旦返程堵堵堵堵堵 提前规划避高峰](http://cn.gzbj58.com/file/upload/202601/04/002454191.jpg)
