推广 热搜: 广州  SEO  贷款  深圳    医院  用户体验  网站建设  机器人  摩托车 

英伟达推出新款AI芯片H200 用于AI大模型的训练

   2023-11-14 21:39:32 互联网6
核心提示:英伟达在2023年全球超算大会(SC23)上推出了一款最新的AI芯片H200,用于AI大模型的训练,相比于其前一代产品H100,H200的性能提升了约60%到9...

英伟达在2023年全球超算大会(SC23)上推出了一款最新的AI芯片H200,用于AI大模型的训练,相比于其前一代产品H100,H200的性能提升了约60%到90%。

英伟达推出新款AI芯片H200 用于AI大模型的训练

H200是英伟达H100的升级版,与H100同样基于Hopper架构,主要升级包括141GB的HBM3e显存,显存带宽从H100的3.35TB/s增加到了4.8TB/s。

在大模型推理表现上,H200在700亿参数的Llama2大模型上的推理速度比H100快了一倍,而且在推理能耗上H200相比H100直接降低了一半。对于显存密集型HPC(高性能计算)应用,H200更高的显存带宽能够确保高效地访问数据,与CPU相比,获得结果的时间最多可提升110倍。

由于架构相同,H200将与H100在软件上相兼容,这意味着H200将具有H100的所有功能。英伟达宣称,H200在大模型Llama 2、GPT-3.5的输出速度上分别是H100的1.9倍和1.6倍。

英伟达加速计算总经理兼副总裁伊恩·巴克 (Ian Buck)称:“想要通过生成式AI和HPC应用创造智能,就必须使用大型、快速的GPU显存来高速、高效地处理海量数据。借助H200,业界领先的端到端AI超级计算平台的速度将会变得更快,一些世界上最重要的挑战,都可以被解决。”

过去,英伟达数据中心AI芯片通常两年更新一次芯片架构,最新芯片架构是Hopper。不过英伟达曾于上个月向投资人披露,由于市场对其AI芯片需求旺盛,公司将从每两年发布一次新架构转向每一年发布一次。 英伟达还向投资人称,其将于2024年发布基于Blackwell架构的B100芯片。

H200将于2024年第二季度出货。英伟达称,从明年开始,亚马逊云科技、谷歌云、微软Azure 和甲骨文云将成为首批部署基于H200实例的云服务提供商。

英伟达股价在周一美股交易时段上涨,且已连续第九个交易日上涨,创出2016年12月27日以来的最长连涨走势。今年以来,英伟达股价累计涨幅超过230%。

 
免责声明:以上所展示的信息由网友自行发布,内容的真实性、准确性和合法性由发布者负责。 裹足不进网对此不承担任何保证责任, 裹足不进网仅提供信息存储空间服务。任何单位或个人如对以上内容有权利主张(包括但不限于侵犯著作权、商业信誉等),请与我们联系并出示相关证据,我们将按国家相关法规即时移除。

本文地址:http://cn.gzbj58.com/news/102310.html

反对 0收藏 0 打赏 0
 
更多>同类资讯
推荐图文
推荐资讯
点击排行

网站首页  |  付款方式  |  关于我们  |  联系方式  |  使用协议  |  版权隐私  |  网站地图  |  排名推广  |  广告服务  |  积分换礼  |  RSS订阅  |  粤ICP备11090451号
免责声明:本站所有信息均来自互联网搜集,产品相关信息的真实性准确性均由发布单位及个人负责,请大家仔细辨认!并不代表本站观点,裹足不进网对此不承担任何相关法律责任!如有信息侵犯了您的权益,请告知,本站将立刻删除。
友情提示:买产品需谨慎
网站资讯与建议:1991659015@qq.com 客服QQ:1991659015点击这里给我发消息1991659015点击这里给我发消息