基于Ampere架构的英伟A100系列计算卡在过去三年里被众多高性能计算集群(HPC)所采用,英伟达在去年推出了新一代基于Hopper架构的达正H100系列计算卡,进一步提高了算力,为中这些GPU大量用于人工智能和深度学习任务。国区共由于众所周知的开发款原因,英伟达为了绕开去年施加的新款芯片相关出口限制,先后推出了A800系列和H800系列计算卡专供中国市场使用。特供与原有的英伟A100/H100系列相比,A800/H800系列的达正规格基本相同,比较大的为中区别在于NVLink互连总线的连接速率。
随着近期新一轮更加严格的国区共管控措施,A800/H800系列计算卡也逃脱不了限制,开发款甚至连消费端的新款芯片GeForce RTX 4090游戏显卡也受到了影响。据《科创板日报》的特供报道,从产业链人士处了解到,英伟英伟达故技重施,正在开发针对中国区的最新改良版芯片,包括了HGX H20、L20 PCle和L2 PCle三款产品。
据了解,HGX H20、L20 PCle和L2 PCle都是基于H100计算卡改造而来,英伟达最快会在本月16号之后公布相关信息,而国内的厂商最快会在未来几天拿到对应的产品。目前《科创板日报》已向英伟达求证该消息的真实性,但截至发稿为止,英伟达暂时还没有回应。
H100所搭载的是GH100芯片,其完整的芯片配置了8组GPC、72组TPC、144组SM、共18432个FP32 CUDA核心。其采用了第四代Tensor Core,共576个,并配有60MB的L2缓存。有不过实际产品中没有全部打开,其中SXM5版本中启用了132组SM,共16896个FP32 CUDA核心,528个Tensor Core以及50MB的L2缓存,而PCIe 5.0版本则启用了114组SM,FP32 CUDA核心数量只有14592个。此外,前者的TDP达到了700W,后者则为350W。
此外,H100支持英伟达第四代NVLink接口,可提供高达900 GB/s的带宽。同时H100是第一款支持PCIe 5.0标准的GPU,也是第一款采用HBM3的GPU,最多支持六颗HBM3,带宽为3TB/s,是A100采用HBM2E的1.5倍,默认显存容量为80GB。
(责任编辑:焦点)
2022年全球人工智能软件市场规模将达625亿美元 相比2021年增长21.3%
苏妈的反击!探寻地表游戏CPU锐龙9 7950X3D:帧数太离谱了
微软推出AI工具Security Copilot,帮助网络安全人员应对威胁
《无人深空》4.0更新“Waypoint”上线 Switch版正式发售
无需微调,一张照片即可换脸、换背景!NUS等华人团队破局个性化视频生成
Kotlin 1.8 将彻底移除 Kotlin Synthetics