据报道,英伟达AI GPU H200上游芯片端于Q2下旬起进入量产期,预计在Q3以后大量交货。但英伟达Blackwell平台上市时程提前至少一到两个季度,影响终端客户采购H200的意愿。

供应链指出,目前待出货的客户端订单仍多集中于HGX架构的H100,H200比重有限,Q3将量产交货的H200主要为英伟达DGX H200;至于B100则已有部分能见度,预计出货时程落在明年上半年。

H200作为H100 GPU的迭代升级产品,基于先进的Hopper架构,首次采用了HBM3e高带宽内存技术,实现了更快的数据传输速度和更大的内存容量,尤其针对大型语言模型应用表现出显著优势。根据英伟达官方发布的数据,在处理诸如Meta公司Llama2这样的复杂大语言模型时,H200相较于H100在生成式AI输出响应速度上最高提升了45%。

点赞(0)
立即
投稿

微信公众账号

微信扫一扫加关注

发表
评论
返回
顶部