英伟达、AMD:确认对华断供高端GPU芯片
据路透社报道,美国对中国再下重拳,禁止AMD及英伟达部分高端GPU出口中国!
本文引用地址:http://www.eepw.com.cn/article/202209/438388.htm英伟达周三表示,已经收到通知,美国官员要求其停止向中国出口两款用于人工智能工作的顶级计算芯片,此举可能会削弱中国公司开展先进技术的能力。像图像识别这样的工作,阻碍了英伟达在中国的业务。
英伟达股价盘后下跌 6.6%。该公司表示,该禁令影响了其旨在加速机器学习任务的 A100 和 H100 芯片,可能会干扰英伟达今年宣布的旗舰芯片 H100 的开发完成。
英伟达表示,美国官员告诉它,新规则“将解决所涉产品可能在中国被用于或转用于‘军事最终用途’或‘军事最终用户’的风险。”
与此同时,英伟达的竞争对手 AMD 也向媒体表示,公司也已收到新的许可要求,将阻止其 MI250 人工智能芯片出口到中国,但它相信其 MI100 芯片不会受到影响。AMD 表示,它不相信新规则会对其业务产生重大影响。受此消息影响AMD盘后下跌 3.79%。
由于个人电脑需求下降,英伟达已经面临销售下滑。在收到通知的前一天,该公司给出了令人失望的预测,称需要削减出货量以减少过剩的库存。现在英伟达又面临了更大的麻烦。英伟达表示,如果该公司没有获得向中国销售芯片的许可,可能会损失 4 亿美元的销售额。这约占第三财季收入的 6.8%。
英伟达于美国时间8月31日披露了该通知,英伟达公司在一份电子邮件声明中表示:“我们正在与中国客户合作,以满足他们计划或未来购买替代产品的需求,并且可能会在替代产品不足的情况下寻求许可。新许可要求适用的唯一当前产品是 A100、H100 以及包含它们的 DGX 等系统。”
2022年8月26 日,美国政府或 USG 通知 NVIDIA,USG 已对本公司未来向中国(包括香港)和俄罗斯的任何出口实施一项新的许可要求,立即生效。A100 和即将推出的 H100 芯片,DGX 或包含 A100 或 H100 芯片和 A100X 的任何其他系统也包含在新的许可要求中。许可要求还包括任何未来的 NVIDIA 芯片,其峰值性能和芯片到芯片的 I/O 性能等于或大于大致相当于 A100 的阈值,以及包括了这些芯片的任何系统。出口技术以支持或开发涵盖产品需要许可证。USG 表示,新的许可要求将解决涵盖产品可能用于或转用于中国和俄罗斯的“军事最终用途”或“军事最终用户”的风险。
新的许可要求可能会影响公司及时完成 H100 开发或支持 A100 现有客户的能力,并可能要求公司将某些业务转移到中国以外。该公司与美国政府合作,并正在为公司的内部开发和支持活动寻求豁免。
此外,公司正在与中国的客户接触,并寻求满足他们计划或未来购买公司数据中心产品的需求,产品不受新许可要求的约束。如果客户需要新许可要求涵盖的产品,公司可能会为客户寻求许可,但不能保证 USG 会为任何客户授予任何豁免或许可,或者 USG 将在及时。
公司于 2022 年 8 月 24 日提供的第三财季展望包括对中国的约 4 亿美元潜在销售额,如果客户不想购买公司的替代产品或 USG及时向重要客户授予许可或拒绝许可。
相比于英伟达前一代的 Volta GPU,A100 的性能提升了 20 倍,非常适合于人工智能、数据分析、科学计算和云图形工作负载。该芯片由 540 亿个晶体管组成,打包了第三代 Tensor 核心,并具有针对稀疏矩阵运算的加速功能,对于 AI 推理和训练来说特别有用。此外,每个 GPU 可以划分为多个实例,执行不同的推理任务,采用 Nvidia NVLink 互连技术可以将多个 A100 GPU 用于更大的 AI 推理工作负载。
然而,这些在 H100 出现之后显得略有不足了。在今年春季的发布会中,英伟达CEO黄仁勋发布了面向高性能计算(HPC)和数据中心的下一代 Hopper 架构,搭载新一代芯片的首款加速卡被命名为 H100,它就是 A100 的替代者。
H100 是一款针对大模型专门优化过的芯片,使用台积电 5nm 定制版本制程(4N)打造,单块芯片包含 800 亿晶体管。同时也是全球首款 PCI-E 5 和 HBM 3 显卡,一块 H100 的 IO 带宽就是 40 terabyte 每秒。
Transformer 类预训练模型是当前 AI 领域最热门的方向,英伟达以此为目标专门优化 H100 的设计,提出了 Transformer Engine,集合了新的 Tensor Core、FP8 和 FP16 精度计算,以及 Transformer 神经网络动态处理能力,可以将此类机器学习模型的训练时间从几周缩短到几天。
针对服务器应用,H100 也可以虚拟化为 7 个用户共同使用,每个用户获得的算力相当于两块全功率的 T4 GPU。此外,H100 还实现了业界首个基于 GPU 的机密计算。
基于 Hopper 架构的 H100,英伟达还推出了机器学习工作站、超级计算机等一系列产品。8 块 H100 和 4 个 NVLink 结合组成一个巨型 GPU——DGX H100,一共有 6400 亿晶体管,AI 算力 32 petaflops,HBM3 内存容量高达 640G。
与此同时,得益于与 Equinix(管理全球 240 多个数据中心的全球服务提供商)的合作, A100 和 H100 的新型 GPU 通过水冷方式来节省用户的能源成本。使用这种冷却方法最多可以节省 110 亿瓦时,可以在 AI 和 HPC 推理工作中实现 20 倍的效率提升。
今年 5 月份,英伟达曾开源了 Linux GPU 内核模块代码,未来是否还会有更多开源计划,暂未可知。
根据Jon Peddie Research的数据,2021年四季度,在全球独立 GPU 市场,英伟达份额高达81%,其余19%则被AMD拿下。虽然近两年英特尔推出了Xe系列独立显卡,但目前销量仍相对有限,预计其最新的市场份额可能仍在5%以下。同样,在面向数据中心的高端独立GPU市场,也几乎是由英伟达和AMD两家垄断。
北京半导体行业协会副秘书长朱晶对经济观察网表示,根据消息,被封锁的产品是有足够双精度计算能力的高端GPU,就NVIDIA来说,是以A100算力为基准,比它先进的所有显卡产品都会受限。
朱晶表示,根据消息,被封锁的产品是有足够双精度计算能力的高端GPU,对于低端GPU不受影响。具备较高双精度计算能力的高端GPU主要用于高性能计算领域,包括科学计算,CAE(计算机辅助工程),医疗等方面。
超算中心即国家超级计算中心,由数千甚至更多处理器组成,具备超高算力,被誉为“计算机中的珠穆朗玛峰”,主要满足国家高科技领域和尖端技术研究的需求。
相比之下,普通的数据中心面向所有需要信息技术支撑的场景,包括大量互联网应用。中国的电信运营商、互联网公司都自建数据中心。朱晶表示,企业级数据中心经常采购NVIDIA消息中的A100、H100产品,这些产品都是有足够双精度计算能力的高端GPU,上述断供行为如果落实,造成的波及范围会比较大。