AMD 推出适用于数据中心和客户端设备的 MI300 AI 加速器

AMD 推出从云到客户端的 AI 加速器,MI300 引领潮流

AMD 详细介绍了用于超级计算机和数据中心以及客户端设备和消费产品的最新人工智能加速器。 但软件支持、优化和开发人员采用是关键。

Advanced Micro Devices 的推进人工智能会议本周在加利福尼亚州圣何塞举行。 除了在数据中心、超级计算和客户笔记本电脑中推出人工智能加速器之外,该公司还概述了支持生态系统和软件的战略,重点是开源可访问性。 AMD 必须在人工智能计算资源市场上与英伟达和其他现有企业竞争。 AMD首席执行官苏姿丰强调了这一点,表示该公司已将AI加速器的TAM(年度市场总额)预测从2027年的1500亿美元上调至4000亿美元,增长率为70%。 人工智能为各大芯片厂商带来了巨大机遇,但实际市场需求仍是未知数。 人工智能将对几乎每个行业产生如此深远的影响,以至于它会以这样或那样的方式影响它们。 市场将欢迎并渴望收到 AMD 的这些新的人工智能工具和硅引擎。

AMD 数据中心事业部本周推出了两个主要产品系列:MI300X 和 MI300A,分别适用于企业、云人工智能和超级计算。 这两款产品虽然专为特定应用而设计,但均基于支持小芯片的架构设计,采用先进的 3D 封装以及优化的 5 纳米和 6 纳米半导体芯片制造工艺的混合。 AMD 的高性能计算 AI 加速器是 Instinct MI300A。 它由该公司的 CDNA 3 数据中心 GPU 架构以及 Zen4 CPU 核心芯片组成。 (24 个 EPYC Gena 核心)。 128GB 共享、统一 HBM3 内存可供 GPU 加速器和 CPU 内核使用。 该芯片拥有惊人的 146B 晶体管,提供高达 5.3 TB/s 的峰值内存带宽,并通过 AMD 的 Infinity Fabric 高速串行互连。

AMD 加速器还能够作为 PCIe 连接的附加设备或主机 CPU 运行。 该公司声称,在用于计算流体动力学的 OpenFOAM 等应用中,与 Nvidia H100 相比,MI300A 的性能可提升高达 4 倍。 它还承诺每瓦性能比 Nvidia GH200 Grace Hopper 提高高达 2 倍。 AMD MI300A 还为将安装在劳伦斯利弗莫尔国家实验室的 HPE El Capitan 提供支持。 它将取代另一台 AMD 驱动的超级计算机 Frontier。

来源和详细信息:
https://www.forbes.com/sites/davealtavilla/2023/12/08/amd-unveils-ai-accelerators-from-cloud-to-client-with-mi300-leading-the-charge/?ss=ai&sh=752d476b5c0e