首页>>科技 >>内容

AMD推出数据中心和PC芯片旨在加速人工智能

发布时间:2023-12-08 14:13:52编辑:可爱的眼神来源:

Advanced Micro Devices表示,将推出用于数据中心人工智能处理的 AMD Instinct MI300X 和 MI300A 加速器芯片。

AMD推出数据中心和PC芯片旨在加速人工智能

AMD首席执行官苏姿丰 (Lisa Su) 今天在公司数据中心活动上宣布了新的 AMD Instinct 芯片。在 10 月 31 日的第三季度分析师电话会议上,Su 表示,她预计 MI300 将成为 AMD 历史上最快达到 10 亿美元销售额的产品。

AMD 还推出了 AMD Ryzen 8040 系列处理器,此前代号为 Hawk Point,适用于基于 AI 的笔记本电脑。

AMD 还宣传其用于人工智能处理的 NPU 芯片。这家总部位于加利福尼亚州圣克拉拉的公司表示,2023 年,大型计算机制造商已出货数百万台基于 Ryzen 的 AI PC。

“对于个人电脑来说,这是另一个重要时刻,”AMD 通信主管德鲁·普雷里 (Drew Prairie) 表示。“人工智能的性能将比现在市场上的性能更上一层楼。”

在 Llama 2 上,8040 的性能将是第二季度开始发货的当前 Ryzen 芯片的 1.4 倍。AMD 还在开发代号为 Strix Point 的下一代 Ryzen 处理器,配备 AMD XDNA 2 和用于生成 AI 的 NPU。将于 2024 年发货。

AMD Instinct MI300 系列

AMD 展示了来自 Dell Technologies、Hewlett Packard Enterprise、Lenovo、Meta、Microsoft、Oracle、Supermicro 等公司的硬件。

AMD 表示,其 ROCm 6 开放软件生态系统结合了下一代硬件和软件,可实现八倍的性能提升,推动生成式 AI 的进步,并简化 AMD AI 解决方案的部署。

AMD Instinct MI300X 加速器拥有业界领先的生成式 AI 内存带宽和大型语言模型 (LLM) 训练和推理的领先性能。AMD Instinct MI300A 加速处理单元 (APU) 将 CPU 和 GPU 结合在同一产品中,结合最新的 AMD CDNA 3 架构和 Zen 4 CPU,为高性能计算和 AI 工作负载提供性能。

AMD 总裁 Victor Peng 在一份声明中表示:“AMD Instinct MI300 系列加速器采用我们最先进的技术设计,可提供领先的性能,并将用于大规模云和企业部署。” “通过利用我们领先的硬件、软件和开放生态系统方法,云提供商、OEM 和 ODM 正在将技术推向市场,使企业能够采用和部署人工智能驱动的解决方案。”

利用最新 AMD Instinct 加速器产品组合的客户包括 Microsoft,该公司最近发布了新的 Azure ND MI300x v5 虚拟机 (VM) 系列,该系列针对 AI 工作负载进行了优化,并由 AMD Instinct MI300X 加速器提供支持。

此外,El Capitan 是一台由 AMD Instinct MI300A APU 提供支持、位于劳伦斯利弗莫尔国家实验室的超级计算机,预计将成为第二台由 AMD 提供支持的百亿亿次级超级计算机,在完全部署后可提供超过 2 亿亿次浮点运算的双精度性能。戴尔、HPE 和 Supermicro 宣布推出新系统。联想表示,其对加速器的支持将于 2024 年上半年生效。

当今的法学硕士的规模和复杂性不断增加,需要大量的内存和计算能力。AMD Instinct MI300X 加速器具有一流的 192 GB HBM3 内存容量以及 5.3 TB/s 峰值内存带宽2,可提供日益苛刻的 AI 工作负载所需的性能。

AMD Instinct 平台是领先的生成式 AI 平台,基于行业标准 OCP 设计构建,配备八个 MI300X 加速器,可提供行业领先的 1.5TB HBM3 内存容量。AMD Instinct 平台的行业标准设计允许 OEM 合作伙伴将 MI300X 加速器设计到现有的 AI 产品中,并简化部署并加速基于 AMD Instinct 加速器的服务器的采用。

与 Nvidia H100 HGX 相比,AMD Instinct 平台在 BLOOM 176B 4 等 LLM 上运行推理时,吞吐量可提高高达 1.6 倍,并且是市场上能够对 Llama2 等 70B 参数模型运行推理的唯一选择,在单个 MI300X 加速器上;AMD 表示,它可以简化企业级 LLM 部署并提供出色的 TCO。

能源效率对于 HPC 和 AI 社区至关重要。但这些工作负载是数据和资源极其密集的。AMD Instinct MI300A APU 受益于将 CPU 和 GPU 内核集成在单个封装上,提供高效平台,同时还提供计算性能以加速训练最新的 AI 模型。

AMD 正在引领能效创新步伐,其 30×25 目标旨在

从 2020 年至 2025 年将用于 AI 训练和 HPC 的服务器处理器和加速器的能效提高 30 倍。