AMDInstinctMI300X支持高达192GB的HBM3内存,旨在训练支持ChatGPT等程序的大型语言模型。Nvidia一直在能够训练生成式AI程序的芯片市场上占据主导地位,但AMD现在正试图通过新的企业级GPU来夺取自己的份额。
该公司今天发布了AMDInstinctMI300X,这是一款所谓的“加速器”芯片,旨在训练大型语言模型,为OpenAI的ChatGPT等程序提供支持。
AMD首席执行官苏姿丰(LisaSu)在产品发布会上表示:“人工智能确实是塑造下一代计算的决定性技术,坦率地说,这是AMD最大、最具战略意义的长期增长机会。”
MI300X试图通过配备“行业领先”的192GBHMB3内存来击败竞争对手,同时构建于AMD专注于数据中心的CDNA3架构,该架构适用于基于AI的工作负载。客户将能够将八个MI300X加速器打包到一个系统中,使GPU能够训练更大的AI模型,从而在竞争中脱颖而出。
“对于最大的模型,它实际上减少了所需的GPU数量,显着提高了性能,尤其是推理性能,并降低了总拥有成本,”Su说。
MI300X还基于AMD的另一款专注于人工智能的芯片MI300A,该芯片预计将应用于超级计算机。不同的是,该公司更换了MI300A中的Zen4CPU小芯片,将MI300X变成了纯GPU处理器。
“你可能会发现它看起来与MI300A非常非常相似,因为基本上我们取下了三个小芯片并安装了两个(GPU)小芯片,并且我们堆叠了更多的HBM3内存,”Su补充道。“我们真正为生成人工智能设计了这个产品。”
在演示中,苏还展示了一台配备192GB内存、运行开源大语言模型Falcon-40B的MI300X。该程序被要求写一首关于旧金山的诗,它在几秒钟内创建了文本。
“这个演示的特别之处在于,这是第一次如此大小的大型语言模型可以完全在单个GPU的内存中运行,”她补充道。