Nvidia已经主导芯片市场的能力训练生成人工智能程序,但AMD现在试图声称其份额的市场通过一个新的企业级GPU。
AMD公司今天宣布本能MI300X,所谓的“加速器”芯片设计训练大型语言模型,可以如OpenAI电力项目ChatGPT。
“人工智能是定义的技术塑造下一代的计算,坦白说这是AMD的最大和最战略长期增长机会,”苏AMD首席执行官丽莎在产品的说揭幕仪式(在一个新窗口打开)。
MI300X试图击败竞争由以“行业领先”192 gb的HMB3内存而被建立在AMD的数据中心互补脱氧核糖核酸3(在一个新窗口打开)架构,这是基于ai的工作负载。顾客可以装八MI300X加速器为一个系统,使gpu火车大竞争上的人工智能模型。
”最大的模型,你需要它实际上减少了gpu的数量,显著加速性能,尤其是对推理,以及减少总体拥有成本,”苏说。
MI300X也是根据其他AI-focused AMD的芯片,MI300A,预定抵达超级计算机。所不同的是,公司换出禅宗4个CPUchipletsMI300A, MI300X变成一个纯粹的GPU处理器。
“你可能会看到它看起来非常类似于MI300A,因为基本上我们花了三chiplets,把两个(GPU) chiplets,我们堆更多HBM3记忆,”苏说。“我们真正为生成人工智能设计这个产品。”
演示,苏还显示一个MI300X配备192 gb的内存运行开源语言模型,Falcon-40B。这个项目被要求写一首诗关于旧金山和它创造了文本在几秒钟。
“这个演示有什么特别之处是这是第一次这样规模的大型语言模型可以完全在内存中运行一个GPU,”她补充道。
新硬件到达Nvidia预计在未来几个季度销售额飙升,由于需求生成人工智能聊天机器人。开发技术,公司整个行业一直在买入Nvidia A100 GPU可以成本约10000美元。此外,英伟达也卖H100 GPU,现在可以配置了188 gb的HMB3记忆。
AMD公司说,它将开始抽样自己的竞争对手的产品,MI300X,关键客户从第三季度开始。该公司补充说,认为数据中心市场芯片用于生成人工智能在2027年达到1500亿美元,高于今年的仅为300亿美元。