个人电脑编辑选择和评估产品独立。如果你买通过会员链接,我们可以赚取佣金,这帮助支持我们测试

AMD预备挑战Nvidia GPU对生成人工智能的控制市场

AMD本能MI300X最多支持192 gb的HBM3内存,它旨在培养ChatGPT等大型电力项目的语言模型。

通过迈克尔菅直人

我的经验

2017年10月以来我一直与个人,涵盖了广泛的话题,包括消费电子、网络安全、社交媒体、网络、和游戏。在个人工作之前,我是一个外国记者在北京超过五年,覆盖在亚洲的科技项目。

阅读完整的生物
AMD首席执行官丽莎Su(来源:AMD)

Nvidia已经主导芯片市场的能力训练生成人工智能程序,但AMD现在试图声称其份额的市场通过一个新的企业级GPU。

AMD公司今天宣布本能MI300X,所谓的“加速器”芯片设计训练大型语言模型,可以如OpenAI电力项目ChatGPT

“人工智能是定义的技术塑造下一代的计算,坦白说这是AMD的最大和最战略长期增长机会,”苏AMD首席执行官丽莎在产品的说揭幕仪式(在一个新窗口打开)

MI300X试图击败竞争由以“行业领先”192 gb的HMB3内存而被建立在AMD的数据中心互补脱氧核糖核酸3(在一个新窗口打开)架构,这是基于ai的工作负载。顾客可以装八MI300X加速器为一个系统,使gpu火车大竞争上的人工智能模型。

丽莎苏谈论GPU
(来源:AMD)

”最大的模型,你需要它实际上减少了gpu的数量,显著加速性能,尤其是对推理,以及减少总体拥有成本,”苏说。

MI300X也是根据其他AI-focused AMD的芯片,MI300A,预定抵达超级计算机。所不同的是,公司换出禅宗4个CPUchipletsMI300A, MI300X变成一个纯粹的GPU处理器。

“你可能会看到它看起来非常类似于MI300A,因为基本上我们花了三chiplets,把两个(GPU) chiplets,我们堆更多HBM3记忆,”苏说。“我们真正为生成人工智能设计这个产品。”

AMD的GPU的演示运行一个大的语言模型
(来源:AMD)

演示,苏还显示一个MI300X配备192 gb的内存运行开源语言模型,Falcon-40B。这个项目被要求写一首诗关于旧金山和它创造了文本在几秒钟。

“这个演示有什么特别之处是这是第一次这样规模的大型语言模型可以完全在内存中运行一个GPU,”她补充道。

新硬件到达Nvidia预计在未来几个季度销售额飙升,由于需求生成人工智能聊天机器人。开发技术,公司整个行业一直在买入Nvidia A100 GPU可以成本约10000美元。此外,英伟达也卖H100 GPU,现在可以配置了188 gb的HMB3记忆。

AMD公司说,它将开始抽样自己的竞争对手的产品,MI300X,关键客户从第三季度开始。该公司补充说,认为数据中心市场芯片用于生成人工智能在2027年达到1500亿美元,高于今年的仅为300亿美元。

What's New Now<\/strong> to get our top stories delivered to your inbox every morning.","first_published_at":"2021-09-30T21:30:40.000000Z","published_at":"2022-08-31T18:35:24.000000Z","last_published_at":"2022-08-31T18:35:20.000000Z","created_at":null,"updated_at":"2022-08-31T18:35:24.000000Z"})" x-show="showEmailSignUp()" class="rounded bg-gray-lightest text-center md:px-32 md:py-8 p-4 mt-8 container-xs">

让我们最好的故事!

报名参加现在的新让我们每天早晨故事发送到你的收件箱。

本通讯可能包含广告、交易或附属链接。订阅简报表明你同意我们使用条款隐私政策。你可以随时退订的时事通讯。beplay体育苹果下载


感谢报名!

你的预订已经确认。留意你的收件箱!

报名参加其他通讯beplay体育苹果下载

你会喜欢的个人故事

关于迈克尔菅直人

高级记者

2017年10月以来我一直与个人,涵盖了广泛的话题,包括消费电子、网络安全、社交媒体、网络、和游戏。在个人工作之前,我是一个外国记者在北京超过五年,覆盖在亚洲的科技项目。

迈克尔的阅读完整的生物

从迈克尔菅直人读取最新的

Baidu
map