C114门户论坛百科APPEN| 举报 切换到宽版

亚星游戏官网

 找回密码
 注册

只需一步,快速开始

短信验证,便捷登录

搜索

军衔等级:

亚星游戏官网-yaxin222  大元帅

注册:2007-12-101953
发表于 2025-6-13 10:39:38 |显示全部楼层

当地时间6月12日消息,在圣何塞举办的“Advancing AI 2025”年度峰会上,AMD首席实行官苏姿丰(Lisa Su)公布了企业的全栈AI解决方案,把AI算力竞赛推向了新的高度。会上,她与OpenAI首席实行官山姆・奥特曼(Sam Altman)共同宣布,OpenAI将采用AMD的MI300X和MI400系列芯片,以支撑其大模型的训练和推理工作。


01.新产品矩阵展示高性能


AMD推出了Instinct MI350系列,基于3纳米CDNA 4架构,集成1850亿晶体管,搭载288GB HBM3E内存(带宽8TB/s),首次支撑FP4/FP6低精度计算,单卡即可运行5200亿参数大模型。


MI350系列的核心是CDNA 4架构,采用了模块化小芯片与3D封装技术:利用8个台积电N3P制程XCD计算模块与2个N6制程IOD模块进行3D混合键合封装,集群间通过5.5TB/s Infinity Fabric高速互联,单模块CU计算单元达256个,内存读取带宽每瓦性能较上一代提升30%。该架构特别增强了矩阵引擎,专为Transformer架构设计,FP4/FP6低精度计算能效比提升50%,适配大语言模型轻量化部署需求。


性能方面,液冷版MI355X较上一代MI300X推理性能提升了35 倍,FP6算力达20PFLOPS,较英伟达B200提升2.2 倍;在Llama 3.1 405B模型测试中,内容生成速度是MI300X的2.9倍,且每美金 Token产出量比B200高40%。该系列针对不同场景优化了设计:MI350X专注风冷(功耗 1000W),MI355X追求液冷极致性能(功耗 1400W),并支撑8卡集群扩展至2.3TB HBM3E内存,FP16算力达 40.2PFLOPS。


甲骨文、戴尔、思科等合作伙伴已基于MI350系列开发整机系统,预计从今年第三季度起陆续交付。其中甲骨文计划部署包含超13.1 万颗MI355X芯片的大型集群。


02.未来线路图更清晰


AMD预告将于2026年量产的MI400系列。这款下一代产品计划采用432GB HBM4内存(带宽19.6TB/s),FP4算力达40PFLOPS,较MI355X提升超10倍。它将支撑名为 “Helios”的机架级系统,单机架FP4算力预计可达2.9EFLOPS。


Helios机架级方案将有望重新定义数据中心的算力密度。该系统集成MI400 GPU、Zen 6架构EPYC CPU和Pensando Vulcano网卡,单机架可支撑128 颗GPU,内存带宽高达1.4PB/s,较传统架构节省95% 能耗。


03.软硬兼施,试图打破英伟达生态壁垒


为打破英伟达CUDA的生态壁垒,AMD同步发布了ROCm 7App栈,优化了PyTorch/TensorFlow兼容性,并新增了自动混合精度训练工具。


在网络方面,AMD推出了Pensando Pollara 400 NIC网卡,支撑 100Gbps高速互联,旨在与GPU/CPU形成“计算——网络——存储”一体化方案。


04.关于AI的畅想


苏姿丰在峰会上修正并上调了市场预测,认为2028年AI处理器市场规模将远超5000亿美金。她指出,推理芯片赛道的年复合增长率(CAGR)预计将超过80%,成为主要驱动力,原因在于大模型规模化落地催生了强劲的推理需求爆发,以及边缘AI与终端设备对低功耗推理芯片需求的指数级增长。


AMD正通过收购与合作双轨策略加速生态建设。过去一年,该企业收购了25家AI相关企业,并与xAI、Cohere等7家头部AI企业达成合作。在能效方面,AMD宣称实现了“30x25”目标,即较2020年节点能效提升 38倍。一套由4颗MI355X GPU和1颗EPYC CPU组成的系统能耗为传统方案的3%。AMD设定了2030年目标:机架级能效再提升20倍,单机架完成当前275个机架的训练任务。


AMD数据中心GPU总经理安德鲁・迪克曼透露,MI355X的购置成本较英伟达同类产品低两位数百分比,且功耗更具优势,整体拥有成本(TCO)可节省超30%。尽管当前市占率不足10%,苏姿丰表示:"开放架构+性价比组合,将重塑AI算力市场格局。”


从单卡性能的显著超越到机架级生态系统的构建,AMD正以硬件创新加开源App的双轨策略,向英伟达的AI芯片发起挑战。随着OpenAI、Meta等核心巨头的加入与深度合作,这场AI算力战争已从单纯的技术比拼升级为决定未来的生态决战。


05.奥特曼称AI技术跃迁远超预期‌


OpenAI首席实行官奥特曼指出,人工智能在过去一年已实现质的飞跃,从实验室的创新概念迅速转变为规模化、实用的生产力工具。与此同时,这波实用化浪潮正对全球算力基础设施构成前所未有的巨大压力。


他强调,AI的应用在过去一年呈现“爆炸式增长”。“模型性能已经足够出色,使得人们能够构建真正伟大的产品——涵盖文本、图像、语音乃至各种复杂的推理能力,”奥特曼特别提到,企业级市场对AI的采用迅猛发展,编程辅助领域就是一个典型例子。“大家反复听到的反馈是,这些工具已经从新奇有趣的事物,变成了个人生活和工作中真正‘有用’的存在。”奥特曼认为,如今用户能够直接指令系统“自主完成工作”的能力,标志着一次革命性的转变。


然而,模型的快速部署及其日益增长的复杂性,正给基础设施带来严峻考验。奥特曼指出,尤其是转向“长链推理模型”(涉及长时间思考、生成更优答案或复杂报告)的趋势,对系统的效率和资源提出了极高要求。“这给模型效率和漫长的推理过程带来了巨大压力。大家需要海量的内存和海量的CPU。”他坦言,OpenAI过去一年的基础设施扩张规模“极其疯狂”,未来一年的预测也同样惊人。这种由推理场景爆发式增长带来的压力,正在深刻地重塑整个算力生态的技术路径和解决方案。


回顾AI发展历程,奥特曼感慨技术跃迁速度远超预期。“在 2020 年代初,大家几乎还没有真正意义上的现代AI。虽然存在其他一些系统,但那仍属于GPT - 3的早期阶段。”他对比道,“如今,仅仅过去五年(相当于十年的中途),大家从远不及人类的GPT - 3,发展到了GPT - 4.5 级别——这些模型已经能让人感觉足够聪明和有用,提供真实的实用价值体验。”奥特曼举例说,“若在 2020 年预言‘五年内将出现能与你对话、聪明如人、并能实际工作的系统’,这在那时几乎是不可想象的。”


对于技术进步的可持续性,奥特曼承认自己的认知经历了转变。“几年前,对于能否在未来五年维持同样的进步速度,我其实并不确定。大家需要新的研究突破来支撑。”但现在,他对此充满信心:“新研究正在不断解锁新的可能性。”他展望未来,这些系统将在科学发现、复杂社会治理等人类此前难以想象的领域发挥巨大价值,释放难以估量的潜力。


奥特曼的阐述清晰地揭示了AI产业化进程面临的核心现实挑战——即爆炸性增长的推理需求,同时也勾勒出技术变革的宏大前景。当推理需求成为驱动行业的新引擎时,围绕算力生态的竞争与创新必将进入一个更加激烈的爆发期。



举报本楼

本帖有 2 个回帖,您需要登录后才能浏览 登录 | 注册
您需要登录后才可以回帖 登录 | 注册 |

版规|手机版|C114 ( 沪ICP备12002291号-1 )|联系大家 |网站地图  

GMT+8, 2025-6-15 20:02 , Processed in 0.217490 second(s), 16 queries , Gzip On.

Copyright © 1999-2023 C114 All Rights Reserved

Discuz Licensed

回顶部
XML 地图 | Sitemap 地图