AMD苏姿丰:AI十年繁荣期,今年才是第二年

AMD苏姿丰:AI十年繁荣期,今年才是第二年

文章图片


本文由半导体产业纵横(ID:ICVIEWS)综合
未来三到四年 , 人工智能数据中心加速器市场规模预计将膨胀至 5000 亿美元 。

9月17日 , AMD 首席执行官苏姿丰在华盛顿特区举行的 Axios AI+ 峰会上表示 , 我们才刚刚进入人工智能快速发展和基础设施建设“十年大周期”的第二年 。
AMD对这一切抱有更大的期望 , 并认为我们甚至无法想象五年后人工智能将带来的进步 。 此外 , 苏姿丰还表示人工智能是她漫长的科技生涯中“最具变革性”的技术 , 甚至可能是我们一生中“最具变革性”的技术 。 美国必须“跑得快 , 跑得更快” , 才能保持在人工智能技术领域的领先地位 。
未来三到四年 , 人工智能数据中心加速器市场规模预计将膨胀至 5000 亿美元 。 “不久前 , 整个半导体行业的规模还只有 5000 亿美元 。 所以你可以看到它加速的速度和步伐 , ”她说道 。
2025年第一季度 , 全球数据中心资本支出实现了显著增长 , 年同比增幅高达53% , 达到1340亿美元 , 成为引领信息技术基础设施发展的重要现象 。 这一增长主要得益于生成式人工智能技术的飞速发展 , 推动了GPU需求的激增 , 特别是Nvidia Blackwell系列GPU和定制加速器的广泛应用 。 作为现代数据处理的核心 , GPU的供应和需求状况直接影响着数据中心的运营效率和扩展能力 。
近年来 , 随着人工智能算法对计算力要求的不断提升 , 传统CPU的处理能力难以满足需求 , GPU以其并行计算优势成为数据中心升级和扩容的首选硬件 。 AWS、Google、Meta和微软这四大拥有最大云端市场份额的企业 , 在第一季度的资本支出中贡献了44%的资金 。 他们大举扩展人工智能云基础设施 , 促进了更高速、更智能的计算资源部署 。
此外 , 企业级基础设施建设也占据了约三分之一的投资份额 , 尽管部分企业因预算紧缩和关税风险调整了资本支出计划 。 尽管个别美国产云服务提供商取消了一些项目 , 但整体资本支出依然保持增长 。 数据中心和云基础设施的巨头正在灵活调整容量以应对市场需求 , 而非大幅削减投资 。 这一策略体现了对长期增长潜力的坚定信心 。 生成式AI的兴起极大激发了数据中心建设的热潮 , 推动云服务提供商争分夺秒地提升算力以满足客户需求 。 亚马逊2025年第一季度资本支出达到243亿美元 , 主要用于扩展AWS的AI云基础设施 。
微软和谷歌紧随其后 , 分别投入214亿美元和170亿美元 。
在此前的采访中 , 苏姿丰曾表示MI300X GPU加速器是自2023年推出以来 , AMD增长最快的产品线之一 。 MI300X具有高达192GB的内存 , 集成了1530亿个晶体管 , 其强大的计算能力和内存使得该芯片能够支持训练如OpenAI的ChatGPT等大语言模型 。 这一产品标志着AMD正在人工智能芯片市场上快速崛起 , 未来将有实力挑战长期主导该市场的Nvidia 。
今年6月 , AMD在美国圣何塞举办的Advancing AI 2025大会上 , 正式发布了全新一代“Instinct MI350系列”GPU , 包括MI350X和MI355X两款型号 。 这两款GPU在性能和技术特性上取得了重大突破 , 为AI计算领域带来了新的活力 。
【AMD苏姿丰:AI十年繁荣期,今年才是第二年】MI350系列基于第四代Instinct架构(CDNA4) , 采用3nm制程工艺 , 集成了高达1850亿个晶体管 。 两款GPU均配备288GB的HBM3E内存 , 内存带宽达8TB每秒 , 内存容量是英伟达B200和GB200GPU的1.6倍 。 在算力方面 , MI350X和MI355X在FP64精度下的算力分别为72和78.6TFLOPs , 约为英伟达同类产品的两倍 。 在低精度格式(如FP16、FP8和FP4)上 , MI350系列的性能与英伟达相当或更优 。 其中 , MI355X在FP4精度下 , 相比英伟达B200 , 大模型推理速度快30% , 在训练推理性能方面也相当或更胜一筹 。 同时 , 得益于芯片功耗低于英伟达 , 在MI355X上每花费1美元 , 可以比B200多跑40%的tokens 。
在核心设计相同的基础上 , MI350X和MI355X针对不同散热方式设计 。 MI350X采用风冷 , 最高TBP为1000W;MI355X采用液冷 , TBP达到1400W , 更高的TBP使得MI355X性能高于同架构的MI350X 。
为了更好地配合MI350系列 , AMD发布了全新的ROCm7软件栈 。 相比ROCm6 , ROCm7实现了3.5倍的推理性能提升和3倍的训练性能提升 , 还引入了分布式推理支持 , 并与VLM和SGLang等开源推理框架深度集成 , 支持超过180万个Hugging Face模型开箱即用 。
AMD在发布会上还公布了未来产品路线图 。 下一代GPU——MI400系列将于明年亮相 , 该系列由AMD和OpenAI联合研发 , OpenAI为其训练和推理需求提供了重要反馈 。 MI400系列将采用下一代CDNA架构 , 预计速度比MI300系列快10倍 , FP4运行速度将达到40PFLOPs 。 此外 , AMD计划在2027年推出MI500系列GPU , 同时还将推出代号为Verano的下一代EPYC处理器 , 进一步丰富其产品布局 , 提升在AI计算市场的竞争力 。
*声明:本文系原作者创作 。 文章内容系其个人观点 , 我方转载仅为分享与讨论 , 不代表我方赞成或认同 , 如有异议 , 请联系后台 。
想要获取半导体产业的前沿洞见、技术速递、趋势解析 , 关注我们!

    推荐阅读