谷歌正在寻求规模较小的CSP来托管TPU

谷歌正在寻求规模较小的CSP来托管TPU
【谷歌正在寻求规模较小的CSP来托管TPU】
谷歌已与至少一家云服务提供商达成协议 , 将在纽约的数据中心部署其 TPU 。
据The Information援引消息人士称 , 谷歌最近与主要租赁 NVIDIA 芯片的小型云服务提供商接洽 , 敦促他们在其数据中心也部署 NVIDIA 的 AI 处理器 。 报道指出 , 此举的目的可能是鼓励用户采用谷歌的 TPU , 这可能会使谷歌与 NVIDIA 展开更直接的竞争 。
报道指出 , 有消息称 , 谷歌已与至少一家云服务提供商(总部位于伦敦的 Fluidstack)达成协议 , 将在纽约的数据中心部署其 TPU 。 谷歌的行动远不止 Fluidstack 。 据报道 , 谷歌还与其他专注于 NVIDIA 的服务提供商寻求类似的交易 , 包括 Crusoe(正在为 OpenAI 构建一个满载 NVIDIA 芯片的数据中心)和 CoreWeave(将 NVIDIA 硬件租赁给微软 , 并与 OpenAI 签订了供应合同) 。
报告强调 , 谷歌瞄准的公司主要是严重依赖 NVIDIA 芯片的新兴云服务提供商 。 为了赢得这些云服务提供商的支持 , 谷歌据称已向 Fluidstack 提供激励措施 , 以支持其 TPU 的扩张 。 报告指出 , 如果 Fluidstack 无法支付其在纽约新数据中心的租金 , 谷歌将提供高达 32 亿美元的“后盾” 。
谷歌的TPU战略:从内部需求到外部增长谷歌推进自主 AI 芯片的步伐已持续一段时间 。 正如报道所强调的 , 消息人士称 , 该公司已考虑加大 TPU 业务的投入 , 以提升收入并减少对 NVIDIA 芯片的依赖 。
谷歌的TPU和AI业务正在蓬勃发展 。 谷歌的TPU业务及其AI研究部门DeepMind的估值可能高达9000亿美元 。 报告指出 , 2024年12月发布的第六代Trillium TPU需求旺盛 。 报告还指出 , 预计谷歌首款专为大规模推理设计的第七代Ironwood TPU的需求也将增长 。
据 The Information 指出 , 谷歌主要将 TPU 用于其自身的 AI 项目 , 例如 Gemini 模型 , 近年来内部需求激增 。 据报道 , 该公司长期以来还通过谷歌云向外部公司出租 TPU , 包括苹果和 Midjourney 。
研究机构Omdia估计 , 谷歌去年在TPU上的资金投入大概在60亿至90亿美元 , 如此巨大的投入也凸显了TPU对于谷歌AI战略的重要性 。
今年全球最大的英伟达人工智能芯片客户之一OpenAI , 也宣布开始租用谷歌的 AI 芯片来驱动 ChatGPT 等产品 , 据知情人士透露 , 这是该公司首次大规模采用非英伟达芯片 。
这一举措反映出OpenAI 正逐步减少对微软数据中心的依赖 , 同时可能推动谷歌的张量处理单元(TPU)作为更廉价替代方案 , 挑战主导 AI 芯片市场的英伟达图形处理单元(GPU) 。
该协议也表明 , 谷歌长期在几乎所有与AI 相关的软硬件领域开发技术或业务的战略可能正在奏效 。 这位知情人士表示 , OpenAI 希望通过租用谷歌云的 TPU 来降低推理计算成本——该术语指在 AI 完全开发完成后在服务器上运行的过程 。
OpenAI 的计算需求正快速增长:ChatGPT 的付费订阅用户可能已超过 2500 万 , 较年初的 1500 万大幅增长 , 每周还有数亿用户免费使用该服务 。
OpenAI 主要通过微软和甲骨文租用英伟达服务器芯片 , 用于模型开发训练及支持 ChatGPT 运行 。 去年 OpenAI 为此类服务器支出超 40 亿美元 , 训练与推理各占近半 , 预计 2025 年 AI 芯片服务器支出将达近 140 亿美元 。
据谷歌云员工透露 , 虽然谷歌在AI 模型开发领域与 OpenAI 激烈竞争 , 但并未向对手出租其最强性能的 TPU 芯片 。 这表明谷歌目前优先将高端 TPU 留给自家 AI 团队开发 Gemini 模型 。 目前也不清楚 OpenAI 是否有意采用 TPU 进行 AI 训练 。
近期 , 媒体还报道谷歌准备携手联发科开发下一代张量处理单元(TPU) , 对于联发科而言 , 与谷歌合作开发TPU芯片 , 有助于其进一步提升在AI芯片领域的技术水平和市场份额 。 借助谷歌在AI领域的强大技术和市场影响力 , 联发科能够更好地将自身的芯片技术应用到实际的AI场景中 , 积累更多的技术经验和市场反馈 。 与英伟达的合作则为联发科打开了AI超级电脑这一高端市场的大门 , 提升了其在高性能计算领域的知名度和竞争力 。
对于谷歌来说 , 与联发科的合作是其多元化供应链战略的一部分 。 通过引入联发科 , 谷歌可以降低对单一供应商的依赖 , 提高供应链的稳定性和灵活性 。 同时 , 联发科在成本方面的优势也有助于谷歌在保证芯片性能的前提下 , 降低整体的采购成本 。
而对于整个AI产业而言 , 联发科的积极参与将带来更多的创新和竞争 。 更多的芯片制造商进入AI领域 , 将推动芯片技术的不断进步 , 为AI应用的发展提供更强大的算力支持 。 不同厂商之间的合作与竞争 , 也将促使产业生态更加完善 , 加速AI技术在各个领域的普及和应用 。
*声明:本文系原作者创作 。 文章内容系其个人观点 , 我方转载仅为分享与讨论 , 不代表我方赞成或认同 , 如有异议 , 请联系后台 。
想要获取半导体产业的前沿洞见、技术速递、趋势解析 , 关注我们!

    推荐阅读