Meta发布四款全新AI芯片,与英伟达、AMD竞争升级

admin 4 0

  Meta(META)推出四款全新 AI 芯片,隶属于其自研的 Meta 训练与推理加速器(MTIA)系列。这家社交媒体巨头希望同时采用英伟达(NVDA)、AMD(AMD)的商用 GPU 以及自研芯片,既满足自身 AI 算力需求,也避免过度依赖单一供应商。

  这四款芯片分别为 MTIA 300、MTIA 400、MTIA 450 和 MTIA 500,分别针对 Meta AI 业务的不同环节设计,包括排序与推荐(R&R)模型,直至高端推理场景。

  MTIA 400 面向生成式 AI 与推荐排序任务,据 Meta 介绍,它可以在单个服务器机架中部署72 颗芯片协同工作,与英伟达 NVL72 或 AMD Helios 机架方案思路相似。

  Meta 称,MTIA 400 是该公司首款兼具成本优势且 “原始性能可与主流商用产品抗衡” 的芯片。公司并未明确指出具体对标哪些产品,但与 MTIA 400 定位相近的主流商用芯片仅有英伟达和 AMD。

  值得注意的是,Meta 近期已与这两家公司分别签署多年、多代芯片供货协议。

  MTIA 450 处理器在 MTIA 400 基础上进一步升级,配备速度更快的高带宽内存;而 MTIA 500 则进一步增加内存容量并提升速度。

  Meta 表示,部分芯片已投入使用,其余型号计划在2026 年或 2027 年部署。对公司而言重要的是,这些芯片共用一套基础架构,升级时可直接替换。

  并非只有 Meta 一家在使用自研处理器支撑 AI 业务。谷歌、亚马逊多年来一直使用自研芯片训练和运行 AI 模型,微软也推出了新款 Maia 200 处理器。

  谷歌和亚马逊还向 Anthropic 等公司出租自研芯片,用于运行 AI 模型。另有媒体近期报道,谷歌与 Meta 已签署数十亿美元协议,Meta 将使用谷歌的处理器。

  这一系列动向对英伟达和 AMD 均构成潜在压力。在最近一次财报中,英伟达 CFO 科莱特・克雷斯提到,公司数据中心业务收入中 ** 略超 50%** 来自超大规模云厂商。

  不过她也指出,收入增长同样来自其他客户群体。

  超大规模云厂商在 AI 数据中心和第三方芯片上的投入暂无放缓迹象。仅 2026 年,亚马逊、谷歌、Meta 和微软计划合计投入 6500 亿美元资本开支,其中绝大部分将投向 AI 领域。

抱歉,评论功能暂时关闭!