亚马逊自研AI芯片Trainium2年营收达数十亿美元,Anthropic撑起半壁江山
在最新一届AWS re:Invent大会之后,亚马逊首席执行官安迪·贾西罕见地公开“晒出”自研AI芯片业务的成绩单:第二代训练芯片Trainium2如今已经成长为年营收达数十亿美元级别的板块,按当前汇率大致相当于数百亿元人民币,累计投产芯片超过100万颗,超过10万家企业在亚马逊云科技(AWS)的Bedrock平台上将其作为主要算力选择,这意味着在英伟达高端GPU几乎垄断AI算力市场的当下,亚马逊已经在自家云上培育出一个可观的替代方案。贾西强调,Trainium2受到欢迎的原因在于“价格性能优势”,不少大模型训练任务在保持性能的前提下,相比顶级GPU方案可以明显压低成本,这也为新一代Trainium3铺平了道路:这款采用3纳米工艺的AI芯片在官方测试中相较Trainium2综合性能提升约4倍、能效提升约4倍,通过Trn3 UltraServer单柜最多可集成144颗芯片,为大规模模型训练和推理提供更密集的算力集群。真正把这门生意推上“数十亿美元流水”台阶的,是大模型公司Anthropic:AWS推出的“雨岳计划”(Project Rainier)在美国多地数据中心部署,将近50万颗Trainium2芯片拉成一个超大算力集群,被AWS管理层形容为“校园级计算机”,Anthropic计划在此基础上把使用规模进一步扩展到约100万颗,用于训练和运行新一代Claude模型。与此同时,亚马逊一方面依靠自研芯片争夺AI算力订单,另一方面仍继续大量采购英伟达GPU来服务OpenAI等客户,自研与外购并行的策略让它既不完全脱离CUDA软件生态,又有机会凭借成本和灵活性从英伟达手中分走部分业务;下一代Trainium4还将通过NVLink Fusion等高速互连技术与英伟达GPU在同一系统中协同工作,未来这种“自家芯片+英伟达”的混合架构能在多大程度上重塑云端AI算力格局,既关乎亚马逊能否拿到更多大模型订单,也关系到英伟达在高端AI硬件上的统治力能否被真正削弱。
支持率>95%