从训练到推理,谷歌TPU助力AI规模化落地:云业务能否挑战AWS和Azure?

谷歌推出第七代TPU:AI推理时代来临,Google Cloud能否借机迎头赶上?
Alphabet(NASDAQ: GOOG)(NASDAQ: GOOGL)旗下Google多年来一直在自主设计人工智能(AI)加速器,其Tensor Processing Units(TPU)现已进入第七代。与Nvidia的通用GPU不同,谷歌TPU是专为AI工作负载打造的应用专用集成电路(ASIC),针对AI训练与推理进行优化。
谷歌于周四宣布,其第七代TPU——Ironwood,将在未来几周向Google Cloud客户提供。同时,公司还透露,其基于Arm架构的Axion虚拟机实例目前处于预览阶段,能够显著提升每美元计算性能。通过这些新型云产品,谷歌旨在降低AI推理和智能代理AI工作负载的成本。
推理时代的到来
Ironwood TPU不仅能处理AI训练任务(需大量数据训练模型),还非常适合高并发的AI推理工作负载。谷歌博客指出:“Ironwood相比TPU v5p峰值性能提升10倍,与TPU v6e(Trillium)相比,训练和推理每颗芯片性能提升超过4倍,使其成为我们迄今最强大、最节能的定制芯片。”
尽管新AI模型仍需训练,但谷歌观察到,行业重心正逐步向AI推理倾斜。AI推理指使用训练好的AI模型生成结果,相较训练而言,计算需求较低,但对响应速度和高并发处理能力要求极高。
谷歌将这一趋势称为“推理时代”,企业将更多关注如何将训练好的AI模型应用于实际任务。当前的热门概念“智能代理AI(Agentic AI)”本质上就是一系列AI推理任务。随着AI应用的增加,计算需求预计将呈近指数级增长。
对于AI公司如Anthropic而言,高效计算至关重要。Anthropic近期签署协议,将扩大对谷歌TPU在训练与推理方面的使用。根据协议,Anthropic可使用多达100万颗TPU,助力其在2028年实现营收700亿美元并实现现金流正向。谷歌新TPU的高效能很可能是推动合作的重要因素。
支撑Google Cloud增长
长期以来,谷歌云业务在规模上落后于Microsoft Azure和Amazon Web Services,但AI或可帮助其迎头赶上。微软和亚马逊也在积极扩展AI计算能力,并自行设计定制AI芯片。虽然Google Cloud体量较小,但增长迅速,逐步缩小与AWS的差距。
第三季度,Google Cloud收入达到152亿美元,同比增长34%,运营收入为36亿美元,对应运营利润率约24%。同期,AWS收入同比增长20%,达到330亿美元;微软Azure及其他云服务收入同比增长40%。
随着更多企业从AI实验转向部署大规模AI工作负载,对AI推理能力的需求激增,谷歌凭借其庞大的TPU阵容有望受益。经过十年的研发积累,谷歌在AI计算能力方面具备潜在优势,为其在云计算领域赢得竞争优势提供了条件。
谷歌在AI硬件与云服务的持续投入,预示着未来Google Cloud有机会在AI推理浪潮中迎来加速增长期。
原创文章,作者:美股投资,如若转载,请注明出处:https://www.meigu.app/google-cloud.html