为什么人工智能如此昂贵?
2024-07-05 12:06:33 EETOP超过18个月的生成式人工智能热潮后,一些最大的科技公司正在证明人工智能可以成为真正的收入驱动因素。但它也是一个巨大的钱坑。
微软公司和谷歌在最新季度业绩中报告了云计算收入的激增,因为企业客户在他们的AI服务上花费更多。尽管Meta在技术货币化方面稍显落后,但其AI努力帮助提升了用户参与度和广告定位。
为了实现这些早期收益,三家公司已经花费了数十亿美元来开发AI——并且计划进一步增加这些投资。
在4月25日,微软表示在最近一个季度的资本支出为140亿美元,预计这些成本将“大幅增加”,部分原因是AI基础设施投资。这比去年同期增加了79%。谷歌表示,在该季度花费了120亿美元,比去年同期增加了91%,并预计全年将保持或超过这一水平,专注于AI机会。与此同时,Meta提高了今年的投资预期,现在认为资本支出将在350亿至400亿美元之间,在高端将增长 42%。其理由是对AI研究和产品开发的积极投资。
人工智能成本的上升让一些投资者措手不及。尤其是 Meta 的股价,因支出预测以及销售增长低于预期而暴跌。但在科技行业内部,人工智能成本将会上升长期以来一直是一种信念。这有两个关键原因:人工智能模型只会越来越大,开发成本越来越高,而全球对人工智能服务的需求需要建立更多的数据中心来支持它。
正在尝试此类人工智能服务的企业可以花费数百万美元来定制OpenAI或Google的产品。一旦它们启动并运行,每当有人 ping 聊天机器人或要求 AI 服务分析销售数据时,都会产生额外的成本。但更昂贵的工作是为这些人工智能系统奠定基础。下面我们来看看这些努力。
当今最知名的人工智能产品,包括 OpenAI 的 ChatGPT,都是由大型语言模型提供支持的——这些系统被输入大量数据,包括书籍、文章和在线评论,以便对用户的查询做出最佳响应。许多领先的人工智能公司都认为,通往更复杂的人工智能的道路——甚至可能是在许多任务上胜过人类的人工智能系统——是让这些大型语言模型变得更大。
这需要获取更多的数据,更多的计算能力,以及更长时间的人工智能系统训练。在 4 月初的一次播客采访中,OpenAI 竞争对手 Anthropic 的首席执行官 Dario Amodei 表示,目前市场上的 AI 模型训练成本约为 1 亿美元。
“现在正在训练的模型以及今年晚些时候或明年初发布的模型成本接近10亿美元,”他说。“我认为在2025年和2026年,我们将更多地走向50亿或100亿美元。”
其中很大一部分成本与芯片有关。这些不是使英特尔公司出名的中央处理单元(CPU)或为数十亿智能手机提供动力的缩减版的移动处理器。为了训练大型语言模型,AI公司依赖于图形处理单元(GPU),这些单元可以以高速处理大量数据。这些芯片不仅供应紧张,而且价格极其昂贵,最先进的芯片主要由一家公司——英伟达公司制造。
英伟达(Nvidia)的H100图形芯片是训练AI模型的黄金标准,其售价估计为30,000美元,一些经销商的售价是该价格的数倍。大型科技公司需要大量的这种芯片。Meta首席执行官扎克伯格此前表示,他的公司计划在今年年底前购买350,000颗H100芯片,以支持其AI研究工作。即使他获得批量购买折扣,这也很容易达到数十亿美元。
公司可以在不购买实际芯片的情况下进行这项工作,但租用它们的费用也很高。比如,亚马逊公司的云部门将以每小时约6美元的价格向客户租用英特尔制造的大型主力处理器集群。相比之下,一组 Nvidia H100 芯片每小时的成本接近 100 美元。
上个月,英伟达推出了一种新处理器设计,名为Blackwell,这种处理器在处理大型语言模型方面的速度是现有型号的数倍,预计价格与包括H100在内的Hopper系列相似。英伟达表示,训练一个1.8万亿参数的AI模型大约需要2000个Blackwell GPU。据《纽约时报》提起的一宗关于OpenAI使用其文章训练AI系统的诉讼估算,这大约是GPT-4的大小。相比之下,英伟达表示,完成同样任务需要8000个Hopper GPU。但这种改进可能会被行业推动构建更大的人工智能模型所抵消。
购买这些芯片的公司需要有地方放置它们。Meta 与最大的云计算公司——亚马逊、Microsoft 和谷歌——以及其他租用算力提供商一起竞相建造新的服务器群。这些建筑往往是定制的。它们包含硬盘驱动器、处理器、冷却系统以及成堆的电气设备和备用发电机。
研究人员Dell'Oro Group估计,公司今年将花费2940亿美元建造和装备数据中心,高于2020年的1930亿美元。这种扩张很大程度上反映了数字服务的广泛增长——流媒体视频、企业数据的爆炸式增长、社交媒体提要。但是,越来越多的支出被指定用于昂贵的英伟达芯片和其他支持人工智能繁荣所需的专用硬件。
根据市场情报公司DC Byte的数据,全球目前有超过7,000个数据中心,包括处于不同发展阶段的设施,高于2015年的3,600个。这些设施也变得越来越大。根据 DC Byte 的数据,全球数据中心建筑的平均面积现在为 412,000 平方英尺,自 2010 年以来几乎增加了五倍。
虽然芯片和数据中心占据了成本的绝大部分,但一些AI公司还花费数百万美元从出版商处获取数据。
OpenAI已经与多家欧洲出版商达成协议,将他们的新闻内容纳入ChatGPT,并训练其AI模型。这些交易的财务条款尚未披露,但据彭博新闻此前报道,OpenAI同意支付数千万欧元给Axel Springer SE,这是一家德国出版商,拥有《Politico》和《Business Insider》。这家初创公司还与《时代周刊》、《CNN》和《福克斯新闻》就内容许可进行了谈判。
虽然OpenAI在获得许可交易方面更加积极,但大型科技公司也在寻找获取构建引人注目的人工智能工具所需的语言数据的方法。据路透社报道,谷歌已经达成了一项价值6000万美元的协议,从Reddit获得数据许可。据《纽约时报》报道,据报道,Meta 员工正在讨论收购图书出版商 Simon & Schuster。
科技公司也陷入了一场争夺人工智能人才的狂热战争中。去年,Netflix Inc.曾一度招聘AI产品经理一职,年薪高达90万美元。
微软在推动大型语言模型热潮方面做得最多,该公司最近表示将尝试不同的方法。该公司预告了三个计算密集度较低的小型AI模型。
微软表示,大型语言模型“仍然是解决许多复杂任务的黄金标准”,如“高级推理、数据分析和上下文理解”。但对于某些客户和用例,小型模型可能就足够了。其他公司,包括由两名前谷歌员工创立的初创公司Sakana AI,也专注于小型模型。
“你并不总是需要跑车,”Forrester Research专注于AI的高级分析师Rowan Curran说。“有时你需要的是小货车或皮卡。不会有一类模型适用于所有用例。”
然而,就目前而言,AI界的传统观点是,越大越好。这将是代价高昂的。