随着ChatGPT爆红,微软、Google,中国百度等相继宣布重大改革搜索引擎,试图将大型人工智能模型集成至搜索引擎,给用户更丰富准确的体验。但新计划问世后的兴奋,可能藏着令人难堪的秘密。
外媒指出,构建高性能人工智能搜索引擎的竞赛,需要运算能力大幅提升,后果就是科技公司能源用量和碳排放大幅增加。英国萨里大学 (University of Surrey) 1团队分析,有大量资源用于索引和搜索网络,接下来人工智能集成需要不同能力,也就是集成运算性能、存储和高性能搜索。每当线上运算处理步骤变化,就会看到大型处理中心电力和冷却资源显著增加。预估搜索引擎集成人工智能后也会走上这条路。
团队强调训练大型语言模型 (LLMs) 必须解析和运算连接大量资料,就是为什么往往由拥有大量资源的企业开发。微软必提供动力给ChatGPT,还有Google支持聊天机器人Bard等。西班牙科鲁尼亚大学 (University of Coruña) 团队也指出,训练模型需要大量运算能力,只有大型科技公司才能负担。
尽管OpenAI和Google都没有透露产品运算成本,但第三方分析估计,ChatGPT部分依赖GPT-3模型,训练需消耗1,287兆瓦时电力,产生550多吨二氧化碳当量,相当于一个人往返纽约和旧金山550次。这数字看起来没有很糟,但考虑到人工智能不仅要训练,将来还要执行数百万用户要求的工作。
如果把ChatGPT当成独立产品,与集成到应用有很大不同。瑞银估计,ChatGPT日均独立用户为1,300万,此基础下必要应用每天处理5亿次搜索。加拿大数据中心公司QScale联合创办人Martin Bouchard表示,根据他对微软和Google搜索的了解,搜索引擎加入人工智能,需每次搜索至少增加4~5倍计算量。
国际能源局资料显示,数据中心温室气体排放量已达全球排放量1%左右,即便搜索引擎企业承诺减少排放,但随着云计算需求增长,这数字只会上升。微软承诺到2050年实现零碳排,2023年购买150万吨碳权。Google则承诺到2030年整个业务和价值链实现零碳排。
对科技大厂来说,减少人工智能集成到搜索引擎产生的碳足迹和能源成本,方法之一就是将数据中心转用更清洁的能源,并重新设计神经网络,更高效以减少推断时间,也就是强划算法运算能力。Google发言人Jane Park表示,Google聊天机器人Bard最初版为轻量级大型语言模型,还发布研究介绍最先进语言模型的能源成本,包括早期和更大型的LaMDA,结果说明高效模型、处理器和数据中心与清洁能源结合,可将机器学习系统碳足迹减少千倍。
(首图来源:shutterstock)