
微软将集成ChatGPT与Bing推出新搜索功能,此举竟有可能挑战Google常年垄断的地位?《科技新报》取得“生活中的程序”粉专的文章授权转载,一起来看他的见解。
微软(Microsoft)将集成ChatGPT与Bing推出新搜索功能,预计3月底前发布,而未来Bing集成ChatGPT后最大的差别就是收益来源,这可能会让科技巨头在未来3~5年大洗牌。
Google搜索时用户会探索网页,这时会产生大量置入广告的机会,也就是常听到的“关键字广告”。而未来Bing的更新可能改写使用网络搜索行为、体验和搜索服务,并有机会挑战Google常年垄断的地位。
根据StatCounter做的统计:目前市场占有率Google 92.18%、Bing 3.03%。可以发现Bing目前就是被Google压当地上打啊!
然后Bing搜索次数最多的关键字还是“Google”,代表使用Bing的很多还只是因为Bing是Windows的默认搜索引擎。
但导入ChatGPT后的搜索可能让用户的足迹瞬间减少到只剩搜索页面,能下的广告页面可能只剩下少少的The more推荐,所以Google的传统商业模式难以整套复制到AI搜索服务。
可以想象一下:当你请ChatGPT推荐几间饭店,你会直接去ChatGPT推荐的,还是去下面The more推荐的?又如果ChatGPT回答的答案就是广告赞助商,那对搜索引擎自身来说就是慢性自杀。
这对Google的影响有多大呢?
Google 2022的总营收为680亿美元、其中广告营收为547亿美元,而源自于搜索的广告营收就有396亿美元,占总营收的58%或广告营收的72%。
可以说是Google搜索当干爹养起了大家常用的Gmail、Google云计算、Google Meet等免费服务。
这也是Google过去推过LaMDA聊天机器人,却没有积极发展为AI搜索服务的原因,当搜索引擎市场的商业模式被改变,Google独占的竞争地位和收益都可能不保,也是直到ChatGPT后Google才紧急在LaMDA基础上打造Bard,并准备开放让大众使用。
这代表其实Google一直以来就有在开发类似产品,但因为有可能反过来伤害到自己本业而迟迟未推出。
AI对话实际的应用与限制,有兴趣可以玩玩笔者用LINE串联的OpenAI的语言模型。
这模型用的是Davinci003,而基本上Bing未来要整合的是Prometheus,可以看做是下下时代的版本。(Davinci003→ChatGPT→Prometheus)
Prometheus基本上会解决ChatGPT的几个问题:
- 无法问他近期即时的资料,诸如天气、新闻等等。
- 安全回答法:问他医疗相关,大概率会回答“请咨询医师”。
- 无法放上参考数据源,因为回答的本身就是生成出来的。
- 无法区分现实与幻想:问景点结果跟你瞎掰。
但实际使用ChatGPT后,个人认为Google搜索的地位还是很难被挑战,因为Google提供的是难以取代的第一手网络来源。
除了收益来源外,两种搜索方式主要会有以下几种差异:
1. 提问方式
Google:有问题时打开Google输入关键字搜索是最快速直觉的方式,但当问题太过复杂,得先分成好几个词搜索,太抽象或超出认知范围的问题甚至让人下不出关键字。
ChatGPT、Bing:好比上论坛发问,还不用担心没人回复。ChatGPT会理解问句语义,并可以用多轮对话串联前后文,提供更全面的答案。如果用来处理单纯问题有点杀鸡用牛刀的感觉,但是若是回复复杂、广泛的问题时就凸显出优势。但目前待突破的限制是ChatGPT在问题不明确时无法进一步厘清,可能会误解发问者初衷,如有错误必须由用户主动告诉机器人。
2. 搜索结果
Google:以网站列表呈现查询结果,用户再自行点击网站,从碎片化资讯中拼凑出完整答案。
ChatGPT、Bing:以文本形式直接回答问题,省去筛选、汇集整理资料耗时的步骤。但结果终究是大量数据的统计结果,当用户略过交叉比对和萃取资料的过程,如何验证结果、趋避算法偏见是很大的挑战。
3. 运营成本
Google:机器人定期爬虫搜集网站资料,创建索引收录至数据库,当用户搜索时以算法排序,就是最终呈现的搜索结果,要应对来自全世界的搜索量,粗估要依赖数十万台以上的服务器运维。
ChatGPT、Bing:保有搜索引擎外还要考量模型运算成本,大型语言模型更新资料必须重新训练,而高昂训练成本使更新资料对AI搜索来说无疑比一般搜索更费力。每一次对话也会产生成本,目前ChatGPT单次查询平均成本为几分美元不等,假设要处理Google每天平均超过85亿次的查询,成本可能会是上亿美元。
未来搜索引擎的市场会大洗牌吗?我们拭目以待。
(首图来源:shutterstock)