大摩:现阶段ChatGPT可放大工作效率,难取代人

聊天机器人“ChatGPT”这些基于人工智能(AI)的文本生成系统,目前仍有产生“幻觉”(hallucination)的疑虑,也就是创造非事实的内容。摩根士丹利(Morgan Stanley、通称大摩)预测,未来几年ChatGPT仍会偶尔幻想出错误答案。

Business Insider 23日报道,大摩由Shawn Kim带领的分析师团队22日发布研究报告指出,在需要高度精确的任务方面,ChatGPT仍偶尔会出现幻觉,生成看似具说服力、实际却是错误的答案。

报告称,“现在这个阶段,最好让受过高等教育的用户先行揪错,把生成式AI (Generative AI)应用程序当作放大劳动效率的方式,而非直接取而代之。”

由OpenAI开发的ChatGPT近来开放给全球人们使用后爆火,在促使AI类股飙涨的同时,也迎来批判的声浪。学者警告,ChatGPT等AI平台可能传播错误资讯。Kim认为,“未来几年,正确性会是需要持续面对的挑战”。

不过,报告称,AI平台偶有错误的问题或许有解,可将ChatGPT等大型语言模型(large language model, LLM)连接至特殊域名来确认特定资讯。

与此同时,ChatGPT等工具有望通过边缘运算大幅改善。Kim指出,若要让更多程序运用AI,则须在边缘设备运行,但这些设备内置的绘图处理器(GPU)通常性能能力不高。

所谓边缘运算是指靠近现实世界资料创造源的运算力。Kim表示,通过边缘运算执行AI,不但能降低延迟度(相较于云计算),也较不昂贵,还能保有隐私,并对消费者更加友善。

微软(Microsoft Corp.)2月展示支持AI的Bing搜索引擎beta测试版后,测试者很快就发现问题,Bing AI有时语带威胁、有时提供怪异且毫无帮助的建议,且打死不认错,甚至宣称爱上用户。测试者也发现,这款聊天机器人有一个名字为“Sydney”的隐藏人格(alternative personality)。

CNBC、Forbes 2月16日报道,部分AI专家早已警告,LLM会有幻觉等问题,也就是LLM可能会捏造事实。有些人担忧,高级的LLM可能让人类误以为他们有知觉,甚至鼓励人类伤害自己或他人。

(首图来源:pixabay)