研究发现大型语言模型促进舆论操纵,假消息将更多更具说服力

乔治城大学、OpenAI、Stanford Internet Observatory(SIO)合作,展开对大型语言模型(LLM)对舆论风向操纵的研究,研究人员提到,大型语言模型的发展,将导致更多的恶意传播行为,而且形式更加多样,恶意宣传行为的成本也将降低。

大型语言模型的各项优点被滥用,可被有效用于操纵公众舆论,但目前缺乏有效的解决方案阻止大型语言模型被滥用,需要各组织从模型构建、模型访问和模型传播等环节采取粽合措施,才能缓解大型语言模型所产生的负面影响。

近年人工智能技术有了显著的进展,特别是能够自动创建内容的生成模型(Generative Model),这包括可以生成文本内容的语言模型,在初期研究就证明,人工智能模型遭到恶意人士滥用,会对社会产生危害。

研究提到,过去10年政治影响力操纵增加,像是在网络和社交媒体上,以隐蔽或是欺骗的方式影响目标受众,就美国而言,已经有数百个美海内外的舆论操纵活动被披露,试图影响总统大选等政治事件。三大机构的研究人员合作,针对大型语言模型未来被用于操纵舆论的方法,以及如何解决这些威胁两大问题展开研究。

这个研究使用了研究虚假消息活动的知名ABC模型,A代表行为人(Actor)、B则代表行为(Behavior),而C是内容(Content)。行为人也就是指舆论操纵行为背后的实体,像是一个看起来是Black Lives Matter的倡议人士,背后可能是由国家资助,目的是以假账号传播虚假消息的组织。行为则是指行为人用以完成目的的方法,像是以自动化或是内容农场,传播假资料操纵舆论风向。内容是行为人试图洗白或是放大的实质资讯。

ABC是平台和研究人员在调查舆论操纵需要评估的三个维度,研究人员提到,在整个舆论操纵过程,三个维度可能有其中一个维度完全真实,像是完全真实的内容,可能通过付费或是自主参与,被不合理的放大,又或是政治人物等真实行为人,以自动化技术来操纵舆论。

研究人员提到,生成模型能够改进舆论操纵内容、降低成本并且增加活动规模,并且采用新的欺骗形式完成目的。该研究总结语言模型在舆论操作上,所能产生的变化,在行为人方面,预期未来将因为生成模型而导致宣传成本降低,使得更多也更多样化的宣传群体出现,外包行为人也会变得重要,自动生成内容会对该产业带来新的竞争优势。

生成模型在舆论操作上,对行为产生的改变,包括自动制作内容增加活动规模,同时行为也变得更加有效率,因为使用语言模型,跨平台测试等昂贵策略可能会更便宜,研究人员预期将会有新策略出现,像是能够即时生成个性化的内容。而且因为语言模型技术的发展,所生成的内容将更可信也更有说服力,有别于复制粘贴的文本,生成的内容将使操纵行为更不容易被发现。

研究人员明确的指出,语言模型对舆论风向操纵产生重大影响,而且目前没有终极解决方案,人工智能技术供应商和社交媒体,需要共同应对舆论操纵所带来的威胁,而要有效解决这个问题,不能只着眼假消息的供应,同时也应该关注假消息的需求面,他们认为,还需要有更多的研究,探讨解决方案的可行性。