研究人员发布工具以避免艺术作品遭到AI模仿

一边有科学家极力搜集广大的资讯以供AI模型学习并仿效,另一边则有研究人员打造机制来防堵AI模型的模仿,芝加哥大学的随机分析和非线性动力学实验室(SAND Lab)与专业艺术社群合作,于上周六(3/18)发布了Glaze Beta2,艺术家只要在上传作品至网络之前,利用Glaze将作品稍加变更,就能避免AI模型剽窃其作品概念与风格,进而生成类似的作品。

在与SAND Lab合作的超过1,100名艺术家中,最有名的莫过于概念性艺术家/插画家Karla Ortiz,她经常替作者设计封面、插画,或协助玩具制造商打造新图腾。

若Ortiz在上传作品至网络之前使用了Glaze,它就能变更原始作品元素,肉眼很难识别这些变更,因此在网络增至起来与原作几乎一模一样,不过,SAND Lab将这些变更称为“风格伪装”(Style Cloak),可把于网络上流传的Ortiz作品变成“伪装艺术品”(Cloaked Artwork),以免遭到AI模型的剽窃,而且艺术家还可以指定所要伪装的风格。

例如Ortiz可指定将自己作品的风格伪装成梵高(Vincent van Gogh),即便作品在网络增至起来与Ortiz的原作一样,却会使AI模型将其风格误认为梵高,搜集与学习该作品的AI模型所生成的就是梵高风格的作品,而非Ortiz。

图片来源/SAND Lab

Glaze Beta2目前最大的限制在于它并非可永远对抗AI的模仿,进展快速的AI技术很可能于未来绕过Glaze,但SAND Lab团队认为Glaze是必要的第一步,而且可在必要的技术及法令出炉前先行保护艺术家。

SAND Lab团队表示,Glaze仅用于研究目的,并不打算商业化,发布的当下就能供外界免费下载及使用。Glaze Beta2支持Windows 10/11 ,以及基于英特尔或M1/M2处理器的macOS。