微软开发能判别deepfake图片及内容变造的技术

微软昨(1)日宣布deepfake图片分析技术Video Authenticator,以及能够识别媒体内容是否经过人为变造的工具,分享给新闻媒体使用。

现今以AI制造假视频、假新闻影响大众越来越泛滥,微软赞助的普林斯顿大学研究显示,2013到2019年在社交网站进行的假新闻宣传,针对美国者占26%最大宗,但台湾、德国、法国、沙特阿拉伯、巴西等国也是目标国家。

为了打击假新闻以及防止假新闻干扰美国总统大选,微软发展了两种技术。首先,针对deepfake,包括以人工智能(AI)变造出以假乱真的照片、声音和图片,微软宣布Microsoft Video Authenticator,可即时分析静态照片或视频,并提供变造的几率或信心分数。微软客户安全暨信赖方案副总裁Tom Burt和科学长Eric Horvitz指出,这项技术原理是侦测视频及照片中,图片合成时肉眼看不到的边缘接合痕迹,以及细微的糊化或灰阶元素来判定是否为合成视频/照片。

Microsoft Video Authenticator技术最初是由微软研究院协同微软责任AI(Responsible AI)、微软工程与研究AI、伦理与效果(AI, Ethics and Effects in Engineering and Research,AETHER)委员会共同开发。利用义、德大学合作的Face Forensic++公开资料集开发而成,并以脸书及微软合作的DeepFake识别技术挑战赛搜集的10万则视频验证。

另外微软也指出,现今几乎没有工具可帮读者判断线上内容来源是否可信赖,内容是否经过变造,因此也同步宣布一组侦测媒体内容变造的工具。

这项工具是由微软研究院、Azure部门与捍卫民主计划(Defending Democracy Program)开发而成。它包含两个部分。一是内置于Azure中,可让内容制作人生产机制媒体内容时,于某个部分加入数字散列及凭证,这东西可变成内容metadata的一部分,即使发送也会带着走。第二部分则是一个读取器,可以实例成浏览器插件,或其他形式。它能检查凭证及比对散列值,让接收者可确定内容的真实性、不是变造出来的,还能查看关于内容生产机制者的信息。

微软表示已和旧金山的AI基金会合作,用于后者防范假新闻干扰大选为宗旨的Reality Defender 2020计划,将Video Authenticator提供给相关单位使用以识别deepfake视频,像是竞选团队和新闻记者。

至于侦测媒体内容真伪的工具,微软也将用于英国公共电视BBC七月宣布的Project Origin中,将供BBC、加拿大CBC/Radio-Canada、及纽约时报使用,并测试工具的效果。而包含华盛顿邮报、美联社的信赖新闻计划(Trusted News Initiative)也会加入使用。微软表示接下来会再扩大,把更多科技、媒体及社交平台企业拉进这项打击假新闻的计划。

微软也宣布和USA Today、华盛顿大学、识别deepfake的工具商Sensity等单位合作,提供识别deepfake图片及假新闻的媒体素养教育内容、游戏等。另外,微软也提供Edge插件NewsGuard,后者针对新闻网站是否包含假新闻提供灯号,所有标准浏览器都可免费下载其插件。