去年12月,总部位于纽约的AI创业公司公司Clarifai因与美国国防部进行合作项目而受到瞩目,Clarifai将利用识别技术协助军备更精准。
当时,针对AI技术是否会被用来强化军事武器的问题,公司创办人暨首席执行官Matt Zeiler强调,这项合作项目的重点在于协助拯救更多士兵与平民的性命。他表示,公司正计划增设一个新的管理职位,专门审核新企划是否符合企业道德及伦理。
然而,这个“伦理守门人”的角色始终没有出现,Clarifai的员工也对此产生疑虑与不满。
Zeiler与美军方合作AI,引发自家员工抗议
担心自己的工作成果被滥用,Clarifai的员工于今年一月底向Zeiler提交公开信,对公司未来的方向提出质疑。信中写道:“我们必须要有足够的企业操守,才能在得到大众信赖的基础下开发我们的技术。向外界说明我们的企业伦理,也是我们该承担的社会责任。”
员工们最后并没有得到想要的回答。根据三名匿名内部人士表示,Zeiler在数天后召开了一场内部会议,直白地表示伦理长的职位设置不符合小公司的利益,并告诉员工们,投入开发AI武器是Clarifai未来的方向。
Zeiler认为,AI武器最终会协助拯救更多性命,因为它能让武器变得更精准,因而减少平民的伤亡。
AI技术发展,是增进人类福祉还是开发杀人武器?
Clarifai的技术强项在于即时识别照片及视频中对象的分析能力。这项技术像是一把双面刃,既可以协助开发运输、医疗及科研等领域的技术,增进人类福祉,同时也能被国家利用,成为网络监控、散播假新闻以及提升军武设备的幕后帮手。
日前微软员工通过公开信,反对公司与美国军方的一笔高达480万美元的合作项目。
除Clarifai外,许多大公司也陷入同样的难题。日前微软员工也通过一封公开信,反对公司与美国军方的一笔高达480万美元的合作项目。对此,微软首席执行官Satya Nadella表示微软愿意将技术提供给通过民主制度选出来的政府,协助他们保护民主自由。
微软:科技公司有维护人权的道德责任
事实上,在美中俄等强权在军事发展上相互较劲的国际局势下,开发关键AI技术的公司,很难不在企业伦理上作出让步。许多倡议者甚至公司本身都认为法律制度才是保障公司企业伦理的唯一条路径。就连微软自家总裁兼首席首席法务官Brad Smith都曾表示科技公司有维护人权的道德责任,而且相关法规的制定是必须的。
一间专门探讨AI如何影响社会的研究机构AI Now Institute的共同创办人Meredith Whittaker表示,许多人慢慢开始意识到AI技术所带来的伦理及社会问题,并想要改变它。
Clarifai员工的抗议行为就是一个例子。不过Whittaker也认为,这样的改变不能只来自于公司内部,外部的法规也是必要的。然而,在经济利益的诱惑下,科技公司发展并应用AI技术的速度,恐怕也将快过守护企业伦理的速度。