欧盟独立专家组织High Level Expert Group(HLEG)周四警告欧盟应小心人工智能(AI)滥用带来危险后果,主张禁止以AI执行社会监控、创建社会信用评分,并要求加入AI自我披露身份,减少AI太过像人而对人类社会带来的冲击。
HLEG是由AI产业专家、公民权代表、法律专家及政策顾问等组成的顾问团,旨在为欧洲议会提供相关AI立法的建言,确保发展以人为中心的社会秩序。HLEG针对欧盟创建可信赖AI(Trustworthy AI)发布政策与投资建议。
报告提及,AI可以提供侦测识别差异行为、侵犯隐私的内容及侦测污染源等应用,达到保护公共机构、私有部门、个人与环境的目的,但是如果未能善用,AI系统可能造成反效果,如歧视、侵害隐私、隔离少数群体或环境恶化,为此应对AI采取一定限制。
这项建言主要是因应AI技术已经出现的问题。包括对AI取代人类工作甚至取代真人交互、布设“天网系统”以摄影机监视人们生活一举一动,创建社会信用系统作为控制手段。此外,Google的Duplex发展出几如真人无二致的对话能力,也令人不寒而栗。
HLEGA主张AI不得用于过大比例及大规模的个人监控,也禁止以AI创建大规模的个人评分。以商业为目的而对个人及社会进行的监控也必须限制,像是所谓“免费服务”也必须严格确保遵守个人隐私等权利。随着数字设备及大数据应用的快速扩张,应当采取措施解决国家/企业和个人之间的权力不平衡问题。
此外,基于AI拟人化能力越来越强,HLEGA也呼吁雇主不得在提供人类重新训练情况下发展AI工具,致使其剥夺人类工作机会、应强制为AI系统加入自我披露机制,以免未来AI系统和人类交互时,人类还以为自己是和一个真人说话。同时,也主张立法单位不得赋给AI系统或机器人在法律上的人格权。
另一方面,AI时代也会驱动数据管理需求。欧盟预估,为了发展AI,全世界产生的数据量将以61%的年复合增长率增加,到2025年增长到现今的4倍。因应巨量数据时代,HLEGA建议打破现有各国互相分离(siloed)的系统,创建欧盟公用的AI数据平台,集成数据治理、加注、存储、网络、分析软件及数据集,设立以AI为基础、可信赖的数据分享基础架构,并鼓励产业发展数据共享的技术。不过这一切都必须在符合法规的前提下进行,因此HLEGA也呼吁欧盟实例GDRP的隐私保护机制,并引入以FRAND(公平、合理、无歧视)原则的数据访问规范,并且要求厂商之间的数据兼容性。