推特要研究机器学习算法对用户产生的潜在伤害

推特披露目前在负责任机器学习(Responsible ML)领域的研究计划,这项工作由内部META(Ethics, Transparency and Accountability)团队进行,将研究包括图像剪裁,以及政治意识形态内容建议等机器学习算法,对用户带来的影响,并将这些影响反馈到系统中,避免算法对用户造成伤害。

负责任机器学习对推特来说,有几个重要的部分,包括他们会对算法负责、保证结果公平公正、提供算法选择,并且公开透明他们的决定,推特提到,对技术负责任,意味着要研究技术随着时间推进所带来的影响。推特的机器学习技术,每天可能影响着数亿条推文,而这些原本要提供帮忙的算法,有机会出现不可预期的行为,因此他们要研究这些变化,以适当地调整系统。

由于这项研究工作影响范围很广,推特认为,单靠技术解决方案并无法解决算法所带来的负面影响,因此负责任机器学习工作组是一个跨领域的团队,包含技术、研究、信任、安全和产品团队成员。主要领导该计划的是META团队,有专门的工程师、研究人员和资料科学家,以全公司范围的规模,评估算法对后续和当前所造成的伤害,并且找出推特必须优先解决的问题。

推特规划接下来几个月要研究的主题有3个,第一是研究图像剪裁算法的性别和种族偏见;第二是研究在各个种族分组中,用户时间轴建议的公平性;第三则是分析7个国家针对不同政治意识形态的内容建议。META团队会针对这些研究发现,改善用户在推特平台上的体验。

官方提到,他们可能会因此改变当前所提供的服务,像是可能删除剪裁算法,让用户对发布的图像有更多的控制权,或是当新标准对特定社群产生重大影响时,推特就会根据新标准设计系统或是制定政策。又或是这些研究并不一定会转化成可见的改变,而是在推特构建和应用机器学习技术的过程,增加认识或是促进讨论。

推特持续构建可解释机器学习解决方案,要让用户可以更主动地了解推特上的算法,像是算法的用处,或是算法以什么样的方式,影响用户在推特增至到的内容。而推特会公开他们的经验与最佳实践,促进产业对该主题的了解,并且与第三方学术研究人员紧密合作,以找出改善的方法。

推特提到,研究负责任机器学习是一个漫长的旅程,他们期望以开放的方法来研究,并且对技术伦理领域做出贡献。