
美国国防部下属的“国防高等研究计划局(Defence Advanced Research Projects Agency, DARPA)”在2020年8月于西雅图郊区进行了一项实验,同时使用数十架由AI操纵的空中和地面无人机,在数栋大楼内进行恐怖份子搜索演习。
同时出动这么多数量的无人机,很难由人类去关注每一架机器的决策和行动。所以演习时,AI机群的任务就是自行搜索,必要时使用配备的寻标器“格杀”找到的恐怖份子。
像这样的演习近年来频率越来越高,由于反恐战场及未来战争中,会有越来越多人类来不及做判断的复杂情况。因此美军希望通过类似测试,验证AI技术是否能够代替人类做出快速且精准的判断。
测试中的轮型机器人(Source:视频截屏)
美国陆军未来司令部(US Army Future Command, AFC)司令John Murray上将指出,现今无人机使用的数量跟频率都越来越高,这迫使政府、社会和军事专家必须思考,人类将来真的有办法在操作大量无人机作战时,一下子做出上百个复杂决策吗?另外,若真的使用AI代替人类进行任务时,是否一定要由人类监控?毕竟人类判断速度比AI慢太多,反而会降低AI进行任务的效率。
实验证明AI自己来比人类强
DARPA负责这项演习的主任Timothy Chung就表示,去年8月的演习中,也包括测试人类无人机驾驶,究竟该不该在AI执行任务时介入决策。但演习过程证明,AI靠自己决定,表现比人类介入时好很多,因为人类在队伍遭受多面攻击时,反应和决策速度都比AI慢很多,导致不必要的损失。
因此,越来越多的美军指挥官开始建议,应该让AI有更多发挥空间。例如美国空军上周召开的AI讨论会议中,空军AI任务研究主任Michael Kanna就指出,未来AI与人类的任务应该要分工,由人类进行高端决策,AI则协助人类在战场上进行繁琐的判断,就如同巡弋导弹一样,由人类决定要不要发射,和规定攻击目标与范围,而导弹到了目标区后可自行搜索目标攻击。
巡弋导弹事实上已具备AI武器的性质,可自行飞到目标区后搜索并摧毁目标(Source:United States Navy, Public domain, via Wikimedia Commons)
AI武器对人类的未来仍是个未知数
但美国对于是否应该放手让AI在战场上自行决策仍然争论不定,虽然国会组成的“AI国安委员会(National Security Commission on Artificial Intelligence, NSCAI)”在本月刚发布了一项调查,表示美国民意大多数反对国际间对于AI武器的禁令。但仍然有许多专家反对研发AI武器。
麻省理工学院教授Max Tegmark即表示,AI武器应该要跟核生化武器一样受到严格的规范,否则美国总有一天会后悔,可能比当年送塔利班武器打苏联的后果还要难堪。
AI机器人未来究竟会变成星球大战的R2-D2,还是终结者的T-800,还需要人类更多的研究和讨论。
(首图来源:视频截屏)