Google以机器学习加速灾区建筑物损害评估

为了加速灾害评估的速度,Google开发了使用卷积神经网络处理卫星图像,检测建筑物损坏范围的方法,以机器学习自动比对卫星资料,产生灾区建筑物损害评估。这项研究是Google与世界粮食计划局的创新加速器合作开发,目的是要加速灾害评估,对受灾严重的地区,提供即时救难资源。

Google提到,诸如地震、风灾和洪水等自然灾害,严重时影响的面积将非常广阔,甚至可能对数百万人造成冲击,而这对于后勤救援是个很大的挑战,政府、非政府和联合国等组织,都需要对灾情进行快速评估,以优化配置有限的资源。

现在有不少工具,能够使救灾评估更快速,像是分辨率高达30厘米的超高分辨率(VHR)卫星图像,便成为应对灾难的重要工具,让救灾单位可以掌握灾区状况,包括灾害可能大幅改变灾区地形,也能查看基础设施和人口等状态。

不过要从原始卫星图像中,查看倒塌的建筑物、出现裂缝的桥梁以及临时避难所等地点,仍需要大量的人力,Google举例,当2010年海地发生地震,分析人员对太子港地区卫星图像,以人工检查9万栋建筑物,并以5个等级分类这些建筑物的损坏程度,就花了数周的时间,但是灾难发生后黄金救难时间,却只有48到72小时,这个时候最需要即时的灾区评估信息。

Google使用机器学习技术来加速灾害评估,自动损害评估的过程有两个步骤,其一是建筑物侦测,其二则是损害分类。在建筑物侦测步骤,Google使用物体侦测模型,在卫星图像中对每个建筑物搭建包围盒(Bounding Box),并且截取灾害前与后的图像,之后以分类模型来决定建筑物受损与否。

分类模型由卷积神经网络组成,在卷积神经网络输入以给定建筑物为中心,灾难发生前后的两张图像,图像大小为161乘161像素,对应50平方米的占地面积。分类模型会分类两个图像的差异,并输出0.0到1.0的分数,数值接近0.0代表建筑物未损坏,接近1.0则代表建筑物已损坏,Google提到,阈值设为0.5可用来预测损坏与否,但仍可依据敏感度调整。

对于不同时所拍摄的卫星图像,可能出现亮度、对比度和色彩饱和度等差异,Google对灾难前后的图像颜色,进行直方图均衡化校正,并使用标准资料增强技术,通过在训练过程干扰图像的对比度和饱和度,使模型对颜色差异更具强健性。

Google提到,这项工作最困难的部分在于收集训练资料,因为有用到高分辨率卫星图像的灾难并不多,而且有做灾难评估的次数又更少。在标签资料上,Google取用自人道组织UNOSAT与REACH手动产生的损害评估资料,并使用Google地球引擎将损害评估标签,与卫星图像相结合,以产生最终的训练资料。

Google将这个系统分别用于评估2010年海地地震、2017年墨西哥城地震以及2018年印尼所发生的一系列地震,并把UNOSAT和REACH的人类专家评估作为基准真相,评估系统的准确度,结果显示该系统表现良好,3个事件的预测精准度都在70%到80%间。

目前的模型使用同地区的建筑物图像进行训练和测试,虽然效果很好,但是最终的系统是希望只靠一个模型,便可以用在世界各地发生的灾难,对当地建筑物进行评估,Google表示,这相当具有挑战性,因为要评估的不仅是训练资料地区的建筑物,但可用的训练资料,又仅限于少数几个地区的灾难,因此扩展模型可以处理的范围,将是研究人员接下来的工作。