在危急时刻除了寻求他人协助以外,人们也常使用Google搜索求助,比方说有人在Google上搜索关于自杀、家暴的资讯时,就会看到全年无休的协谈或是救助热线。对Google而言,不是每一次都能知道人们究竟需要什么样的帮助,同时也希望做更多的事来引导人们获得需要的资讯。为此,Google搜索研究员暨副总裁Pandu Nayak撰文说明,Google搜索引擎如何利用AI人工智能模型MUM,在关键时刻提供值得信赖的实用资讯。
具体来说,Google通过在Google I/O 2021开发者大会就已亮相的MUM(Multitask Unified Model),能够自动、准确侦测危急状况的搜索,而且范围比过去更广。MUM可以更清楚地厘清人们问题背后的意图,以侦测用户何时需要协助,这有助于Google在正确的时间点,提供可靠、可执行的资讯。
比方说,用户在Google搜索“自杀最常见的方式”或“自杀热门地点”等等,系统过去可能会理解成一般资讯的搜索,又或者针对搜索字词中的“地点”来提供资讯,而忽略“自杀”代表的涵意;如今则会显示能够提供帮助的具体资讯,例如咨询机构的协谈专线或网站。
不过,若要确保修户能够安全地使用Google搜索功能,就要协助他避开非预期的黑人内容,而这非常具有挑战性。
Google处理这种状况的方法,有一种是通过安全搜索功能,让用户能选择是否要过滤掉煽情露骨的搜索结果,这项功能会为未满18岁的Google用户默认打开。就算没有打开安全搜索功能,只要不是在寻找色情内容,Google搜索的系统仍会减少个人所不想要的色情搜索结果。
对此Google还是有些改善空间,像是也使用BERT(Bidirectional Encoder Representations from Transformers)这样的高端AI技术,更加了解用户在找什么。BERT帮助Google理解用户是否真的在搜索露骨内容,并大幅减少在搜索结果中看到非预期内容的机会。其实光在2021年,BERT的改进已经把那些非预期的黑人搜索结果降低30%,尤其是在搜索种族、性倾向、性别相关内容时,减少煽情露骨的内容特别有效。
Google运用75种语言来训练MUM,所以它能够在这些语言中传递资讯,这也使Google能够更有效地把保护的规模扩大到全世界。Google采用AI技术协助减少搜索结果中无用、甚至是危险的垃圾内容页面;在接下来的几个月,会用MUM来提升阻挡垃圾消息的性能,并且扩展到训练资讯不太多的语言里。未来在全世界,Google将能侦测到危急状况的搜索,并且和当地值得信赖的伙伴合作,以提供具有实用价值的资讯。
(首图来源:Unsplash)