人工智能在现今癌症治疗上,具有相当大的帮助,通过深度学习,系统可以快速分析肿瘤切片图片,提供医生有关癌症类型和治疗建议等重要信息,但美国芝加哥大学研究团队发现,如果深度学习算法没有适当调整,AI会做出偏颇的病理分析。
芝加哥大学(University of Chicago)研究团队,在本月的《自然-通信》(Nature Communication)期刊中发布研究指出,通过医疗图片学习的过程中,若没有对算法进行特别校正,AI就会以资料上传的地区、医学机构等信息自行归类,并使用归类资料进行比对分析,产生病理信息和治疗建议,但以这种方式而不是通过比较严谨的生理和病史信息进行分析,AI容易产生偏颇或不正确的分析和治疗建议。
研究团队在实验中,让AI系统通过美国国家癌症研究所(National Cancer Institute, NCI)与国家人类基因组研究所(National Human Genome Research Institute, NHGRI),共同合作的“癌症基因组图谱(The Cancer Genome Atlas, TCGA)”数据库内,大量的癌症组织切片图片进行深度学习,发现了AI这种通过算法习性,产生偏颇判断的问题。
主导研究团队的芝加哥大学医学系Alexander Pearson博士。 (Source:University of Chicago)
“我们在这项研究中发现了AI的盲点,由于需要快速分析,因此算法会合理的认为使用机构和区域分类,可以更有效归类文件,提高学习分析的效率。”芝加哥大学医学系Alexander Pearson博士指出,但AI用这种归类方式学习大量图片后,却会开始忽略病患个人的生理数据和病史资料,改以上传机构和地区之间的图片互相比对。
如此一来,医疗软硬件条件较好,或比较富裕区域内的病患切片样本,由于通常有比较多治疗选项,治愈几率也较高,因此AI容易对这些区域的样本提出比较乐观的病理分析和治疗方式,但是对于条件较差的机构或区域,产生的分析与建议就会比较差,等于将社会医疗资源的不平等反射出来。
AI在面对大量资料时也会尝试简化归类程序,产生盲点。 (Source:BDAN)
研究团队也表示,要避免出现这种盲点,系统开发者在训练AI学习时,必须确保各种类型的肿瘤切片图片,是平均来自各个地区与机构上传的资料,或是在学习过程出现判断偏颇时,将图片样本锁定在一个特定条件,避免AI自行产生归类和比对分析的习惯,才能产生比较准确的分析结果。
要如何避免AI出现“偷吃步”的情形,对于现代医学越来越依赖AI进行分析的状况下,显得格外重要,若是因为AI产生不准确的病理分析,导致医生判断失准,原本用来帮助人类健康的科技反而会成为病患生命的一大威胁。
(首图来源:Pixabay)