很多文章的报道都是由微观而宏观,今日小编讲给大家带来的关于医疗保健AI的进步取决于AI开辟人员的透明度的资讯也不例外,希翼可以在一定的程度上开阔你们的视野!y有对医疗保健AI的进步取决于AI开辟人员的透明度这篇文章感兴趣的小伙伴可以一起来看看
如果大数据要发挥其推动现代医疗保健进展的潜力,那么医学AI的开辟人员必须情愿详细展示其工作,来自世界各地的25位左右的研究人员共同在《自然》杂志上发表了一篇文章。
作者写道:“以用于训练模型并获得其最终参数集的实际计算机代码形式的透明度对于研究可重复性至关重要。”作者强调说,科学方法中的后一步是必不可少的。
该团队针对这一广为宣传的2020年Google Health研究进行了讨论,该研究的作者认为,在某些情况下,他们的AI系统在乳房X线照片中发现癌症的能力可能优于经验丰富的放射科医生。
本《自然》杂志的作者指出,没有其他研究团队能够再现这些发现。他们指出,部分问题在于Google Health对许可数据集的依赖超出了大多数尝试复制Google Health结果的人的能力范围。
《自然》文章的签字人约翰·夸肯布什(John Quackenbush)博士在哈佛大学陈公共卫生学院公布的新闻中说,科学方法的基础是“研究结果必须可由其他人检验。在临床应用中,可测试性甚至更加重要,因为在将这些方法用于患者之前,我们需要对我们的方法具有高度的信心。”
Quackenbush是哈佛大学生物统计学系系主任,也是达纳-法伯癌症研究所的教授。他补充说:“在人工智能的应用中,这要求模型,软件代码和数据可用于独立验证。”“透明度将加快研究速度,提高患者护理水平,并在科学家和临床医生之间建立信心。”