我发现边肖的许多朋友都对如何避免因使用人工智能或缺乏人工智能而导致的不当行为的信息感兴趣。边肖整理了一些关于如何避免因使用AI或缺乏AI而导致的不当行为的相关信息,在此与大家分享。
拒绝基于人工智能的既定护理指南的建议以提供更个性化的药物的医生,如果他们的病人受伤,很可能会因渎职而被起诉。
当AI建议非标准治疗并导致患者预后不良时,情况也是如此。
JAMA中运行的分析的作者打破了使用人工智能的从业者在假设成为实际案例之前会考虑的场景。
W.密歇根大学的Nicholson Price II,JD,PhD和他们的同事指出,由于侵权法在本质上是保守的,“依靠医学AI偏离先前已知的注意标准很可能是一种责任辩护。医生拒绝AI建议应该负责。”
但是医生应该关注事态的发展,他们补充说,因为法律环境可能会迅速变化。
作者提供了医生现在应该采取的几项措施,以减少未来法律接触的风险,包括:
1.理解如何在实践中使用和解释AI算法。普莱斯和同事建议,在这个过程中,请考虑现有医疗AI的可能应用,以及你对算法建议的信心。
他们写道,“这是一个挑战,评估工具仍在开发中。”
同时,他们指出,在讨论责任和医疗AI时,医生可以发挥主要作用。
2.鼓励你的专业组织采取积极的措施来评估特定实践的算法。作者写道:“FDA进行的审查将提供一定的质量保证,但社会将处于有利地位,为评估人工智能产品和评估实施期间对个体患者的人工智能建议提供额外的指南。”
3.促进附属医院和卫生系统的高级管理层指导满足临床需求的AI部署。普莱斯和合著者写道:“在购买外部AI产品时,医生应该倡导采取安全措施,确保此类产品在购买前经过严格审查,就像其他新颖的医疗设备一样。”
4.请你的医疗事故保险公司详细说明其在实践中使用医疗人工智能的承保政策。作者:基于人工智能建议的护理是否与没有此类建议的护理相同,或者保险公司是否对这种做法有所不同?在实践中,更不透明的算法提供很少或不提供推理有什么不同吗?
他们写道:“总的来说,医生和他们的医院系统可能能够对保险范围做出改变,以更好地满足人工智能技术的未来需求。”
Price等人,随着AI进入医疗实践,医生“需要知道法律将如何为算法和从业者之间的交互所造成的伤害承担责任”。得出结论。"这些问题可能迟早会出现。"