BJP综述:AI依赖与医学的去技能化风险 | 专家视角
2026-01-14


人工智能(AI)正越来越多地被应用于医疗实践,以完成此前由医生完成的任务,如就诊记录、治疗方案和出院小结。随着AI成为医疗护理的常规组成部分,医生们对其越来越信任,并依赖其临床建议。然而令人担忧的是,部分医生——尤其是年轻且缺乏经验的医生——会过度依赖AI。


过度依赖AI可能会降低临床推理和决策的质量,对医患沟通产生负面影响,并增加医学领域去技能化(deskilling)的风险。随着AI成为医疗行为的常规环节,医生必须认识到AI工具的局限性;这些工具可以辅助完成基础的行政任务,但无法取代医生独有的人际交往与推理能力。


图片

一项1月8日在线发表于《英国精神医学杂志》(Br J Psychiatry.)的专题文章中,作者讨论了临床因日益依赖AI而导致的医学去技能化的风险。



AI的发展


多种因素促进了医学领域AI技术的飞速发展。此类工具被用于弥补因人力短缺而出现的缺口,并缩短了收集相关信息的时间。然而,对患者的临床理解通常是经过多次就诊而建立的,包括非语言信号、体格检查、整体表现、肢体语言以及口头语言。AI技术以远超人类的速度运行,在极少需要人类努力或技能的情况下提供服务并解决任务,从而导致广泛的医学去技能化。


AI的使用无法取代医患关系中人性化的一面。当患者信息可以在没有人类互动的情况下被获取和共享时,医生的沟通技巧可能会减弱。在常规医疗护理中采用AI需要对不同经验层级的员工进行培训。AI可用于医学院教育,以协助教学临床决策,包括对罕见病症的模拟。然而一些人认为,该技术无法复制临床医生必须识别出的疾病表现中的微妙差别。随着时间的推移,很多临床人员将不再具备训练AI自动化所需要的技能经验。



对AI的过度依赖


去技能化指失去执行特定任务或工作的知识、决策能力和自主权。去技能化可发生在应用新技术之后,在医学领域可能导致临床知识减少以及对临床决策信心的下降;医务人员花费大量的时间舒适地使用AI产品和工具,却不了解这些工具是如何运作的。


然而,对AI成功执行任务的高度信心可能会降低工作人员的批判性思维,削弱解决问题的能力,并将精力转向信息核实。为确保AI输出的可靠性,此类核实工作仍需员工投入精力,包括与外部来源进行对比,并运用自身已具备的知识。经验较少的医生可能尤其依赖AI,不加质疑地接受其决定。如果没有针对结果的解读和整合以及识别异常情况的培训,工作人员可能意识不到AI在常规和特殊情况下的挑战与风险。


仅需较少技能即可完成任务时,技术层面的故障可能会导致严重的工作中断或效率低下,从而损害医疗表现。在医学等高度注重安全的关键领域,引入AI将导致新的、无法预见的安全风险,包括新的故障路径。


基于该技术的应用通常被描述为具有「拉平效应」,对新手的帮助大于专家。除了人类的技能和经验水平,AI产品的设计,及其在整体工作流程中的实施,也会影响医学去技能化以及受影响的人员范围。



使用AI的其他风险


对于那些在引入AI之前缺乏任务完成经验的年轻医生而言,AI产品相关的风险以及去技能化的挑战可能更大,并随着劳动力的新老交替而日益增加。此外,即便医生此次是独立完成任务而没有依赖技术辅助,在这一过程中,他们仍可能会使用过去来自AI决策支持系统的存在偏倚的建议。


一些用户赋予自动化工具的权威高于其他推荐来源。这种对技术的过度依赖被称为「自动化偏倚」(automation bias),在包括临床诊断、电子处方和心电图解读在内的多个医学领域均有报道。还有人担心,如果访谈技巧等基础任务由AI执行,医生可能无法在同等程度上培养高级技能。随着越来越多的认知任务转向计算机来源,认识到技术的局限性至关重要。如果操作者错误地认为技术可以解决任何问题,他们可能会停止学习程序性知识。正如从航空业吸取的教训,这种错误信念在危机时刻尤为令人担忧,因为此时技术解决方案不可用,需要人类解决问题的技能来化解灾难。


频繁使用便捷的AI工具可能通过「认知卸载」对批判性思维能力产生负面影响。「认知卸载」指利用身体行动、外部工具或资源来减少执行任务时的认知负荷的过程。AI工具允许个人使用技术管理复杂信息,使他们能够更有效地分配心理资源,但这可能会减少对深度、反思性思维的参与。



使用AI系统的挑战


AI产品的性能水平与训练数据密切相关。医疗AI应用中使用的训练数据面临很多五花八门的挑战,包括数据缺失、不准确、编码错误、偏倚和冗余。随着时间的推移,训练数据可能无法反映当前的实践标准和治疗方法。必须认识到,需要对这些产品进行持续的数据质量改进和监控。


关于医生对技术的依赖(包括AI)在多大程度上导致了去技能化,目前尚存分歧。过度依赖AI技术会降低医疗决策和临床推理的质量,并对医患沟通产生负面影响。医生可能会优先考虑与技术的互动,而非与患者的沟通。随着时间推移和AI使用的增加(如病理学领域),人们担心将没有足够的医生能够推动该领域的发展,并培训下一代医生。伴随这些工具性能的不断提高,预计人类会将更多的决策外包给技术。医生可能意识不到,随着对AI依赖的增加,技能的退化可能会迅速开始。


需要开展更多研究,以调查哪些任务适合在医学中使用AI工具,以及如何最好地设计和实施以患者为中心的协作方法。关键在于,使用AI工具不应对医患关系产生负面影响。此外还有人担心,随着技术使用的增加,一些医生可能会觉得自己的技能和知识价值降低,导致职业满意度下降。然而,拓展AI工具在行政和文书任务中的使用可能会增加临床工作的实际可用时间。



局限性


大多数商业算法(包括AI)都有专利,而这所带来的影响并未在文中讨论。本文也没有探讨与该技术相关的技能提升问题;例如,AI工具可能会提高初级员工的工作效率,如医疗记录的编码工作。此外,文中省略了与这些产品相关的医疗检测保险问题,以及与AI相关的医疗过失问题。鉴于减轻技术带来去技能化的影响有其复杂性,且取决于具体的应用场景,本文未对其策略进行讨论。有关患者隐私的问题,以及与AI产品不断变化的特性相关的监管、技术和问责等复杂考量,也未纳入其中。最后,包括数据投毒和AI训练数据损坏在内的网络安全问题也被省略了。



结论


AI工具在医学领域的应用日益广泛且常规化。随着这项技术成为医疗行为的常规部分,医生必须认识到AI工具的局限性,并继续依靠和增长自身的知识、经验及临床技能。AI工具可以辅助完成医学中的基础行政任务,但无法取代医生独特的人际交往和推理能力。医生必须防止去技能化,并学习如何最好地在临床工作中使用AI工具。


警惕AI对精神科论文写作的隐秘影响 | 专家视角

2026-01-06

图片

文献索引:Monteith S, Glenn T, Geddes JR, et al. Artificial intelligence and deskilling in medicine. Br J Psychiatry. 2026 Jan 8:1-3. doi: 10.1192/bjp.2025.10496. Epub ahead of print. PMID: 41502298.


点击「阅读原文」可查看及检索历史文章。









声明:本平台旨在为医疗卫生专业人士传递更多医学信息。本平台发布的内容,不能以任何方式取代专业的医疗指导,也不应被视为诊疗建议。如该等信息被用于了解医学信息以外的目的,本平台不承担相关责任。本平台对发布的内容,并不代表同意其描述和观点。若涉及版权问题,烦请权利人与我们联系,我们将尽快处理。


图片

(本网站所有内容,凡注明来源为“医脉通”,版权均归医脉通所有,未经授权,任何媒体、网站或个人不得转载,否则将追究法律责任,授权转载时须注明“来源:医脉通”。本网注明来源为其他媒体的内容为转载,转载仅作观点分享,版权归原作者所有,如有侵犯版权,请及时联系我们。)

0
收藏 分享