人工智能的采用率在上升,但信心并未同步增长
人工智能正在让日常生活越来越难以回避。它出现在工作场所、消费工具中,并且在医疗场景中也日益普遍。但俄亥俄州立大学韦克斯纳医学中心委托的一项新调查表明,更高的可见度并不会自动带来更强的信任。根据原始报告,尽管人工智能的使用在增长,公众对医疗领域人工智能的信任却在下降。
这一矛盾揭示了医疗人工智能下一阶段的核心问题之一。挑战不再只是医疗系统能否部署这些工具,而是患者和更广泛的公众是否会相信,这些工具的使用是安全、适当且值得信赖的。
为什么信任下降在医疗领域更为重要
在医疗保健中,信任具有不同寻常的分量,因为其语境极其个人化。人们也许可以在购物、娱乐或办公软件中容忍算法建议,而不会投入太多情感。医疗保健则不同。这里涉及诊断、治疗决定、隐私,以及一种基本感受,即医生是在为患者的最佳利益行事。
正因如此,即便信心出现小幅下降也会产生影响。如果人们对医疗中的人工智能变得更加怀疑,其影响可能远远超出民意调查的范围。患者可能会犹豫是否接受人工智能支持的建议,质疑数字分诊或自动化指导的正当性,并且对数据如何被使用变得更加警惕。在一个依赖同意和公信力的行业中,信任不是边缘问题,而是运营环境的一部分。
这项调查结果还值得注意,因为它出现在人工智能常被描述为不可避免的时期。医院、初创公司和科技企业一直在快速推动人工智能,试图将其定位为提升效率、支持临床和推动系统整体现代化的工具。但部署上的不可避免,并不意味着公众接受上的不可避免。
可见度可能带来更多审视
即使采用率上升,信任仍可能下降的一个原因是,熟悉并不总能带来安心。有时它反而会带来担忧。随着人工智能在医生诊所和医疗系统中的存在感不断增强,公众就有更多理由提出尖锐问题:这个工具到底在做什么?如果它出错,谁来负责?它是在辅助医生判断,还是在悄然取代医生判断?
所提供的报告并未给出调查回应的详细拆分,但其表述很有启示性。报告将人工智能描述为已经出现在工作、家庭和医疗场景中,而标题式结论则是,公众对其在医疗中的使用信任正在下降。这表明存在一个“存在”与“合法性”之间的差距。人们可能越来越频繁地接触人工智能,但仍未被说服其在护理场景中的使用是有益的,或者受到了妥善控制。
这是技术采用中常见的模式。每当一项技术从抽象承诺走向现实决策,公众怀疑往往就会增加。在医疗领域,这种转变尤其敏感,因为公众期待高标准的证据、监督和人类责任。
医疗人工智能周边的沟通问题
医疗机构也可能正面临一项沟通挑战。人工智能可以被作为一项技术升级引入,但患者往往会用人的标准来评估它。他们想知道它是否改变了护理质量,是否影响临床人员的角色,以及它是否会负责任地处理敏感信息。
如果这些问题得不到回答,信任可能在患者直接遭遇伤害之前就已经流失。换句话说,怀疑并不需要一次戏剧性的失败。它可能源于不透明、夸大,或者一种印象,即机构推进的速度超过了公众原本准备授权的程度。
这项调查的表述恰恰指向了这样的氛围。人工智能正在扩散。人们知道这一点。但仅仅被看见,并不会自动带来信心。这应当给那些过于强调能力、却没有充分重视可解释性、治理和面向患者的清晰沟通的医疗系统敲响警钟。
这一发现对医院和临床医生意味着什么
对于医院和临床医生来说,实际教训是,技术部署不能与社会接受割裂开来。某个工具也许能改善工作流程或提供决策支持,但如果患者不信任其使用场景,它的价值就会受到限制。当人工智能涉及诊断、沟通、文书记录或治疗规划时,这一点尤其如此。
最终,临床医生可能需要承担大部分向患者解释这些系统的责任。即使某个工具是在别处研发或采购的,医生诊室往往是人们最直接面对其使用的地方。如果信任正在下降,一线专业人员可能需要花更多时间解释人工智能何时被使用、它扮演什么角色,以及人类判断仍然在哪里居于核心位置。
与此同时,机构可能需要重新调整他们谈论人工智能的方式。关于转型和效率的营销语言,可能与患者真正想听到的内容脱节。在医疗领域,更可信的信息或许应该更聚焦:系统做什么、不做什么、谁仍然负责,以及患者利益如何受到保护。
医疗人工智能合法性的关键时刻
这项由俄亥俄州立大学韦克斯纳医学中心委托的调查并不能最终决定人工智能在医疗中的长期未来,但它确实指出了一条裂缝。采用和信任并不同步。公众可能看见更多人工智能,同时对它在医疗中的位置感到更不确定。
这很重要,因为医疗人工智能的下一章节将同样依赖合法性与性能,而不仅仅是性能。工具可以很快被部署,信心却需要更长时间建立。而一旦失去,重建它比事先宣称它更难。
如果医疗系统希望人工智能成为日常护理的一部分,就必须把信任视为需要赢得的东西,而不是可以理所当然拥有的东西。当前调查结果表明,这项工作正变得更加紧迫。人工智能也许已经在房间里了。更难的问题是,公众是否愿意在目前提供的条件下让它留在那里。
本文基于 Medical Xpress 的报道。阅读原文。



