La adopción de la IA está aumentando, pero la confianza no
La inteligencia artificial se está volviendo cada vez más difícil de evitar en la vida cotidiana. Está apareciendo en los lugares de trabajo, en herramientas para consumidores y, cada vez más, en entornos médicos. Pero una nueva encuesta encargada por el Centro Médico Wexner de la Universidad Estatal de Ohio sugiere que una mayor visibilidad no está produciendo automáticamente una mayor confianza. Según el informe fuente, la confianza pública en la IA en la atención médica está disminuyendo incluso mientras crece el uso de la tecnología.
Esa tensión resume uno de los problemas centrales de la siguiente fase de la IA médica. El desafío ya no es solo si los sistemas de salud pueden desplegar estas herramientas. Es si los pacientes y el público en general creerán que se están utilizando de formas seguras, apropiadas y dignas de confianza.
Por qué la caída de la confianza importa más en medicina
La confianza tiene un peso inusual en la atención médica porque el contexto es extraordinariamente personal. Una persona puede tolerar sugerencias algorítmicas en compras, entretenimiento o software de oficina con poca inversión emocional. La atención médica es diferente. Lo que está en juego incluye el diagnóstico, las decisiones de tratamiento, la privacidad y la sensación básica de que un profesional clínico actúa en el mejor interés del paciente.
Por eso incluso una disminución modesta de la confianza puede importar. Si la gente se vuelve más escéptica sobre la IA en la atención médica, los efectos podrían extenderse mucho más allá de las encuestas de opinión pública. Los pacientes podrían dudar en aceptar recomendaciones apoyadas por IA, cuestionar la legitimidad del triaje digital o de la orientación automatizada y mostrarse más recelosos sobre cómo se usan sus datos. En un sector que depende del consentimiento y de la credibilidad, la confianza no es un asunto secundario. Es parte del entorno operativo.
El hallazgo de la encuesta también es notable porque llega en un período en el que la IA suele presentarse como inevitable. Los hospitales, las startups y las empresas tecnológicas se han estado moviendo con rapidez para posicionar la IA como una herramienta de eficiencia, apoyo clínico y modernización más amplia del sistema. Pero la inevitabilidad en el despliegue no significa inevitabilidad en la aceptación pública.
La visibilidad puede aumentar el escrutinio
Una razón por la que la confianza puede caer incluso cuando la adopción crece es que la familiaridad no siempre produce tranquilidad. A veces produce preocupación. A medida que la IA se vuelve más visible en los consultorios médicos y en los sistemas de salud, el público tiene más motivos para hacer preguntas difíciles: ¿qué hace exactamente la herramienta? ¿Quién responde si se equivoca? ¿Está apoyando el juicio de un médico o lo está sustituyendo discretamente?
El informe proporcionado no ofrece desgloses detallados de las respuestas de la encuesta, pero su enfoque es revelador. La IA se describe como presente en trabajos, hogares y entornos médicos, y la conclusión principal es que la confianza pública en su uso sanitario está disminuyendo. Eso sugiere una brecha entre presencia y legitimidad. La gente puede encontrarse cada vez más con la IA y, aun así, seguir sin convencerse de que su uso en la atención sea beneficioso o esté debidamente controlado.
Este es un patrón familiar en la adopción tecnológica. El escepticismo público suele crecer precisamente cuando una tecnología pasa de una promesa abstracta a la toma de decisiones en el mundo real. En medicina, esa transición es especialmente sensible porque el público espera altos estándares de evidencia, supervisión y responsabilidad humana.
El problema de comunicación en torno a la IA médica
Las organizaciones de salud también pueden estar enfrentando un desafío de comunicación. La IA puede introducirse como una mejora técnica, pero los pacientes tienden a evaluarla en términos humanos. Quieren saber si cambia la calidad de la atención, si afecta el papel de los profesionales clínicos y si maneja la información sensible de manera responsable.
Si esas preguntas quedan sin respuesta, la confianza puede erosionarse incluso antes de que un paciente experimente un daño directo. En otras palabras, el escepticismo no requiere un fracaso dramático. Puede surgir de la opacidad, de la exageración o de la impresión de que las instituciones avanzan más rápido de lo que el público estaba preparado para autorizar.
El encuadre de la encuesta apunta exactamente a ese tipo de ambiente. La IA se está expandiendo. La gente lo sabe. Pero el simple reconocimiento no está generando confianza. Eso debería ser una advertencia para los sistemas médicos que se han centrado mucho en la capacidad y no lo suficiente en la explicabilidad, la gobernanza y la claridad orientada al paciente.
Lo que indica este hallazgo para hospitales y médicos
Para hospitales y médicos, la lección práctica es que el despliegue técnico no puede separarse de la aceptación social. Una herramienta puede mejorar el flujo de trabajo o brindar apoyo a las decisiones, pero su valor se ve limitado si los pacientes desconfían del entorno en el que se utiliza. Esto es especialmente cierto cuando la IA afecta el diagnóstico, la comunicación, la documentación o la planificación del tratamiento.
Puede que los profesionales clínicos terminen asumiendo gran parte de la carga de traducir estos sistemas para los pacientes. Incluso cuando una herramienta se construye o se adquiere en otro lugar, el consultorio médico es a menudo donde las personas se enfrentan a su uso de manera más directa. Si la confianza está disminuyendo, los profesionales de primera línea pueden necesitar dedicar más tiempo a explicar cuándo se está usando IA, qué papel desempeña y dónde sigue siendo central el juicio humano.
Mientras tanto, las instituciones quizá necesiten recalibrar por completo la forma en que hablan sobre la IA. El lenguaje de marketing sobre transformación y eficiencia puede sonar desconectado de lo que los pacientes realmente quieren escuchar. En la atención médica, el mensaje más creíble puede ser más acotado: qué hace el sistema, qué no hace, quién sigue siendo responsable y cómo se protegen los intereses del paciente.
Un momento decisivo para la legitimidad de la IA médica
La encuesta encargada por el Centro Médico Wexner de la Universidad Estatal de Ohio no determina el futuro a largo plazo de la IA en la atención médica, pero sí identifica una línea de fractura. La adopción y la confianza no avanzan al mismo ritmo. Es posible que el público esté viendo más IA mientras se siente menos seguro sobre su lugar en la atención médica.
Eso importa porque el próximo capítulo de la IA médica dependerá tanto de la legitimidad como del rendimiento. Las herramientas pueden instalarse rápidamente. La confianza tarda más. Y, una vez perdida, es más difícil reconstruirla que reclamarla de antemano.
Si los sistemas de salud quieren que la IA forme parte de la atención rutinaria, tendrán que tratar la confianza como algo que debe ganarse, no como algo que deba darse por sentado. El resultado de la encuesta actual sugiere que este trabajo se está volviendo más urgente. Es posible que la IA ya esté en la sala. La pregunta más difícil es si el público quiere que siga allí bajo las condiciones que se están ofreciendo ahora.
Este artículo está basado en la cobertura de Medical Xpress. Leer el artículo original.



