Altas expectativas, confianza limitada

Una nueva encuesta sueca señala una paradoja en el centro de la adopción de la IA en la medicina: la gente quiere que la tecnología sea mejor que los humanos antes de estar plenamente dispuesta a confiar en ella. Según un estudio de la Universidad de Gotemburgo, tanto los médicos como los miembros del público en Suecia esperan que los sistemas de IA utilizados en la atención sanitaria cumplan estándares de precisión que superen el rendimiento humano actual, especialmente en situaciones clínicas graves.

El resultado refleja una dura verdad para los desarrolladores de IA médica y los sistemas de salud. En muchas industrias, un nuevo software puede introducirse cuando simplemente resulta útil o es algo mejor en costo o velocidad. En la atención clínica, el umbral social es distinto. La gente no solo quiere eficiencia. Quiere un sistema que cometa menos errores peligrosos que los profesionales a los que podría apoyar o reemplazar parcialmente. Al mismo tiempo, la encuesta encontró que la confianza en la IA sigue siendo moderada y no alta, lo que sugiere que las expectativas elevadas están llegando más rápido que la confianza.

El estudio se basó en una encuesta enviada en la primavera de 2025 a 1.000 personas seleccionadas al azar en Suecia, divididas por igual entre médicos y miembros del público general. La tasa de respuesta fue del 45 % entre los médicos y del 31 % entre el público. Se pidió a los participantes que evaluaran distintos escenarios de atención sanitaria e indicaran qué nivel de casos omitidos o mal valorados sería aceptable para un sistema de IA en comparación con el desempeño actual de la atención sanitaria.

Por qué sube el estándar cuando la IA entra en escena

Uno de los hallazgos más claros fue que las expectativas se intensifican en situaciones de alto riesgo. En casos como el dolor torácico, muchos miembros del público querían que no se omitiera ningún caso. Los médicos estaban más dispuestos a aceptar un margen de error estrecho, lo que refleja su comprensión práctica de que el cribado y el diagnóstico siempre implican compromisos entre falsos negativos y falsos positivos.

Esa diferencia importa porque pone de relieve un problema recurrente en los debates sobre el despliegue de la IA. La precisión no es un solo número que cierre la cuestión. Un sistema puede ajustarse para pasar por alto menos casos graves, pero eso puede generar muchas más falsas alarmas. A su vez, eso puede desencadenar pruebas innecesarias, consumir tiempo del personal y exponer a los pacientes a procedimientos adicionales. Como señaló el investigador Rasmus Arvidsson en el resumen del estudio, un sistema que etiquetara a todos como enfermos evitaría pasar por alto enfermedades graves, pero no sería una medicina útil.

El reto, entonces, no es simplemente hacer que la IA sea más sensible. Es decidir qué equilibrio de errores es aceptable, para quién y en qué contexto. La encuesta sugiere que el público y los clínicos no siempre parten de la misma posición. Muchos ciudadanos parecen exigir a la IA un ideal de error casi cero en condiciones graves, mientras que los médicos están más acostumbrados a operar dentro de la incertidumbre clínica.

Esa desalineación probablemente moldeará la adopción. Si los pacientes esperan una perfección casi total mientras los hospitales adquieren herramientas que solo ofrecen mejoras incrementales, una reacción adversa es previsible. Por ello, el estudio respalda una discusión pública más explícita sobre los compromisos, en lugar de promocionar la IA como si pudiera eliminarlos.

El uso crece más rápido que la confianza

La encuesta también encontró que muchos encuestados ya utilizaban la IA de alguna forma, pero relativamente pocos expresaban una gran confianza en ella. Entre los médicos, la confianza en las herramientas de IA basadas en chat era aproximadamente similar a la confianza en los sistemas de IA ya usados para interpretar ECG. Más de siete de cada diez médicos habían probado herramientas basadas en chat, aunque pocos las usaban para la toma de decisiones clínicas.

Ese patrón es revelador. La experimentación está muy extendida, pero la dependencia profesional sigue siendo limitada. Los clínicos están probando las herramientas, viendo su potencial y quizá incorporándolas de manera informal para tareas de apoyo o generación de ideas, pero todavía no las integran en profundidad en decisiones que conllevan responsabilidad directa sobre los resultados de los pacientes.

Entre el público general, alrededor de una de cada diez personas encuestadas dijo haber usado IA para obtener consejos de salud. Eso es notable incluso si la confianza sigue siendo moderada. Sugiere que la IA orientada al consumidor ya está entrando en el comportamiento cotidiano de salud, mucho antes de que exista un consenso institucional amplio sobre dónde debería situarse la tecnología en los circuitos formales de atención.

La combinación de confianza moderada y uso significativo crea un momento de transición. La IA ya no es hipotética en la atención sanitaria, pero tampoco está normalizada todavía como una autoridad clínica fiable. Para los responsables de políticas y los proveedores, esa etapa intermedia puede ser la más delicada. La gente está lo bastante expuesta como para formarse expectativas, pero no lo bastante confiada como para aceptar errores que sí se tolerarían en sistemas humanos.

Lo que muestra y no muestra el estudio

  • Tanto los médicos como el público en Suecia quieren que la IA sanitaria supere a los humanos.
  • Las expectativas fueron especialmente altas en escenarios graves como el dolor torácico.
  • La confianza en la IA fue moderada, y pocos encuestados declararon una confianza alta.
  • Más de siete de cada diez médicos habían probado herramientas de IA basadas en chat, pero pocos las usaban en decisiones clínicas.
  • Alrededor de una de cada diez personas del público había usado IA para obtener consejos de salud.

Los autores señalan que la tasa de respuesta está en línea con estudios similares, pero también que introduce incertidumbre sobre hasta qué punto los resultados representan a la población en general. Aun así, la encuesta capta una dinámica que probablemente se extienda más allá de Suecia. La IA médica está siendo juzgada con un estándar que no es solo técnico. Es social, ético y comparativo. La gente se pregunta si la IA puede superar la atención existente, no simplemente si puede funcionar.

Esa distinción probablemente defina la próxima fase de la IA en salud. Los sistemas que mejoran el flujo de trabajo pero no pueden justificar con claridad su perfil de errores pueden tener dificultades para ganar confianza. Los sistemas que sí muestren mejoras medibles seguirán necesitando una comunicación transparente sobre lo que pasan por alto, lo que señalan en exceso y cómo se reparte la responsabilidad entre la máquina y el clínico. La encuesta sueca sugiere que el listón ya es alto. El hallazgo más difícil para el sector puede ser que el público y los médicos quieren subirlo aún más antes de estar listos para depender de la IA en medicina.

Este artículo se basa en un reportaje de Medical Xpress. Leer el artículo original.

Originally published on medicalxpress.com