Cuando la IA gestiona la cola de salud mental
Los terapeutas de Kaiser Permanente están en huelga, y entre sus quejas centrales se encuentra un nuevo sistema de cribado y enrutamiento de pacientes impulsado por IA que el personal clínico dice que está cometiendo errores peligrosos. Los terapeutas en varios centros de Kaiser afirman que el sistema clasifica incorrectamente a los pacientes que presentan ideación suicida o crisis agudas de salud mental como menos prioritarios de lo que el criterio clínico indicaría, y que varios pacientes han estado a punto de sufrir daños graves como resultado directo de las decisiones de enrutamiento algorítmico. Kaiser ha defendido el sistema, pero los relatos de los terapeutas pintan una imagen inquietante de la IA siendo implementada en un contexto donde los errores pueden tener consecuencias irreversibles.
Cómo funciona el sistema de cribado de IA
El cribado de pacientes en contextos de salud mental tradicionalmente se basa en cuestionarios estandarizados—herramientas como el PHQ-9 para la depresión o la Escala de Valoración de Severidad del Suicidio de Columbia—combinadas con entrevista clínica para evaluar la urgencia y la naturaleza de las necesidades de salud mental de un paciente. El sistema de IA de Kaiser aparentemente aumenta o en algunos casos reemplaza partes de este proceso, utilizando respuestas a cuestionarios de admisión, datos del historial del paciente y señales de comportamiento para generar una puntuación de riesgo y una recomendación de enrutamiento que determina qué tan rápido se ve al paciente y por qué tipo de proveedor.
En principio, el cribado asistido por IA podría mejorar la consistencia y reducir la variabilidad inherente a las evaluaciones de admisión humanas. Un paciente que se presenta un día ocupado cuando el personal de admisión está abrumado recibiría la misma evaluación algorítmica que uno que se presenta bajo condiciones ideales. El sistema también podría identificar factores de riesgo en el historial del paciente que un screener humano ocupado podría pasar por alto.
Lo que los terapeutas están reportando
Los relatos de los terapeutas describen un sistema que está fallando en la dirección opuesta. Múltiples clínicos reportan instancias donde pacientes que expresaron ideación suicida en sus cuestionarios de admisión fueron asignados a citas de rutina en lugar de espacios urgentes, porque el sistema de IA ponderó otros factores en el historial del paciente—como evaluaciones previas estables—más fuertemente que los indicadores de crisis aguda en la admisión actual.
La frase que ha resonado a través de la cobertura mediática de la disputa es "gracias a Dios siguen vivos"—una formulación utilizada por terapeutas describiendo pacientes que atravesaron el período de espera que siguió a un enrutamiento incorrectamente de baja prioridad. Que algún paciente realmente haya sufrido daño grave como resultado directo del sistema sigue siendo discutido; Kaiser sostiene que el sistema opera dentro de parámetros de seguridad clínica establecidos, mientras que los terapeutas dicen que los rozamientos que han observado indican que esos parámetros son insuficientes.
El riesgo del promediado algorítmico en el triaje de alto riesgo
La tensión central en esta disputa refleja un problema más amplio con la aplicación del aprendizaje automático al triaje clínico. Los sistemas de IA se entrenan en datos históricos y optimizan para el desempeño promedio en la distribución de entrenamiento. En el cribado de salud mental, los pacientes que más importan desde una perspectiva de seguridad son precisamente aquellos que son valores atípicos—individuos cuya presentación de crisis actual difiere significativamente de su línea base histórica, u que usan lenguaje minimizador de formas que los clínicos capacitados reconocen como señal de alerta pero que los sistemas de IA basados en texto pueden interpretar literalmente.
La intuición clínica—la lectura del terapeuta del tono, lenguaje corporal, vacilación y contexto—captura información que las respuestas del cuestionario no tienen. Un sistema de cribado que se basa principalmente en datos del cuestionario y registros históricos puede ponderar sistemáticamente menos exactamente las señales que distinguen una emergencia genuina de una cita de rutina. Cuando lo que está en juego es la vida de un paciente, la ponderación sistemática insuficiente de señales de crisis es precisamente el modo de falla que no puede ser tolerado.
Implicaciones más amplias para la IA en contextos clínicos
Kaiser Permanente no es la única implementando IA para gestionar el enrutamiento de pacientes y la asignación de recursos. Sistemas de salud en todos los Estados Unidos están implementando herramientas similares, atraídos por la promesa de eficiencia mejorada en sistemas donde la escasez de proveedores crea problemas de acceso persistentes. La atención de salud mental enfrenta restricciones de capacidad particularmente severas, haciendo que el atractivo del triaje asistido por IA sea especialmente fuerte—y los riesgos de errores algorítmicos especialmente altos dada la severidad de los resultados potenciales.
La disputa de Kaiser es probable que influya en cómo otros sistemas de salud abordan los requisitos de validación y supervisión para herramientas de cribado de IA en contextos de salud mental. Reguladores, organismos profesionales clínicos y administradores de sistemas de salud están todos observando cómo esto se desarrolla, conscientes de que herramientas de triaje de IA implementadas a escala podrían mejorar significativamente el acceso a la atención de salud mental o crear riesgos sistémicos que superen esos beneficios si se implementan sin supervisión clínica adecuada y mecanismos de detección de errores.
Este artículo se basa en reportes de The Guardian. Lea el artículo original.



