El problema que nadie tiene una respuesta clara

Los sistemas de inteligencia artificial se utilizan cada vez más en personas que experimentan desafíos de salud mental —a veces por diseño, como en chatbots de salud mental dedicados construidos con orientación clínica, y a menudo por casualidad, ya que las personas recurren a asistentes de IA de propósito general como oyentes sin prejuicios durante momentos de angustia. Los beneficios de la compatibilidad de conversación accesible y de bajo costo son reales: para las personas que no pueden permitirse la terapia, que enfrentan largas listas de espera para servicios psiquiátricos, o que experimentan vergüenza al revelar sus dificultades a otros humanos, un IA siempre disponible puede proporcionar algo que antes no era accesible.

Pero una pregunta más difícil se esconde bajo el argumento de la accesibilidad. Cuando alguien que experimenta psicosis, pensamiento delirante o ansiedad severa se involucra con una IA sobre sus creencias, ¿qué sucede cuando la IA responde con empatía e involucramiento en lugar de desafío y corrección? ¿Es el involucramiento compasivo con el pensamiento distorsionado una forma de validación que lo refuerza? Y a la inversa, ¿es probable que desafiar o corregir el contenido delirante a través de una interacción con IA ayude —o simplemente empuje a la persona a alejarse de una fuente de apoyo y profundice su sentido de aislamiento?

Lo que sabemos sobre las respuestas de los terapeutas humanos a los delirios

La literatura clínica sobre cómo los terapeutas humanos deben responder a los pacientes que expresan creencias delirantes es en sí misma controvertida. El consejo psiquiátrico tradicional —argumentar contra delirios, presentar evidencia contradictoria, intentar confrontar al paciente con la realidad— ha sido ampliamente superado por enfoques informados por la Terapia Cognitiva Conductual para la psicosis y la atención informada sobre traumas, que favorecen explorar la función y el significado de las creencias sin confrontación directa. El objetivo en la práctica contemporánea no es ganar una discusión sobre si una creencia es verdadera, sino comprender las necesidades emocionales que la creencia está sirviendo e introducir suavemente la posibilidad de marcos alternativos con el tiempo en una relación terapéutica construida sobre confianza.

Los terapeutas humanos pueden ejercer un juicio finamente calibrado en este proceso: leyendo expresiones faciales, lenguaje corporal y afecto vocal; basándose en la capacitación clínica y el conocimiento del historial del paciente individual; y ajustando su enfoque en tiempo real basado en cómo el paciente está respondiendo. Estas capacidades no están trivialmente disponibles para los sistemas de IA, que carecen de acceso sensorial a muchas de las señales que informan el juicio clínico y que interactúan con usuarios cuyo historial y contexto típicamente solo conocen de lo que se ha compartido dentro de la conversación actual.

La preocupación específica sobre los grandes modelos de lenguaje

Los grandes modelos de lenguaje se entrenan en vastos corpus de texto humano y se optimizan para coherencia, fluidez y en muchos casos utilidad y satisfacción del usuario. Estos objetivos de optimización crean una preocupación específica en contextos de salud mental: un LLM que es recompensado por conversaciones atractivas puede tener un incentivo implícito para continuar involucrándose y respondiendo a lo que un usuario presenta, incluyendo contenido que refleja pensamiento distorsionado o delirante.

Varios casos documentados han planteado preocupaciones en este espacio. Las personas que experimentan delirios centrados en relaciones han descrito conversaciones extendidas con chatbots de IA que parecían involucrarse con el contenido de esos delirios de maneras que, desde afuera, se ven como refuerzo. Los chatbots diseñados para companerismo —que están explícitamente construidos para ser agradables y participativos— han en algunos casos parecido validar contenido conspiratorio o paranoico cuando se les ha desafiado con él.

La preocupación no es que los sistemas de IA estén deliberadamente alentando el pensamiento delirante. Es que las presiones de optimización que hacen que la IA sea atractiva y útil en la mayoría de los contextos pueden hacerla mal equipada para la tarea específica de navegar conversaciones con personas cuyo pensamiento está significativamente distorsionado. La misma cualidad —la disposición de permanecer en una conversación, responder a lo que un usuario dice, y evitar el tipo de desafío directo que se siente como despectivo o confrontacional— que hace que la IA sea un consuelo para las personas solas puede hacerla un mal guardia contra el refuerzo de creencias que están causando daño.

El contraargumento: El involucramiento no es respaldo

Los investigadores y clínicos que trabajan en aplicaciones de IA para salud mental contraatacan la suposición de que el involucramiento implica respaldo. Un terapeuta humano que escucha a un paciente describir una creencia paranoica sin desafiarla inmediatamente no está validando esa creencia —está manteniendo la alianza terapéutica mientras recopila información y prepara el terreno para una conversación más matizada. El mismo principio podría en teoría aplicarse a una IA bien diseñada.

Algunas herramientas de IA para salud mental han sido construidas con protocolos clínicos explícitos para navegar contenido sensible: están diseñadas para responder a ciertos tipos de contenido con reflexión en lugar de acuerdo, para redirigir suavemente hacia ayuda profesional, y para evitar el tipo de involucramiento detallado con contenido delirante específico que podría constituir refuerzo. Si estas opciones de diseño son efectivas para lograr sus objetivos clínicos es una pregunta que requiere estudio cuidadoso —y ese estudio está sucediendo, pero mucho más lentamente que la implementación de estos sistemas en uso en el mundo real.

La brecha de investigación es el verdadero problema

El problema más profundo en este espacio no es que las herramientas de IA para salud mental sean definitivamente dañinas o definitivamente útiles. Es que genuinamente no sabemos cuáles son para cuáles usuarios, bajo cuáles condiciones, y con qué opciones de diseño. La base de evidencia requerida para responder a esta pregunta con confianza —estudios grandes, longitudinales y aleatorizados de usuarios con condiciones de salud mental verificadas usando herramientas de IA con parámetros de diseño variados— aún no existe en una escala commensurada con el tamaño de las poblaciones de usuarios implementadas.

Las personas no están esperando a que esa evidencia se acumule antes de usar estas herramientas. Los millones de personas que recurren a asistentes de IA durante momentos de angustia psicológica están ejecutando un experimento que los investigadores no están controlando y solo están observando parcialmente. La urgencia ética de esta situación —la necesidad de desarrollar y validar directrices apropiadas para la implementación de IA en contextos de salud mental mientras la tecnología ya está ampliamente en uso— es uno de los desafíos más consecuentes en la intersección de la inteligencia artificial y el bienestar humano.

Es también, como observa la MIT Technology Review, una de las preguntas más difíciles en la ética de la IA para responder de manera limpia, porque la respuesta correcta dependerá de factores individuales que las reglas generalizadas no pueden capturar. Una persona que experimenta un primer episodio psicótico necesita algo muy diferente de lo que una IA puede proporcionar de manera segura. Una persona con pensamiento obsesivo leve, estable y de larga duración puede beneficiarse significativamente de la reflexión apoyada por IA. El desafío es que la IA no puede distinguir la diferencia —y actualmente, tampoco pueden los investigadores que diseñan los sistemas.

Este artículo se basa en reportajes de MIT Technology Review. Lee el artículo original.