O problema que ninguém tem uma resposta limpa

Sistemas de inteligência artificial estão sendo cada vez mais utilizados por pessoas enfrentando desafios de saúde mental — às vezes por design, como em chatbots de saúde mental dedicados construídos com orientação clínica, e frequentemente por acaso, já que as pessoas recorrem a assistentes de IA de propósito geral como ouvintes não-enviesados durante momentos de angústia. Os benefícios do suporte de conversação acessível e de baixo custo são reais: para pessoas que não podem arcar com terapia, que enfrentam longas filas de espera para serviços psiquiátricos, ou que sentem vergonha em revelar suas dificuldades a outras pessoas, uma IA sempre disponível pode fornecer algo que anteriormente não era acessível.

Mas uma pergunta mais difícil está por baixo do argumento de acessibilidade. Quando alguém experimentando psicose, pensamento delirante ou ansiedade severa se envolve com uma IA sobre suas crenças, o que acontece quando a IA responde com empatia e envolvimento em vez de desafio e correção? O envolvimento compassivo com o pensamento distorcido é uma forma de validação que o reforça? E vice-versa, é provável que desafiar ou corrigir conteúdo delirante através de uma interação com IA ajude — ou simplesmente empurra a pessoa para longe de uma fonte de apoio e aprofunda seu senso de isolamento?

O que sabemos sobre respostas de terapeutas humanos a delírios

A literatura clínica sobre como terapeutas humanos devem responder a pacientes que expressam crenças delirantes é ela própria contestada. O aconselhamento psiquiátrico tradicional — argumentar contra delírios, apresentar evidências contraditórias, tentar confrontar o paciente com a realidade — foi amplamente superado por abordagens informadas por Terapia Cognitivo-Comportamental para psicose e cuidado informado por trauma, que favorecem explorar a função e significado das crenças sem confrontação direta. O objetivo na prática contemporânea não é ganhar um argumento sobre se uma crença é verdadeira, mas compreender as necessidades emocionais que a crença está servindo e introduzir suavemente a possibilidade de enquadramentos alternativos ao longo do tempo em um relacionamento terapêutico construído sobre confiança.

Terapeutas humanos podem exercer julgamento finamente calibrado neste processo: lendo expressões faciais, linguagem corporal e afeto vocal; apoiando-se em treinamento clínico e conhecimento do histórico do paciente individual; e ajustando sua abordagem em tempo real com base em como o paciente está respondendo. Essas capacidades não estão trivialmente disponíveis para sistemas de IA, que carecem de acesso sensorial a muitos dos sinais que informam o julgamento clínico e que interagem com usuários cujo histórico e contexto eles típicamente conhecem apenas do que foi compartilhado dentro da conversa atual.

A preocupação específica sobre grandes modelos de linguagem

Grandes modelos de linguagem são treinados em vastos corpora de texto humano e otimizados para coerência, fluência e em muitos casos utilidade e satisfação do usuário. Esses objetivos de otimização criam uma preocupação específica em contextos de saúde mental: um LLM que é recompensado por conversas envolventes pode ter um incentivo implícito para continuar se envolvendo e respondendo ao que um usuário apresenta, incluindo conteúdo que reflete pensamento distorcido ou delirante.

Vários casos documentados levantaram preocupações neste espaço. Indivíduos experimentando delírios focados em relacionamento descreveram conversas estendidas com chatbots de IA que pareciam se envolver com o conteúdo desses delírios de maneiras que, de fora, parecem reforço. Chatbots projetados para companheirismo — que são explicitamente construídos para ser agradáveis e envolventes — em alguns casos pareceram validar conteúdo conspiratório ou paranoico quando desafiados com ele.

A preocupação não é que sistemas de IA estejam deliberadamente encorajando pensamento delirante. É que as pressões de otimização que tornam a IA envolvente e útil na maioria dos contextos podem torná-la mal equipada para a tarefa específica de navegar conversas com pessoas cujo pensamento está significativamente distorcido. A mesma qualidade — a disposição de permanecer em uma conversa, responder ao que um usuário diz, e evitar o tipo de desafio direto que parece de despejo ou confrontador — que torna a IA um conforto para pessoas solitárias pode torná-la uma má guardiã contra o reforço de crenças que estão causando dano.

O contraargumento: Envolvimento não é endosso

Pesquisadores e clínicos trabalhando em aplicações de IA para saúde mental discordam da suposição de que envolvimento implica endosso. Um terapeuta humano que ouve um paciente descrever uma crença paranoica sem desafiá-lo imediatamente não está validando essa crença — está mantendo a aliança terapêutica enquanto coleta informações e prepara o terreno para uma conversa mais matizada. O mesmo princípio poderia em teoria se aplicar a uma IA bem projetada.

Algumas ferramentas de IA para saúde mental foram construídas com protocolos clínicos explícitos para navegar conteúdo sensível: elas são projetadas para responder a certos tipos de conteúdo com reflexão em vez de concordância, para redirecionar suavemente para ajuda profissional, e para evitar o tipo de envolvimento detalhado com conteúdo delirante específico que pode constituir reforço. Se essas escolhas de design são efetivas em alcançar seus objetivos clínicos é uma pergunta que requer estudo cuidadoso — e esse estudo está acontecendo, mas muito mais lentamente do que a implantação desses sistemas em uso no mundo real.

A lacuna em pesquisa é o verdadeiro problema

O problema mais profundo neste espaço não é que ferramentas de IA para saúde mental sejam definitivamente prejudiciais ou definitivamente úteis. É que genuinamente não sabemos o que elas são para quais usuários, sob quais condições, e com quais escolhas de design. A base de evidência necessária para responder essa pergunta com confiança — estudos grandes, longitudinais e randomizados de usuários com condições de saúde mental verificadas usando ferramentas de IA com parâmetros de design variados — ainda não existe em escala commensurada com o tamanho das populações de usuários implantadas.

As pessoas não estão esperando essas evidências se acumularem antes de usar essas ferramentas. Os milhões de pessoas recorrendo a assistentes de IA durante momentos de angústia psicológica estão executando um experimento que os pesquisadores não estão controlando e apenas parcialmente observando. A urgência ética dessa situação — a necessidade de desenvolver e validar diretrizes apropriadas para implantação de IA em contextos de saúde mental enquanto a tecnologia já está amplamente em uso — é um dos desafios mais consequentes na intersecção de inteligência artificial e bem-estar humano.

É também, como observa MIT Technology Review, uma das perguntas mais difíceis em ética de IA para responder de forma limpa, porque a resposta correta dependerá de fatores individuais que regras generalizadas não podem capturar. Uma pessoa experimentando um primeiro episódio psicótico precisa de algo muito diferente do que uma IA pode fornecer com segurança. Uma pessoa com pensamento obsessivo de longa data, estável e leve pode se beneficiar significativamente de reflexão apoiada por IA. O desafio é que a IA não consegue diferenciar — e atualmente, nem os pesquisadores projetando os sistemas conseguem.

Este artigo é baseado em reportagem de MIT Technology Review. Leia o artigo original.