Quando a IA gerencia a fila de saúde mental

Os terapeutas da Kaiser Permanente estão em greve, e entre suas reclamações centrais está um novo sistema de triagem e roteamento de pacientes impulsionado por IA que a equipe clínica diz estar cometendo erros perigosos. Terapeutas em vários centros Kaiser afirmam que o sistema classifica incorretamente pacientes que apresentam ideação suicida ou crises agudas de saúde mental como menos prioritários do que o julgamento clínico indicaria, e que vários pacientes estiveram perto de sofrer danos graves como resultado direto das decisões de roteamento algorítmico. Kaiser defendeu o sistema, mas os relatos dos terapeutas pintam uma imagem preocupante de IA sendo implantada em um contexto onde erros podem ter consequências irreversíveis.

Como o sistema de rastreamento de IA funciona

O rastreamento de pacientes em configurações de saúde mental tradicionalmente se baseia em questionários padronizados—ferramentas como PHQ-9 para depressão ou Columbia Suicide Severity Rating Scale—combinadas com entrevista clínica para avaliar a urgência e a natureza das necessidades de saúde mental de um paciente. O sistema de IA da Kaiser aparentemente aumenta ou em alguns casos substitui partes deste processo, utilizando respostas a questionários de admissão, dados do histórico do paciente e sinais comportamentais para gerar uma pontuação de risco e recomendação de roteamento que determina a rapidez com que o paciente é visto e por que tipo de provedor.

Em princípio, o rastreamento assistido por IA poderia melhorar a consistência e reduzir a variabilidade inerente às avaliações de admissão humanas. Um paciente que se apresenta em um dia ocupado quando a equipe de admissão está sobrecarregada receberia a mesma avaliação algorítmica que aquele que se apresenta em condições ideais. O sistema também poderia identificar fatores de risco no histórico do paciente que um triador humano ocupado poderia perder.

O que os terapeutas estão relatando

Os relatos dos terapeutas descrevem um sistema que está falhando na direção oposta. Múltiplos clínicos relatam instâncias onde pacientes que expressaram ideação suicida em seus questionários de admissão foram atribuídos a compromissos de rotina em vez de slots urgentes, porque o sistema de IA ponderou outros fatores no histórico do paciente—como avaliações estáveis anteriores—mais fortemente que os indicadores de crise aguda na admissão atual.

A frase que ressoou através da cobertura de mídia da disputa é "graças a Deus eles ainda estão vivos"—uma formulação usada por terapeutas descrevendo pacientes que passaram pelo período de espera que se seguiu a um roteamento incorretamente de baixa prioridade. Se algum paciente realmente sofreu dano grave como resultado direto do sistema permanece disputado; Kaiser sustenta que o sistema opera dentro de parâmetros de segurança clínica estabelecidos, enquanto terapeutas dizem que os quase-acidentes que observaram indicam que esses parâmetros são insuficientes.

O risco da média algorítmica em triagem de alto risco

A tensão central nesta disputa reflete um problema mais amplo com a aplicação de aprendizado de máquina à triagem clínica. Sistemas de IA são treinados em dados históricos e otimizados para desempenho médio na distribuição de treinamento. Na triagem de saúde mental, os pacientes que mais importam de uma perspectiva de segurança são precisamente aqueles que são valores atípicos—indivíduos cuja apresentação de crise atual difere significativamente de sua linha de base histórica, ou que usam linguagem minimizadora de maneiras que clínicos treinados reconhecem como um sinal de alerta, mas que sistemas de IA baseados em texto podem interpretar literalmente.

A intuição clínica—a leitura do terapeuta de tom, linguagem corporal, hesitação e contexto—captura informações que respostas de questionário não têm. Um sistema de rastreamento que se baseia principalmente em dados de questionário e registros históricos pode sistematicamente ponderar insuficientemente exatamente os sinais que distinguem uma emergência genuína de um compromisso de rotina. Quando o que está em jogo é a vida de um paciente, a ponderação sistemática insuficiente de sinais de crise é precisamente o modo de falha que não pode ser tolerado.

Implicações mais amplas para IA em configurações clínicas

Kaiser Permanente não é a única implantando IA para gerenciar roteamento de pacientes e alocação de recursos. Sistemas de saúde em todos os Estados Unidos estão implementando ferramentas similares, atraídos pela promessa de eficiência melhorada em sistemas onde a escassez de provedores cria problemas persistentes de acesso. Cuidado de saúde mental enfrenta restrições de capacidade particularmente severas, tornando o apelo da triagem assistida por IA especialmente forte—e os riscos de erros algorítmicos especialmente altos dada a severidade dos possíveis resultados.

A disputa da Kaiser é provável de influenciar como outros sistemas de saúde abordam os requisitos de validação e supervisão para ferramentas de rastreamento de IA em contextos de saúde mental. Reguladores, órgãos profissionais clínicos e administradores de sistemas de saúde estão todos observando como isso se desenrola, cientes de que ferramentas de triagem de IA implantadas em larga escala poderiam significativamente melhorar o acesso ao cuidado de saúde mental ou criar riscos sistêmicos que anulam esses benefícios se implantadas sem supervisão clínica adequada e mecanismos de detecção de erro.

Este artigo é baseado em reportagem de The Guardian. Leia o artigo original.