Altas expectativas, confiança limitada

Uma nova pesquisa sueca aponta para um paradoxo no centro da adoção da IA na medicina: as pessoas querem que a tecnologia seja melhor do que os humanos antes de estarem totalmente dispostas a confiar nela. Segundo um estudo da Universidade de Gotemburgo, tanto médicos quanto membros do público na Suécia esperam que os sistemas de IA usados na saúde atendam a padrões de precisão que superem o desempenho humano atual, especialmente em situações clínicas graves.

O resultado revela uma verdade difícil para os desenvolvedores de IA médica e para os sistemas de saúde. Em muitos setores, um novo software pode ser introduzido quando é apenas útil ou um pouco melhor em custo ou velocidade. Na assistência clínica, o limiar social é diferente. As pessoas não querem apenas eficiência. Elas querem um sistema que cometa menos erros perigosos do que os profissionais que ele pode apoiar ou substituir parcialmente. Ao mesmo tempo, a pesquisa descobriu que a confiança na IA permanece moderada, e não forte, sugerindo que as expectativas elevadas estão chegando antes da confiança.

O estudo foi baseado em uma pesquisa enviada na primavera de 2025 a 1.000 pessoas selecionadas aleatoriamente na Suécia, divididas igualmente entre médicos e membros do público em geral. A taxa de resposta foi de 45% entre os médicos e 31% entre o público. Os participantes foram convidados a avaliar diferentes cenários de assistência médica e indicar qual nível de casos perdidos ou mal avaliados seria aceitável para um sistema de IA em comparação com o desempenho atual da saúde.

Por que o padrão sobe quando a IA entra em cena

Um dos achados mais claros foi que as expectativas se intensificam em situações de alto risco. Em casos como dor no peito, muitos membros do público queriam que nenhum caso fosse perdido. Os médicos estavam mais dispostos a aceitar uma margem estreita de erro, refletindo sua compreensão prática de que a triagem e o diagnóstico sempre envolvem compensações entre falsos negativos e falsos positivos.

Essa diferença importa porque destaca um problema recorrente nos debates sobre implantação de IA. Precisão não é um número único que encerra a questão. Um sistema pode ser ajustado para perder menos casos graves, mas isso pode gerar muito mais alarmes falsos. Isso, por sua vez, pode disparar exames desnecessários, sobrecarregar o tempo da equipe e expor os pacientes a procedimentos adicionais. Como observou o pesquisador Rasmus Arvidsson no resumo do estudo, um sistema que classificasse todo mundo como doente evitaria deixar passar doenças graves, mas não seria uma medicina útil.

O desafio, então, não é simplesmente tornar a IA mais sensível. É decidir qual equilíbrio de erros é aceitável, para quem e em qual contexto. A pesquisa sugere que o público e os clínicos nem sempre partem da mesma posição. Muitos cidadãos parecem exigir da IA um ideal de erro quase zero em condições graves, enquanto os médicos estão mais acostumados a operar dentro da incerteza clínica.

Essa discrepância provavelmente moldará a adoção. Se os pacientes esperam perfeição quase total enquanto os hospitais adquirem ferramentas que oferecem apenas ganhos incrementais, uma reação contrária é previsível. O estudo, portanto, apoia uma discussão pública mais explícita sobre os trade-offs, em vez de vender a IA como se ela pudesse eliminá-los.

O uso cresce mais rápido que a confiança

A pesquisa também constatou que muitos entrevistados já estavam usando IA de alguma forma, mas relativamente poucos expressavam alta confiança nela. Entre os médicos, a confiança em ferramentas de IA baseadas em chat era aproximadamente semelhante à confiança em sistemas de IA já usados para interpretar ECGs. Mais de sete em cada dez médicos haviam experimentado ferramentas baseadas em chat, mas poucos as utilizavam para tomada de decisão clínica.

Esse padrão é revelador. A experimentação é ampla, mas a dependência profissional continua limitada. Os clínicos estão testando as ferramentas, vendo seu potencial e talvez as incorporando informalmente para tarefas de apoio ou geração de ideias, mas ainda não as estão integrando profundamente às decisões pelas quais têm responsabilidade direta pelos resultados dos pacientes.

Entre o público em geral, cerca de uma em cada dez pessoas relatou usar IA para obter orientação sobre saúde. Isso é notável, mesmo que a confiança continue moderada. Isso sugere que a IA voltada ao consumidor já está entrando no comportamento cotidiano de saúde, muito antes de existir um consenso institucional amplo sobre onde a tecnologia deve se situar nos caminhos formais de cuidado.

A combinação de confiança moderada e uso relevante cria um momento de transição. A IA já não é hipotética na saúde, mas também ainda não está normalizada como uma autoridade clínica confiável. Para formuladores de políticas e prestadores de serviço, essa fase intermediária pode ser a mais delicada. As pessoas estão expostas o suficiente para formar expectativas, mas não confiantes o bastante para aceitar erros que seriam tolerados em sistemas humanos.

O que o estudo mostra e o que não mostra

  • Tanto médicos quanto o público na Suécia querem que a IA na saúde supere os humanos.
  • As expectativas foram especialmente altas em cenários graves como dor no peito.
  • A confiança na IA foi moderada, com poucos entrevistados relatando alta confiança.
  • Mais de sete em cada dez médicos haviam experimentado ferramentas de IA baseadas em chat, mas poucos as usavam em decisões clínicas.
  • Cerca de uma em cada dez pessoas do público havia usado IA para orientação sobre saúde.

Os autores observam que a taxa de resposta está alinhada com estudos semelhantes, mas também introduz incerteza sobre o quanto os resultados representam a população mais ampla. Ainda assim, a pesquisa captura uma dinâmica que provavelmente irá além da Suécia. A IA médica está sendo julgada por um padrão que não é apenas técnico. É social, ético e comparativo. As pessoas estão perguntando se a IA pode superar o cuidado existente, e não apenas se ela pode funcionar.

Essa distinção provavelmente definirá a próxima fase da IA em saúde. Sistemas que melhoram o fluxo de trabalho, mas não conseguem justificar claramente seu perfil de erros, podem ter dificuldade para conquistar confiança. Sistemas que conseguem mostrar ganhos mensuráveis ainda precisarão de comunicação transparente sobre o que deixam passar, o que sinalizam em excesso e como a responsabilidade é compartilhada entre a máquina e o clínico. A pesquisa sueca sugere que a barra já é alta. O achado mais difícil para o setor talvez seja que o público e os médicos querem elevar ainda mais essa barra antes de estarem prontos para depender da IA na medicina.

Este artigo é baseado em uma reportagem da Medical Xpress. Leia o artigo original.

Originally published on medicalxpress.com