Uma história positiva sobre IA correu à frente das evidências
Uma das anedotas sobre IA mais compartilhadas da última semana envolveu um cachorro em estado terminal, uma vacina de mRNA personalizada e executivos de destaque da OpenAI celebrando a história como um vislumbre do futuro da medicina. Mas, como relata The Decoder, a principal alegação científica permanece não comprovada, e a reação negativa se tornou um exemplo útil de como narrativas sobre IA podem ultrapassar rapidamente as evidências.
A história gira em torno de Paul Conyngham, um consultor australiano de IA cujo cachorro Rosie tinha câncer de mastócitos incurável. De acordo com o relatório, Conyngham usou ferramentas como ChatGPT, AlphaFold e Grok, além de sequenciamento de genoma e pesquisadores, para buscar um possível tratamento. O CEO da OpenAI, Sam Altman, e o vice-presidente de ciência da empresa, Kevin Weil, amplificaram publicamente a história. Weil a descreveu como um vislumbre da medicina personalizada acelerada por IA, enquanto Altman chamou aquilo de a “reunião mais legal” que teve naquela semana e sugeriu que o esforço poderia virar uma empresa.
A peça que faltava era a prova de que a vacina funcionou
A crítica central não é que a IA não teve nenhum papel no processo. É que a forma como a história foi apresentada ao público insinuou um sucesso terapêutico que as evidências disponíveis não sustentam. The Decoder diz que nem Altman nem Weil reconheceram que não há evidência de que a vacina personalizada realmente tenha funcionado ou feito qualquer diferença no câncer de Rosie.
Essa omissão importa porque Rosie também estava recebendo um inibidor de PD-1, um tratamento de imunoterapia aprovado. Segundo o relatório, o crítico Egan Peltan argumentou que a explicação mais provável para qualquer melhora era o medicamento convencional, e não o desenho da vacina assistido por IA. O artigo descreve os inibidores de PD-1 como entre as imunoterapias contra o câncer mais eficazes disponíveis.
Em outras palavras, a história ainda pode mostrar a IA sendo usada para organizar informações, identificar alvos ou apontar alguém para tratamentos já existentes. Mas isso é uma afirmação muito mais restrita e menos dramática do que evidência de que uma vacina sob medida guiada por um chatbot curou ou alterou materialmente o curso de um caso de câncer.
O que a IA pode ter feito, e o que ela não mostrou
A reportagem de The Decoder permite uma interpretação mais nuançada. Conyngham disse que um chatbot também o apontou para PD-1 desde o início. Se isso for verdade, significa que a IA contribuiu para o caminho que ele seguiu, mesmo que a versão viral da história tenha exagerado o que era novo ou medicalmente validado.
Essa distinção é exatamente onde muitas histórias sobre IA se desfazem. Existe uma diferença real entre usar IA como assistente de pesquisa e mostrar que uma intervenção gerada por IA causou um resultado bem-sucedido. O primeiro é plausível e cada vez mais comum. O segundo exige evidência capaz de resistir ao escrutínio. No caso de Rosie, o relatório fornecido diz que esse padrão não foi atingido.
A crítica de Peltan, como citada por The Decoder, foi especialmente dura. Ele chamou o episódio de “storytelling para verdadeiros crentes da AGI” e de uma “história em busca de dinheiro de venture capital”. A frase captura por que o episódio repercutiu tão fortemente. Não se tratava apenas de um cachorro. Tratava-se de um padrão mais amplo em que anedotas emocionalmente poderosas são usadas para sugerir um destino de produto-mercado antes de as evidências chegarem.
Por que a reação importa para a indústria de IA
Esse episódio ocorre num momento em que as empresas de IA buscam as narrativas mais convincentes para sustentar a confiança pública, espaço regulatório e entusiasmo dos investidores. Saúde e biologia são especialmente atraentes porque conectam modelos de fronteira a interesses humanos concretos. Mas isso também significa que o custo do exagero é maior.
Quando executivos seniores elevam publicamente uma história sem destacar suas incertezas, eles correm o risco de apagar a distinção entre inspiração e prova. Na medicina, isso pode ser especialmente prejudicial porque pacientes desesperados, donos de animais e investidores podem interpretar o entusiasmo dos principais líderes de IA como um sinal de que algo já foi validado.
The Decoder observa que Conyngham desde então documentou seu processo em detalhe e publicou a abordagem como um método de código aberto. Isso pode ajudar outras pessoas a avaliar o que realmente foi feito. Mas a abertura, por si só, não resolve a questão central da eficácia. As evidências continuam importando mais do que a coerência narrativa.
Uma lição de cautela para as alegações de IA na medicina
A história de Rosie não mostra que a IA é inútil na descoberta médica. Ela mostra o risco oposto: que o papel real, e potencialmente útil, da IA na organização de pesquisas possa ser inflado em alegações de tratamento inovador antes de os resultados estarem estabelecidos. Esse é um padrão conhecido em tecnologia, mas a medicina é menos tolerante do que o software de consumo quando as histórias correm à frente da prova.
A versão mais forte do evento, sustentada pelo material de origem fornecido, é modesta. Um consultor de IA usou várias ferramentas de IA, sequenciamento de genoma e colaboração com pesquisadores para buscar um possível tratamento para seu cachorro. Separadamente, o cachorro recebeu um medicamento de imunoterapia aprovado. O cachorro melhorou, mas não há evidência no artigo de que a vacina personalizada tenha sido a responsável.
Isso ainda é interessante. Só não é o milagre que muitas pessoas compartilharam. E, no longo prazo, distinguir entre essas duas coisas pode ser um dos testes de credibilidade mais importantes da indústria de IA.
Este artigo é baseado na reportagem de The Decoder. Leia o artigo original.



