Une histoire d’IA rassurante est allée plus vite que les preuves
L’une des anecdotes sur l’IA les plus partagées de la semaine dernière mettait en scène un chien en phase terminale, un vaccin à ARNm personnalisé et des dirigeants d’OpenAI de premier plan célébrant l’histoire comme un aperçu de l’avenir de la médecine. Mais comme le rapporte The Decoder, l’affirmation scientifique centrale reste non prouvée, et la controverse qui a suivi est devenue un exemple utile de la rapidité avec laquelle les récits sur l’IA peuvent dépasser les preuves.
L’histoire concerne Paul Conyngham, un consultant australien en IA dont le chien Rosie souffrait d’un cancer des mastocytes incurable. D’après le rapport, Conyngham a utilisé des outils comme ChatGPT, AlphaFold et Grok, ainsi que le séquençage du génome et des chercheurs, pour tenter de trouver un traitement possible. Le PDG d’OpenAI, Sam Altman, et le vice-président science de l’entreprise, Kevin Weil, ont amplifié publiquement l’histoire. Weil l’a décrite comme un aperçu de la médecine personnalisée accélérée par l’IA, tandis qu’Altman a qualifié cela de “réunion la plus cool” qu’il ait eue cette semaine-là et a laissé entendre que l’initiative pourrait devenir une entreprise.
La pièce manquante était la preuve que le vaccin fonctionnait
La critique principale n’est pas que l’IA n’a joué aucun rôle dans le processus. C’est que la présentation publique laissait entendre un succès thérapeutique que les preuves disponibles ne soutiennent pas. The Decoder indique que ni Altman ni Weil n’ont reconnu qu’il n’existe aucune preuve que le vaccin personnalisé ait réellement fonctionné ou qu’il ait fait une différence dans le cancer de Rosie.
Cette omission compte, car Rosie recevait aussi un inhibiteur de PD-1, un traitement d’immunothérapie approuvé. Selon le rapport, le critique Egan Peltan a soutenu que l’explication la plus probable d’une amélioration était le médicament conventionnel, et non la conception du vaccin assistée par IA. L’article décrit les inhibiteurs de PD-1 comme l’une des immunothérapies anticancéreuses les plus efficaces disponibles.
Autrement dit, l’histoire peut toujours montrer l’IA utilisée pour organiser l’information, faire ressortir des cibles ou orienter quelqu’un vers des traitements existants. Mais c’est une affirmation bien plus étroite et moins spectaculaire que la preuve qu’un vaccin sur mesure, guidé par un chatbot, a guéri ou modifié de manière significative l’évolution d’un cas de cancer.
Ce que l’IA a peut-être fait, et ce qu’elle n’a pas montré
Le reportage de The Decoder permet une lecture nuancée. Conyngham a déclaré qu’un chatbot l’avait aussi orienté vers PD-1 dès le départ. Si cela est exact, cela signifie que l’IA a contribué au parcours qu’il a suivi, même si la version virale de l’histoire exagérait le caractère novateur ou médicalement validé de l’initiative.
C’est précisément sur ce point que beaucoup d’histoires sur l’IA se déforment. Il existe une vraie différence entre utiliser l’IA comme assistant de recherche et montrer qu’une intervention générée par IA a causé un résultat réussi. Le premier est plausible et de plus en plus courant. Le second exige des preuves capables de résister à l’examen. Dans le cas de Rosie, le rapport fourni indique que ce seuil n’a pas été atteint.
La critique de Peltan, telle que citée par The Decoder, était particulièrement sévère. Il a qualifié l’épisode de “storytelling pour les vrais croyants de l’AGI” et d’“histoire à la recherche d’argent du capital-risque”. Cette formule explique pourquoi l’épisode a suscité une telle résonance. Il ne s’agissait pas seulement d’un chien. Il s’agissait d’un schéma plus large dans lequel des anecdotes chargées d’émotion sont utilisées pour suggérer un destin produit-marché avant que les preuves ne soient réunies.
Pourquoi le retour de flamme compte pour l’industrie de l’IA
Cet épisode survient alors que les entreprises d’IA cherchent les récits les plus convaincants pour soutenir la confiance du public, une marge de manœuvre réglementaire et l’enthousiasme des investisseurs. La santé et la biologie sont particulièrement attractives parce qu’elles relient les modèles de pointe à des enjeux humains concrets. Mais cela signifie aussi que le coût de l’exagération est plus élevé.
Lorsque des dirigeants de premier plan mettent publiquement en avant une histoire sans souligner ses incertitudes, ils risquent d’effacer la distinction entre inspiration et preuve. En médecine, cela peut être particulièrement dommageable, car des patients désespérés, des propriétaires d’animaux et des investisseurs peuvent interpréter l’enthousiasme des principaux leaders de l’IA comme le signe que quelque chose a déjà été validé.
The Decoder note que Conyngham a depuis documenté son processus en détail et publié l’approche sous forme de méthode open source. Cela pourrait aider d’autres à évaluer ce qui a réellement été fait. Mais l’ouverture, à elle seule, ne résout pas la question centrale de l’efficacité. Les preuves restent plus importantes que la cohérence narrative.
Une leçon de prudence pour les affirmations sur l’IA en médecine
L’histoire de Rosie ne montre pas que l’IA est inutile dans la découverte médicale. Elle montre le risque inverse : le rôle réel, et potentiellement utile, de l’IA dans l’organisation de la recherche peut être gonflé en promesses de traitement révolutionnaire avant que les résultats ne soient établis. C’est un schéma familier dans la technologie, mais la médecine est moins indulgente que le logiciel grand public lorsque les histoires devancent les preuves.
La version la plus solide de l’événement, soutenue par les éléments source fournis, est modeste. Un consultant en IA a utilisé plusieurs outils d’IA, le séquençage du génome et une collaboration avec des chercheurs pour chercher un traitement possible pour son chien. Par ailleurs, le chien a reçu un médicament d’immunothérapie approuvé. Le chien s’est amélioré, mais l’article ne fournit aucune preuve que le vaccin personnalisé en était responsable.
C’est toujours intéressant. Simplement, ce n’est pas le récit miracle que beaucoup ont partagé. Et, à long terme, distinguer ces deux choses pourrait être l’un des tests de crédibilité les plus importants de l’industrie de l’IA.
Cet article s’appuie sur le reportage de The Decoder. Lire l’article original.



