Quand l'IA gère la file d'attente de la santé mentale

Les thérapeutes de Kaiser Permanente sont en grève, et parmi leurs griefs centraux se trouve un nouveau système de dépistage et d'acheminement des patients alimenté par l'IA que le personnel clinique dit commettre des erreurs dangereuses. Les thérapeutes de plusieurs établissements Kaiser affirment que le système classe incorrectement les patients qui présentent une idéation suicidaire ou des crises aigües de santé mentale comme moins prioritaires que le jugement clinique ne l'indiquerait, et que plusieurs patients ont frôlé des blessures graves du fait direct des décisions d'acheminement algorithmique. Kaiser a défendu le système, mais les récits des thérapeutes dépeignent une image troublante de l'IA déployée dans un contexte où les erreurs peuvent avoir des conséquences irréversibles.

Comment fonctionne le système de dépistage par IA

Le dépistage des patients en milieu de santé mentale s'appuie traditionnellement sur des questionnaires standardisés—des outils comme le PHQ-9 pour la dépression ou l'Échelle d'évaluation de la sévérité du suicide de Columbia—combinés à un entretien clinique pour évaluer l'urgence et la nature des besoins en santé mentale du patient. Le système d'IA de Kaiser apparemment augmente ou dans certains cas remplace des parties de ce processus, en utilisant les réponses aux questionnaires d'admission, les données d'historique du patient et les signaux comportementaux pour générer un score de risque et une recommandation d'acheminement qui détermine la rapidité à laquelle le patient est vu et par quel type de prestataire.

En principe, le dépistage assisté par l'IA pourrait améliorer la cohérence et réduire la variabilité inhérente aux évaluations d'admission humaines. Un patient qui se présente un jour occupé lorsque le personnel d'admission est débordé recevrait la même évaluation algorithmique que celui qui se présente dans des conditions idéales. Le système pourrait également identifier les facteurs de risque dans l'historique du patient qu'un écouteur humain occupé pourrait manquer.

Ce que rapportent les thérapeutes

Les récits des thérapeutes décrivent un système qui échoue dans la direction opposée. Plusieurs cliniciens rapportent des cas où des patients qui ont exprimé une idéation suicidaire dans leurs questionnaires d'admission ont été assignés à des rendez-vous de routine au lieu de créneaux d'urgence, car le système d'IA a pondéré d'autres facteurs dans l'historique du patient—comme des évaluations stables antérieures—plus fortement que les indicateurs de crise aigué dans l'admission actuelle.

La phrase qui a résonné à travers la couverture médiatique du différend est "Dieu merci, ils sont toujours en vie"—une formulation utilisée par les thérapeutes décrivant les patients qui ont traversé la période d'attente qui a suivi un acheminement incorrectement de faible priorité. Qu'un patient ait réellement subi un dommage grave du fait direct du système reste contesté ; Kaiser soutient que le système fonctionne dans le cadre de paramètres de sécurité clinique établis, tandis que les thérapeutes disent que les quasi-accidents qu'ils ont observés indiquent que ces paramètres sont insuffisants.

Le risque de la moyenne algorithmique dans le tri à enjeux élevés

La tension centrale de ce différend reflète un problème plus large avec l'application de l'apprentissage automatique au tri clinique. Les systèmes d'IA sont entraînés sur des données historiques et optimisés pour les performances moyennes dans la distribution d'entraînement. Dans le dépistage de la santé mentale, les patients qui importent le plus du point de vue de la sécurité sont précisément ceux qui sont des valeurs aberrantes—des individus dont la présentation actuelle de crise diffère considérablement de leur ligne de base historique, ou qui utilisent un langage minimisant de manières que les cliniciens formés reconnaissent comme un signal d'alerte mais que les systèmes d'IA basés sur du texte peuvent interpréter littéralement.

L'intuition clinique—la lecture du thérapeute du ton, du langage corporel, de l'hésitation et du contexte—capture des informations que les réponses aux questionnaires n'ont pas. Un système de dépistage qui repose principalement sur les données des questionnaires et les dossiers historiques peut systématiquement sous-pondérer précisément les signaux qui distinguent une urgence véritable d'un rendez-vous de routine. Lorsque ce qui est en jeu est la vie d'un patient, la sous-pondération systématique des signaux de crise est précisément le mode de défaillance qui ne peut pas être toléré.

Implications plus larges pour l'IA dans les paramètres cliniques

Kaiser Permanente n'est pas la seule à déployer l'IA pour gérer l'acheminement des patients et l'allocation des ressources. Les systèmes de santé à travers les États-Unis implémentent des outils similaires, attirés par la promesse d'une efficacité améliorée dans les systèmes où la pénurie de prestataires crée des problèmes d'accès persistants. Les soins de santé mentale font face à des contraintes de capacité particulièrement graves, rendant l'attrait du tri assisté par l'IA particulièrement fort—et les risques d'erreurs algorithmiques particulièrement élevés compte tenu de la gravité des résultats potentiels.

Le différend de Kaiser est susceptible d'influencer la façon dont les autres systèmes de santé abordent les exigences de validation et de surveillance pour les outils de dépistage par l'IA dans les contextes de santé mentale. Les régulateurs, les organismes professionnels cliniques et les administrateurs de systèmes de santé observent tous comment cela se déroule, conscients que les outils de tri par l'IA déployés à grande échelle pourraient considérablement améliorer l'accès aux soins de santé mentale ou créer des risques systémiques qui l'emportent sur ces avantages s'ils sont déployés sans surveillance clinique adéquate et mécanismes de détection des erreurs.

Cet article est basé sur le reportage de The Guardian. Lisez l'article original.