La Pennsylvanie porte devant les tribunaux une affaire d’IA liée à la santé

L’État de Pennsylvanie a poursuivi Character.AI, accusant l’entreprise d’avoir illégalement présenté un chatbot comme un médecin agréé dans l’État. D’après le matériau source, l’accusation porte sur la manière dont une personnalité générée a été décrite ou proposée aux utilisateurs, et pas seulement sur l’existence de conversations à thème médical. Cette distinction est importante, car elle fait passer l’affaire d’un débat général sur les conseils de l’IA à une question réglementaire plus concrète sur la représentation professionnelle.

Les produits d’IA liés à la santé se sont développés rapidement, souvent plus vite que les règles qui encadrent leur commercialisation. De nombreux systèmes sont présentés comme des compagnons, des assistants ou des outils d’information. L’exposition juridique augmente lorsque ces systèmes semblent franchir la ligne de la pratique agréée ou suggérer à tort des qualifications professionnelles. La plainte de la Pennsylvanie montre que les autorités de l’État sont prêtes à tester ces limites devant les tribunaux.

Le cœur du problème est la représentation, pas seulement la capacité

Le texte source indique que la Pennsylvanie allègue que Character.AI a illégalement présenté un chatbot comme un médecin agréé. Même sans le texte complet de la plainte, cette affirmation est déjà lourde de sens. Les régulateurs considèrent depuis longtemps l’exercice illégal de la médecine et la fausse représentation de titres médicaux comme des questions majeures de protection du public. Si un chatbot est présenté d’une manière qui laisse entendre qu’un clinicien réel et agréé se trouve derrière lui, les autorités peuvent y voir quelque chose de matériellement différent d’un assistant conversationnel générique qui parle de santé.

C’est l’une des tensions juridiques centrales de l’IA appliquée. Les grands modèles de langage peuvent produire des réponses fluides et autoritaires dans des domaines où la confiance et l’expertise comptent. Les utilisateurs ne distinguent pas toujours une simulation d’expertise d’un véritable encadrement par un professionnel qualifié, surtout lorsque le produit repose sur des personnages très réalistes. C’est précisément dans cet écart entre impression et réalité que le risque d’application des règles tend à apparaître.