Pennsylvania bringt einen KI-Fall mit Gesundheitsbezug vor Gericht

Der Bundesstaat Pennsylvania hat Character.AI verklagt und wirft dem Unternehmen vor, einen Chatbot im Staat illegal als zugelassenen Arzt dargestellt zu haben. Auf Basis des Ausgangsmaterials dreht sich der Vorwurf um die Art und Weise, wie eine generierte Persona beschrieben oder Nutzern angeboten wurde, nicht bloß um das Vorhandensein medizinisch geprägter Gespräche. Diese Unterscheidung ist wichtig, weil sie die Sache von einer allgemeinen Debatte über KI-Ratschläge hin zu einer konkreteren Regulierungsfrage über berufliche Darstellung verschiebt.

Gesundheitsbezogene KI-Produkte haben sich schnell ausgebreitet, oft schneller als die Regeln, die ihre Vermarktung steuern. Viele Systeme werden als Begleiter, Assistenten oder Informationswerkzeuge positioniert. Das rechtliche Risiko steigt, wenn solche Systeme scheinbar in den Bereich einer zugelassenen Berufsausübung vorstoßen oder fälschlich berufliche Qualifikationen suggerieren. Die Klage Pennsylvanias zeigt, dass die Behörden des Bundesstaats bereit sind, diese Grenzen vor Gericht zu testen.

Der Kern des Problems ist die Darstellung, nicht nur die Fähigkeit

Der Quellentext sagt, Pennsylvania behaupte, Character.AI habe einen Chatbot illegal als zugelassenen Arzt dargestellt. Auch ohne den vollständigen Klageantrag ist diese Behauptung erheblich. Aufsichtsbehörden behandeln die unlizenzierte Ausübung der Medizin und die falsche Darstellung medizinischer Qualifikationen seit langem als hochrelevante Fragen des öffentlichen Schutzes. Wenn ein Chatbot so präsentiert wird, dass der Eindruck entsteht, ein echter, zugelassener Kliniker stehe dahinter, kann das aus Sicht der Behörden etwas grundlegend anderes sein als ein allgemeiner Gesprächsassistent, der über Gesundheitsthemen spricht.

Das ist eine der zentralen rechtlichen Spannungen in angewandter KI. Große Sprachmodelle können in Bereichen, in denen Vertrauen und Expertise zählen, flüssige und autoritativ klingende Antworten erzeugen. Nutzer unterscheiden nicht immer zwischen einer Simulation von Fachwissen und echter qualifizierter Aufsicht, besonders wenn ein Produkt um lebensechte Personas herum gebaut ist. Genau an dieser Lücke zwischen Eindruck und Realität entsteht typischerweise das Vollzugsrisiko.