Hohe Erwartungen, begrenztes Vertrauen
Eine neue schwedische Umfrage weist auf ein Paradox im Zentrum der KI-Einführung in der Medizin hin: Die Menschen wollen, dass die Technologie besser ist als der Mensch, bevor sie bereit sind, ihr voll zu vertrauen. Laut einer Studie der Universität Göteborg erwarten sowohl Ärztinnen und Ärzte als auch Mitglieder der Öffentlichkeit in Schweden, dass in der Gesundheitsversorgung eingesetzte KI-Systeme Genauigkeitsstandards erreichen, die die derzeitige menschliche Leistung übertreffen, insbesondere in ernsten klinischen Situationen.
Das Ergebnis verdeutlicht eine harte Wahrheit für Entwickler medizinischer KI und für Gesundheitssysteme. In vielen Branchen kann neue Software eingeführt werden, wenn sie lediglich nützlich ist oder bei Kosten oder Geschwindigkeit etwas besser abschneidet. In der klinischen Versorgung ist die soziale Schwelle anders. Die Menschen wollen nicht nur Effizienz. Sie wollen ein System, das weniger gefährliche Fehler macht als die Fachkräfte, die es unterstützen oder teilweise ersetzen soll. Gleichzeitig ergab die Umfrage, dass das Vertrauen in KI eher moderat als stark ist, was darauf hindeutet, dass hohe Erwartungen schneller wachsen als Zuversicht.
Die Studie beruhte auf einer Umfrage, die im Frühjahr 2025 an 1.000 zufällig ausgewählte Personen in Schweden verschickt wurde, gleichmäßig aufgeteilt zwischen Ärztinnen und Ärzten sowie Mitgliedern der Allgemeinbevölkerung. Die Rücklaufquote lag bei 45 % unter den Ärzten und 31 % in der Öffentlichkeit. Die Teilnehmenden sollten verschiedene Gesundheitsversorgungsszenarien bewerten und angeben, welches Ausmaß an übersehenen oder falsch eingeschätzten Fällen für ein KI-System im Vergleich zur aktuellen Gesundheitsversorgung akzeptabel wäre.
Warum die Messlatte steigt, wenn KI den Raum betritt
Eines der deutlichsten Ergebnisse war, dass sich die Erwartungen in Situationen mit hohen Risiken verschärfen. In Fällen wie Brustschmerzen wollten viele Mitglieder der Öffentlichkeit keine einzige übersehene Erkrankung akzeptieren. Ärzte waren eher bereit, eine enge Fehlergrenze zu akzeptieren, was ihr praktisches Verständnis widerspiegelt, dass Screening und Diagnose immer Abwägungen zwischen falsch-negativen und falsch-positiven Ergebnissen beinhalten.
Dieser Unterschied ist wichtig, weil er ein wiederkehrendes Problem in Debatten über den Einsatz von KI hervorhebt. Genauigkeit ist keine einzelne Zahl, die die Frage abschließend beantwortet. Ein System kann so eingestellt werden, dass es weniger schwere Fälle übersieht, doch dadurch können deutlich mehr Fehlalarme entstehen. Das kann wiederum unnötige Tests auslösen, Personalzeit binden und Patienten zusätzlichen Eingriffen aussetzen. Wie der Forscher Rasmus Arvidsson in der Studienzusammenfassung anmerkte, würde ein System, das alle als krank einstuft, schwere Erkrankungen zwar nicht übersehen, wäre aber keine nützliche Medizin.
Die Herausforderung besteht also nicht einfach darin, KI empfindlicher zu machen. Es geht darum zu entscheiden, welches Fehlerverhältnis akzeptabel ist, für wen und in welchem Kontext. Die Umfrage legt nahe, dass Öffentlichkeit und Kliniker nicht immer von derselben Ausgangsposition ausgehen. Viele Bürger scheinen KI bei ernsten Erkrankungen an einem Ideal nahezu fehlerfreier Leistung zu messen, während Ärzte eher daran gewöhnt sind, innerhalb klinischer Unsicherheit zu arbeiten.
Diese Diskrepanz dürfte die Einführung prägen. Wenn Patienten nahezu Perfektion erwarten, während Krankenhäuser Werkzeuge beschaffen, die nur inkrementelle Verbesserungen bieten, ist eine Gegenreaktion absehbar. Die Studie stützt daher eine offenere öffentliche Debatte über Kompromisse, statt KI so zu vermarkten, als könne sie diese aufheben.
Nutzung verbreitet sich schneller als Vertrauen
Die Umfrage ergab außerdem, dass viele Befragte bereits irgendeine Form von KI nutzten, aber vergleichsweise wenige großes Vertrauen darin ausdrückten. Unter Ärzten war das Vertrauen in chatbasierte KI-Tools ungefähr so hoch wie das Vertrauen in KI-Systeme, die bereits zur Interpretation von EKGs eingesetzt werden. Mehr als sieben von zehn Ärzten hatten chatbasierte Tools ausprobiert, doch nur wenige nutzten sie für klinische Entscheidungen.
Dieses Muster ist aufschlussreich. Das Ausprobieren ist weit verbreitet, die berufliche Abhängigkeit bleibt jedoch begrenzt. Kliniker testen die Werkzeuge, sehen ihr Potenzial und integrieren sie vielleicht informell für Hintergrundaufgaben oder Ideengenerierung, aber sie binden sie noch nicht tief in Entscheidungen ein, für die sie direkt die Verantwortung für Patientenergebnisse tragen.
Unter der Allgemeinbevölkerung gab etwa jede zehnte befragte Person an, KI für Gesundheitsrat zu nutzen. Das ist bemerkenswert, auch wenn das Vertrauen moderat bleibt. Es deutet darauf hin, dass verbraucherorientierte KI bereits in alltägliches Gesundheitsverhalten eindringt, noch bevor ein breiter institutioneller Konsens darüber besteht, wo die Technologie in formalen Versorgungspfaden stehen sollte.
Die Kombination aus moderatem Vertrauen und sinnvoller Nutzung schafft eine Übergangsphase. KI ist im Gesundheitswesen nicht mehr hypothetisch, aber auch noch nicht als verlässliche klinische Autorität normalisiert. Für politische Entscheidungsträger und Anbieter könnte diese Zwischenphase die heikelste sein. Die Menschen sind ausreichend exponiert, um Erwartungen zu bilden, aber nicht sicher genug, um Fehler zu akzeptieren, die man menschlichen Systemen zugestehen würde.
Was die Studie zeigt und was nicht
- Sowohl Ärzte als auch die Öffentlichkeit in Schweden wollen, dass KI im Gesundheitswesen Menschen übertrifft.
- Die Erwartungen sind besonders hoch in ernsten Szenarien wie Brustschmerzen.
- Das Vertrauen in KI war moderat, und nur wenige Befragte berichteten von hohem Vertrauen.
- Mehr als sieben von zehn Ärzten hatten chatbasierte KI-Tools ausprobiert, nutzten sie aber kaum für klinische Entscheidungen.
- Etwa jede zehnte Person aus der Öffentlichkeit hatte KI für Gesundheitsrat verwendet.
Die Autoren weisen darauf hin, dass die Rücklaufquote im Rahmen ähnlicher Studien liegt, aber auch Unsicherheit darüber mit sich bringt, wie gut die Ergebnisse die breitere Bevölkerung repräsentieren. Dennoch erfasst die Umfrage eine Dynamik, die über Schweden hinausreichen dürfte. Medizinische KI wird an einem Maßstab gemessen, der nicht nur technischer Natur ist. Er ist sozial, ethisch und vergleichend. Die Menschen fragen, ob KI die bestehende Versorgung übertreffen kann, nicht nur, ob sie funktionieren kann.
Diese Unterscheidung dürfte die nächste Phase der Gesundheits-KI prägen. Systeme, die Arbeitsabläufe verbessern, aber ihr Fehlermuster nicht klar rechtfertigen können, werden es schwer haben, Vertrauen zu gewinnen. Systeme, die messbare Verbesserungen zeigen können, müssen dennoch transparent darüber kommunizieren, was sie übersehen, was sie fälschlich alarmieren und wie die Verantwortung zwischen Maschine und Kliniker aufgeteilt wird. Die schwedische Umfrage deutet darauf hin, dass die Messlatte bereits hoch liegt. Die für die Branche womöglich härtere Erkenntnis ist, dass Öffentlichkeit und Ärzte diese Messlatte noch höher legen wollen, bevor sie bereit sind, sich in der Medizin auf KI zu verlassen.
Dieser Artikel basiert auf einer Berichterstattung von Medical Xpress. Den Originalartikel lesen.
Originally published on medicalxpress.com



