Ein aufschlussreicher Widerspruch darin, wie Menschen KI-generierte Kommunikation bewerten

Mit der Verbreitung generativer KI im alltäglichen Schreiben wird eine grundlegende soziale Frage immer schwerer zu beantworten: Wie reagieren Menschen, wenn eine persönliche Nachricht von einer Maschine geschrieben wurde? Zwei neue, von Fast Company besprochene Experimente legen nahe, dass die Antwort widersprüchlicher ist, als viele erwarten würden. Menschen bestrafen KI-generierte persönliche Nachrichten deutlich, wenn sie wissen, dass KI verwendet wurde, aber sie vermuten im Allgemeinen nicht automatisch KI, selbst wenn der Text, den sie lesen, von einem Modell erzeugt wurde.

Die Studie, an der mehr als 1.300 Teilnehmende in den USA im Alter von 18 bis 84 Jahren teilnahmen, untersuchte, wie Empfänger Absender anhand von Nachrichten wie einer per E-Mail oder Text gesendeten Entschuldigung bewerten. Die Teilnehmenden wurden in vier Gruppen aufgeteilt. Einige sahen die Nachrichten ohne Angaben zur Urheberschaft. Andere wurden darüber informiert, dass die Nachrichten definitiv von einem Menschen geschrieben, definitiv von KI generiert oder möglicherweise von beidem verfasst worden waren.

Die Ergebnisse zeigten eine klare soziale Strafe, die mit offengelegter KI-Autorschaft verbunden ist. Wenn Menschen wussten, dass eine Nachricht von KI generiert wurde, bewerteten sie den Absender negativer und verwendeten Begriffe wie faul, unehrlich und wenig bemüht. Wenn sie glaubten, derselbe Text stamme von einem Menschen, beschrieben sie ihn dagegen als authentisch, dankbar und nachdenklich.

Der überraschende Teil: Die meisten Menschen scheinen nicht misstrauisch zu sein

Das überraschendste Ergebnis war nicht, dass offengelegte KI die Meinungen veränderte. Es war, dass nicht offengelegte KI dies nicht tat. Teilnehmende, die keine Informationen zur Urheberschaft erhalten hatten, bildeten sich ebenso positive Eindrücke wie Personen, denen ausdrücklich gesagt worden war, die Nachrichten seien von einem Menschen geschrieben worden.

Dieser Befund weist auf eine wichtige Asymmetrie in der heutigen Kommunikationsumgebung hin. Viele Menschen sind bereit, den Einsatz von KI zu bestrafen, sobald er sichtbar wird, gehen persönliche Texte aber noch nicht mit grundsätzlicher Skepsis an. Im Alltag nehmen Empfänger möglicherweise weiterhin an, dass gefühlvolle Nachrichten die eigene Mühe einer Person widerspiegeln, selbst wenn KI-Systeme in der Lage sind, detaillierten und emotional passenden Text zu erzeugen.

Die Forschenden hatten offenbar erwartet, dass die wachsende öffentliche Vertrautheit mit generativer KI die Menschen bereits vorsichtiger machen würde. Stattdessen blieb die Standardannahme überwiegend menschlich. Praktisch bedeutet das, dass KI soziale Urteile beeinflussen kann, ohne überhaupt als Faktor erkannt zu werden, solange ihre Rolle nicht offengelegt wird.