AI生成コミュニケーションを人はどう評価するのか、その矛盾を示す結果
生成AIが日常の文章作成に広がるにつれ、基本的な社会的問いが答えにくくなっている。個人的なメッセージが機械によって書かれたとき、人はどう反応するのか。Fast Company が紹介した2つの新しい実験は、その答えが多くの人の予想よりもはるかに矛盾していることを示している。AIで作られた個人的なメッセージは、AIを使ったと知らされた場合には強く不利に評価されるが、読んでいる文面がモデル生成であっても、開示されていなければ人々は基本的に疑わない。
この研究は、18歳から84歳までの米国在住参加者1,300人超を対象に実施され、メールやテキストで送られる謝罪文のようなメッセージを受け取った人が送信者をどう評価するかを調べた。参加者は4つのグループに分けられた。著者情報が一切ない状態でメッセージを見る人もいれば、メッセージが確実に人間によって書かれた、確実にAIによって生成された、あるいはどちらかの可能性があると伝えられた人もいた。
結果は、AIの関与が明かされたときに明確な社会的ペナルティが生じることを示した。メッセージがAI生成だと知った人は、送信者をより否定的に評価し、「怠けている」「誠実さがない」「努力が足りない」といった言葉を使った。一方、同じ文面が人間によるものだと思った場合は、「本物らしい」「感謝がある」「思慮深い」と表現した。
驚くべき点: ほとんどの人は疑っていないようだ
最も驚くべき結果は、AIが明かされると意見が変わることではなかった。明かされていないAIが、意見を変えなかったことだ。著者情報を与えられなかった参加者は、メッセージが人間によって書かれたと明示された人たちと同じくらい前向きな印象を持った。
この結果は、現在のコミュニケーション環境にある重要な非対称性を示している。多くの人は、AIの使用が見えるようになるとそれを罰するが、個人的な文章に対してはまだ基本的な疑念を持っていない。日常生活では、感情のこもったメッセージは人の努力の表れだと受け取られがちだが、AIシステムは詳細で感情に適した文章を作ることができる。
研究者は、生成AIへの世間の親しみがすでに人々をより警戒的にしていると予想していたようだ。だが実際には、デフォルトの前提は圧倒的に「人間が書いたもの」だった。実務的には、開示されない限り、AIは社会的判断に影響を与えていても要因として認識されないということだ。


