Une contradiction révélatrice dans la façon dont les gens jugent la communication générée par l’IA
À mesure que l’IA générative se répand dans l’écriture quotidienne, une question sociale de base devient plus difficile à trancher : comment les gens réagissent-ils lorsqu’un message personnel est écrit par une machine ? Deux nouvelles expériences évoquées par Fast Company suggèrent que la réponse est plus contradictoire qu’on pourrait le penser. Les gens pénalisent fortement les messages personnels générés par l’IA lorsqu’ils savent que l’IA a été utilisée, mais ils ne soupçonnent généralement pas l’IA par défaut, même lorsque le texte qu’ils lisent a été généré par un modèle.
La recherche, menée auprès de plus de 1 300 participants basés aux États-Unis, âgés de 18 à 84 ans, a examiné la manière dont les destinataires jugeaient les expéditeurs à partir de messages comme des excuses envoyées par e-mail ou par SMS. Les participants ont été répartis en quatre groupes. Certains ont vu les messages sans aucune information sur l’auteur. D’autres ont été informés que les messages avaient été clairement écrits par un humain, clairement générés par une IA, ou qu’ils pouvaient avoir été rédigés par l’un ou l’autre.
Les résultats ont mis en évidence une nette sanction sociale associée à la divulgation d’une paternité par l’IA. Lorsque les personnes savaient qu’un message avait été généré par une IA, elles évaluaient l’expéditeur plus négativement, en utilisant des termes comme paresseux, insincère et manquant d’effort. Lorsqu’elles pensaient que le même texte venait d’un humain, elles le décrivaient au contraire comme authentique, reconnaissant et attentionné.
La partie frappante : la plupart des gens ne semblent pas méfiants
Le résultat le plus surprenant n’était pas que la divulgation de l’IA modifie les opinions. C’est que l’IA non divulguée ne le faisait pas. Les participants qui n’avaient reçu aucune information sur l’auteur se sont formé des impressions aussi positives que celles des personnes explicitement informées que les messages avaient été écrits par un humain.
Ce résultat révèle une asymétrie importante dans l’environnement actuel de la communication. Beaucoup de gens sont prêts à sanctionner l’usage de l’IA une fois qu’il est visible, mais ils n’abordent pas encore l’écriture personnelle avec un scepticisme de base. Dans la vie courante, les destinataires peuvent toujours supposer que les messages qui semblent sincères reflètent l’effort propre d’une personne, même lorsque les systèmes d’IA sont capables de produire un texte détaillé et émotionnellement approprié.
Les chercheurs semblaient s’attendre à ce que la familiarité croissante du public avec l’IA générative rende déjà les gens plus prudents. Au lieu de cela, l’hypothèse par défaut restait largement humaine. En pratique, cela signifie que l’IA peut influencer les jugements sociaux sans être reconnue comme un facteur, à condition que son rôle ne soit pas divulgué.


