Uma contradição reveladora em como as pessoas julgam a comunicação gerada por IA
À medida que a IA generativa se espalha pela escrita cotidiana, uma pergunta social básica fica mais difícil de responder: como as pessoas reagem quando uma mensagem pessoal foi escrita por uma máquina? Dois novos experimentos discutidos pela Fast Company sugerem que a resposta é mais contraditória do que muitos poderiam imaginar. As pessoas punem fortemente mensagens pessoais geradas por IA quando sabem que a IA foi usada, mas geralmente não suspeitam de IA por padrão, mesmo quando o texto que leem foi gerado por um modelo.
A pesquisa, conduzida com mais de 1.300 participantes nos Estados Unidos, entre 18 e 84 anos, examinou como os destinatários julgavam os remetentes com base em mensagens como um pedido de desculpas enviado por e-mail ou por texto. Os participantes foram divididos em quatro grupos. Alguns viram as mensagens sem nenhuma informação sobre a autoria. Outros foram informados de que as mensagens haviam sido definitivamente escritas por um humano, definitivamente geradas por IA, ou poderiam ter sido qualquer uma das duas.
Os resultados expuseram uma clara penalização social ligada à autoria divulgada por IA. Quando as pessoas sabiam que uma mensagem havia sido gerada por IA, avaliavam o remetente de forma mais negativa, usando termos como preguiçoso, insincero e sem esforço. Quando acreditavam que o mesmo texto vinha de um humano, em vez disso o descreviam como genuíno, grato e atencioso.
A parte impressionante: a maioria das pessoas não parece suspeitar
O resultado mais surpreendente não foi que a IA divulgada mudou opiniões. Foi que a IA não divulgada não mudou. Os participantes que não receberam nenhuma informação sobre a autoria formaram impressões tão positivas quanto as das pessoas explicitamente informadas de que as mensagens haviam sido escritas por um humano.
Esse achado aponta para uma assimetria importante no ambiente de comunicação atual. Muitas pessoas estão dispostas a punir o uso de IA assim que ele se torna visível, mas ainda não abordam a escrita pessoal com desconfiança de base. Na vida cotidiana, os destinatários ainda podem presumir que mensagens com tom sincero refletem o próprio esforço de uma pessoa, mesmo quando os sistemas de IA são capazes de produzir texto detalhado e emocionalmente adequado.
Os pesquisadores pareciam esperar que a crescente familiaridade pública com a IA generativa já estivesse tornando as pessoas mais cautelosas. Em vez disso, a suposição padrão permaneceu esmagadoramente humana. Em termos práticos, isso significa que a IA pode influenciar julgamentos sociais sem ser reconhecida como fator algum, desde que seu papel não seja divulgado.


