Una contradicción reveladora en la forma en que se juzga la comunicación generada por IA
A medida que la IA generativa se extiende a la escritura cotidiana, una pregunta social básica se vuelve más difícil de responder: ¿cómo reacciona la gente cuando un mensaje personal ha sido escrito por una máquina? Dos nuevos experimentos comentados por Fast Company sugieren que la respuesta es más contradictoria de lo que muchos podrían esperar. Las personas penalizan con fuerza los mensajes personales generados por IA cuando saben que se usó IA, pero en general no sospechan de la IA por defecto, incluso cuando el texto que leen fue generado por un modelo.
La investigación, realizada con más de 1.300 participantes radicados en Estados Unidos, de entre 18 y 84 años, examinó cómo los destinatarios juzgaban a los remitentes a partir de mensajes como una disculpa enviada por correo electrónico o por texto. Los participantes se dividieron en cuatro grupos. Algunos vieron los mensajes sin información sobre la autoría. A otros se les dijo que los mensajes habían sido escritos definitivamente por un humano, generados definitivamente por IA, o que podían haber sido cualquiera de las dos cosas.
Los resultados expusieron una clara penalización social ligada a la autoría de IA cuando esta se revela. Cuando la gente sabía que un mensaje había sido generado por IA, valoraba al remitente de forma más negativa, usando términos como perezoso, insincero y poco esforzado. Cuando creían que el mismo texto provenía de un humano, en cambio lo describían como genuino, agradecido y considerado.
La parte sorprendente: la mayoría de la gente no parece sospechar
El resultado más sorprendente no fue que la IA revelada cambiara las opiniones. Fue que la IA no revelada no lo hizo. Los participantes que no recibieron información sobre la autoría formaron impresiones tan positivas como las de las personas a quienes se les dijo explícitamente que los mensajes habían sido escritos por un humano.
Ese hallazgo apunta a una asimetría importante en el entorno comunicativo actual. Muchas personas están dispuestas a castigar el uso de IA una vez que es visible, pero todavía no abordan la escritura personal con escepticismo de base. En la vida ordinaria, los destinatarios pueden seguir suponiendo que los mensajes que suenan sinceros reflejan el propio esfuerzo de una persona, incluso cuando los sistemas de IA son capaces de producir texto detallado y emocionalmente adecuado.
Los investigadores parecían haber esperado que la creciente familiaridad pública con la IA generativa ya estuviera volviendo a la gente más cauta. En cambio, la suposición por defecto siguió siendo abrumadoramente humana. En términos prácticos, eso significa que la IA puede influir en los juicios sociales sin ser reconocida en absoluto como un factor, siempre que su papel no se divulgue.


