تناقض كاشف في طريقة الحكم على التواصل المُولّد بالذكاء الاصطناعي
مع انتشار الذكاء الاصطناعي التوليدي في الكتابة اليومية، أصبح سؤال اجتماعي أساسي أصعب في الإجابة: كيف يتفاعل الناس عندما تكون رسالة شخصية قد كُتبت بواسطة آلة؟ تشير تجربتان جديدتان ناقشتهما Fast Company إلى أن الإجابة أكثر تناقضًا مما قد يتوقعه كثيرون. فالناس يعاقبون بشدة الرسائل الشخصية المولّدة بالذكاء الاصطناعي عندما يعلمون أن الذكاء الاصطناعي استُخدم، لكنهم عمومًا لا يشكون في ذلك افتراضيًا، حتى عندما يكون النص الذي يقرؤونه قد وُلد بواسطة نموذج.
التحقيق، الذي أُجري مع أكثر من 1300 مشارك مقيم في الولايات المتحدة تتراوح أعمارهم بين 18 و84 عامًا، فحص كيف قيّم المستلمون المرسلين استنادًا إلى رسائل مثل اعتذار أُرسل عبر البريد الإلكتروني أو الرسائل النصية. قُسِّم المشاركون إلى أربع مجموعات. بعضهم رأى الرسائل من دون أي معلومات عن المؤلف. وآخرون أُبلغوا بأن الرسائل كُتبت بالتأكيد بواسطة إنسان، أو وُلدت بالتأكيد بواسطة الذكاء الاصطناعي، أو ربما كانت من أيٍّ منهما.
أظهرت النتائج وجود عقوبة اجتماعية واضحة مرتبطة بالإفصاح عن تأليف الذكاء الاصطناعي. عندما علم الناس أن رسالة ما مولّدة بالذكاء الاصطناعي، قيّموا المرسل بصورة أكثر سلبية، مستخدمين أوصافًا مثل كسول، وغير صادق، ويفتقر إلى الجهد. أما عندما اعتقدوا أن النص نفسه جاء من إنسان، فقد وصفوه بأنه حقيقي، وممتن، ومراعٍ.
الجزء المدهش: معظم الناس لا يبدو أنهم يشكّون
النتيجة الأكثر إثارة للدهشة لم تكن أن الإفصاح عن استخدام الذكاء الاصطناعي غيّر الآراء، بل إن عدم الإفصاح لم يفعل ذلك. المشاركون الذين لم يتلقوا أي معلومات عن المؤلف كوّنوا انطباعات إيجابية تمامًا مثل أولئك الذين أُبلغوا صراحة بأن الرسائل كتبها إنسان.
تشير هذه النتيجة إلى عدم تماثل مهم في بيئة التواصل الحالية. كثير من الناس مستعدون لمعاقبة استخدام الذكاء الاصطناعي بمجرد أن يصبح مرئيًا، لكنهم لم يعودوا بعد إلى التعامل مع الكتابة الشخصية بقدر أساسي من الشك. في الحياة اليومية، قد يظل المستلمون يفترضون أن الرسائل التي تبدو صادقة تعكس جهد الشخص نفسه، حتى عندما تكون أنظمة الذكاء الاصطناعي قادرة على إنتاج نص مفصل ومناسب عاطفيًا.
يبدو أن الباحثين توقعوا أن الألفة العامة المتزايدة مع الذكاء الاصطناعي التوليدي قد تجعل الناس أكثر حذرًا بالفعل. لكن الافتراض الافتراضي ظل بشريًا إلى حد كبير. عمليًا، هذا يعني أن الذكاء الاصطناعي يمكن أن يؤثر في الأحكام الاجتماعية من دون أن يُعترف به أصلًا كعامل، ما دام دوره غير مُفصح عنه.


