استخدام الذكاء الاصطناعي على المستوى الشخصي يصطدم بمخاطر خصوصية غير محسومة
يتجه المستهلكون بشكل متزايد إلى روبوتات الدردشة باعتبارها محاورين لكل شيء تقريبًا. فهم يطلبون منها المساعدة في الأمور المالية، والأسئلة الصحية، والضغط العاطفي، واتخاذ القرارات الخاصة. لكن مع ازدياد شيوع هذا السلوك، تبرز حقيقة صعبة أيضًا: قد يكون كثير من الناس يكشفون معلومات شديدة الحساسية لأنظمة لا تزال حدود الخصوصية طويلة الأمد فيها غير واضحة.
يلخص تقرير جديد من ZDNET جوهر القلق. ويقول الباحثون الذين يدرسون عواقب إدخال المعلومات الشخصية في أنظمة الذكاء الاصطناعي إن المشكلة لا تكمن فقط في ما تجمعه الشركات الآن، بل في ما لا يستطيع المستخدمون التحكم فيه بشكل موثوق بمجرد دخول تلك المعلومات إلى منظومة النموذج. وقالت جينيفر كينغ، الزميلة في مجال الخصوصية وسياسات البيانات في معهد ستانفورد للذكاء الاصطناعي المتمحور حول الإنسان، لـ ZDNET: “لا يمكنك ببساطة التحكم في أين تذهب المعلومات”، محذرة من أنها قد تتسرب بطرق لا يتوقعها المستخدمون.
روبوتات الدردشة مصممة لإبقاء الناس يتحدثون
يتضخم هذا الخطر بفعل التصميم. فواجهات النماذج اللغوية الكبيرة صُممت لتكون حوارية وسريعة الاستجابة ومطمئنة. وهذا يجعلها مفيدة، لكنه يجعلها أيضًا فعالة على نحو غير معتاد في استخراج معلومات قد يتردد الناس في مشاركتها في مكان آخر. ويعرض ZDNET المسألة بعبارات يومية أصبحت أكثر واقعية: يستخدم الناس روبوتات الدردشة لتفسير نتائج المختبر، أو فرز شؤونهم المالية الشخصية، أو طلب النصيحة في لحظات القلق المتأخر ليلًا.
هذا النوع من الاستخدام لم يعد هامشيًا. ويستشهد المقال بدراسة أجرتها جامعة إيلون في عام 2025 وجدت أن قليلاً أكثر من نصف البالغين في الولايات المتحدة يستخدمون النماذج اللغوية الكبيرة. وإذا استمر هذا المستوى من التبني، فإن أسئلة الخصوصية التي كانت تعامل سابقًا كحالات نادرة ستصبح الآن مرتبطة بسلوك جماهيري واسع. فالقضية ليست ببساطة ما إذا كان عدد قليل من المستخدمين المفرطين في الاستخدام يفرطون في الإفصاح، بل ما إذا كانت عادة رقمية سائدة تتشكل حول أنظمة لا يزال الجمهور لا يفهمها جيدًا.
والنتيجة هي عدم تطابق جديد. قد يشعر المستخدمون بأن روبوتات الدردشة أدوات ذات طابع خاص، حتى عندما تكون الحقائق القانونية والتقنية والتنظيمية وراءها أكثر تعقيدًا بكثير. تبدو الواجهة حميمة. أما بيئة البيانات فقد لا تكون كذلك.
ما يزال الحفظ والاسترجاع والمراقبة من المخاوف المفتوحة
أحد أصعب الأسئلة هو ما إذا كانت النماذج تستطيع حفظ المعلومات الحساسة، وما إذا كان يمكن لاحقًا استرجاع تلك المادة كاملة أو جزئيًا. ويشير ZDNET إلى أن مسألة الحفظ هي واحدة من الشكاوى الأساسية في دعوى صحيفة New York Times ضد OpenAI، بينما قالت OpenAI في عام 2024 إن “إعادة اللفظ بشكل آلي هي خلل نادر” تحاول التخلص منه.
والفكرة الأوسع هي أن عدم اليقين نفسه جزء من الخطر. فليس على الباحثين أن يثبتوا أن كل إفصاح خاص سيعاد إنتاجه حرفيًا حتى يبرروا الحذر. وإذا لم يكن هناك فهم عام موثوق لمدى حدوث الحفظ، أو الظروف التي قد تظهر فيها المعلومات لاحقًا، أو مدى قوة الضمانات فعلًا، فإن المستخدمين يتخذون قرارات الخصوصية في الظلام.
ويشير تحذير كينغ، كما نقله ZDNET، أيضًا إلى طبقة أخرى: الاعتماد على إدارة الشركات. فالمستخدمون يثقون فعليًا بأن الشركات ستضع ضوابط تمنع تسرب المعلومات المحفوظة أو الحساسة إلى الخارج مرة أخرى. وهذا يعني أن نتائج الخصوصية لا تعتمد على التصميم التقني فقط، بل على الحوافز، والحوكمة، والتنفيذ، والاستمرار في اليقظة بعد وقت طويل من إغلاق نافذة المحادثة.
قد يكون التحول الاجتماعي أسرع من الضمانات
ما يجعل المسألة أكثر إلحاحًا هو الطريقة التي تنتقل بها روبوتات الدردشة من أدوات لإنجاز المهام إلى أنظمة تشبه العلاقات. ويشير ZDNET إلى أن بعض الناس كوّنوا علاقات عاطفية مع روبوتات الدردشة أو يستخدمونها كمدربين للحياة ومعالجين نفسيين. وسواء أصبحت هذه الاستخدامات مهيمنة أم لا، فهي تكشف اتجاهًا مهمًا: إذ يُطلب من أنظمة الذكاء الاصطناعي بشكل متزايد التعامل مع نوعية المواد التي كانت محفوظة سابقًا للأطباء، والمستشارين، والأصدقاء المقربين، أو اليوميات الخاصة.
هذا التحول يغير مستوى المخاطر. فإفشاء استعلام عن التسوق شيء، وإفشاء عن الصحة النفسية أو صعوبة مالية أو قلق طبي شيء آخر. وحتى عندما لا تُكشف البيانات علنًا، فإن الآثار اللاحقة للاحتفاظ بها، أو الوصول الداخلي إليها، أو استخدامها في تدريب النماذج، أو تغييرات السياسات، قد تظل مهمة. والخصوصية هنا ليست مجرد مسألة إحراج. بل قد تؤثر في التصنيف المستقبلي للأفراد، والاستهداف التجاري، واستعداد المستخدمين لطلب المساعدة بصدق.
كما يسلط المقال الضوء على قضية ثقافية. فقد لا يتوقف الناس لتقييم هذه المخاطر لأن روبوتات الدردشة أصبحت شيئًا عاديًا. فهي متاحة في أي وقت، وتقدم ردودًا سلسة، وتخلق إحساسًا بالعجلة يشجع على الإفصاح قبل التفكير. وهذه السهولة هي أحد أسباب ارتفاع معدلات التبني. وهي أيضًا أحد أسباب تأخر الحذر عن السلوك.
إشارة تحذير للمرحلة التالية من تبني الذكاء الاصطناعي
ليس الجدل الحالي دعوة إلى التخلي عن روبوتات الدردشة. بل هو تذكير بأن الاستخدام الاجتماعي للذكاء الاصطناعي يتوسع أسرع من فهم الجمهور للمقايضات المتعلقة بالخصوصية. وقد يصبح الفارق بين الأمرين خطرًا إذا افترض المستهلكون أن الحميمية تعني السرية.
تفيد صياغة ZDNET لأنها لا تتظاهر بأن المشكلة حُلت. فما يزال الباحثون يحاولون فهم الآثار الكاملة لمشاركة المعلومات الشخصية مع روبوتات الدردشة. وهذا الغموض هو بالضبط سبب استحقاق المسألة مزيدًا من الاهتمام الآن، لا لاحقًا. فبمجرد أن تصبح التقنية جزءًا من عادة يومية، يصبح تغيير سلوك المستخدمين أصعب بكثير من تشكيله مبكرًا.
والدرس العملي واضح. كلما أصبحت أنظمة الذكاء الاصطناعي أكثر قدرة وأكثر شخصية، زاد احتمال أن يعاملها الناس كجهات موثوقة لتلقي المعلومات الحساسة. ما لم تواجه الشركات والجهات التنظيمية والمستخدمون هذه الحقيقة مباشرة، فقد تُعرَّف المرحلة التالية من تبني الذكاء الاصطناعي ليس فقط بما يمكن لروبوتات الدردشة فعله، بل أيضًا بكمية ما افترض كثيرون خطأً أنه آمن لقوله لها.
هذا المقال يستند إلى تقرير من ZDNET. اقرأ المقال الأصلي.




