مرحلة الذكاء الاصطناعي في الجريمة الإلكترونية تتسارع

لم يعد الذكاء الاصطناعي التوليدي يغيّر فقط برامج الإنتاجية وأدوات المستهلكين. بل إنه يعيد تشكيل الاحتيال عبر الإنترنت والجريمة الإلكترونية أيضًا. في عدد 24 أبريل من The Download، سلّطت MIT Technology Review الضوء على اتجاه أساسي: عمليات الاحتيال المدفوعة بالذكاء الاصطناعي تتوسع، والمؤسسات تكافح لمواكبة حجم الهجمات وسرعتها.

وتربط المجلة هذا التحول بإطلاق ChatGPT في أواخر عام 2022، عندما جعلت النماذج اللغوية الكبيرة من السهل توليد نص مقنع يشبه أسلوب البشر. وسرعان ما أدرك مجرمو الإنترنت قيمته. ووفقًا للنص المرفق، بدأوا باستخدام نماذج اللغة الكبيرة لكتابة رسائل بريد إلكتروني خبيثة، ثم توسعوا منذ ذلك الحين إلى التصيد المعزز، والتزييف العميق شديد الواقعية، وعمليات فحص الثغرات الآلية.

والأهم هو اتجاه هذا المسار. فالذكاء الاصطناعي يخفض كلفة إنشاء الهجمات مع زيادة الحجم والمصداقية في الوقت نفسه. وهذا المزيج يغير معادلة الأمن بالنسبة إلى كل مؤسسة تقريبًا لها حضور رقمي علني.

لماذا تتفاقم المشكلة

صياغة MIT Technology Review مباشرة: الذكاء الاصطناعي يجعل الهجمات أسرع وأرخص وأسهل تنفيذًا. ويضيف المقال أن العديد من المؤسسات تكافح للتعامل مع الحجم الهائل للهجمات الإلكترونية، وأن المشكلة مرشحة للتفاقم مع تبني مزيد من المجرمين لهذه الأدوات وتحسن الأدوات نفسها.

هذا تحذير بنيوي، وليس حكاية عابرة. تعتمد دفاعات الأمن السيبراني التقليدية غالبًا على مزيج من الاحتكاك وقابلية الاكتشاف وكلفة المهاجم. ويضعف الذكاء الاصطناعي التوليدي هذه العناصر الثلاثة كلها. فهو يمكّن الجهات الخبيثة من إنتاج نصوص مصقولة، وتقليد الأصوات أو الصور بمزيد من المصداقية، وأتمتة مهام البحث أو الفحص التي كانت تحتاج إلى وقت أو مهارة أكبر.

والنتيجة ليست مجرد تصيد أفضل، بل استهداف مؤسسي على نطاق صناعي.

من رسائل البريد الخبيثة إلى الإقناع الاصطناعي

كانت الموجة الأولى الظاهرة لاستخدام الذكاء الاصطناعي في الجريمة هي توليد النصوص. فإذا كان التصيد الاحتيالي يتباطأ سابقًا بسبب ضعف القواعد أو الصياغة غير المألوفة أو الأسلوب غير المتسق، فقد تآكل هذا الحاجز. تجعل النماذج اللغوية الكبيرة من السهل إنشاء رسائل تبدو مترابطة، واعية بالسياق، ومصممة خصيصًا للهدف.

لكن التقرير المرفق يوضح أن المجال تجاوز كتابة البريد الإلكتروني. فالتزييف العميق شديد الواقعية يمد الاحتيال إلى الصوت والفيديو ومحاكاة الهوية. وتضيف عمليات فحص الثغرات الآلية طبقة تقنية تساعد المهاجمين على استكشاف الأنظمة بسرعة. وهذه ليست تكتيكات منفصلة. وعند استخدامها معًا، يمكنها دعم حملات أوسع تجمع بين الهندسة الاجتماعية واستغلال الأنظمة عند توفر الفرصة.

وهذا التقاطع هو ما يجعل اللحظة الحالية مختلفة. فالذكاء الاصطناعي ليس مجرد أداة جديدة في صندوق أدوات المهاجم؛ بل أصبح على نحو متزايد الطبقة الرابطة التي تساعد عمليات الاحتيال على العمل على نطاق واسع.

لماذا تتعرض المؤسسات للضغط

التحدي أمام المدافعين لا يتعلق فقط بالتعقيد التقني، بل بالحجم أيضًا. فالمهاجم ذو القدرات المتوسطة يمكنه الآن توليد رسائل وأنماط وتجارب اختبار مخصصة أكثر بكثير من ذي قبل. وهذا يخلق ضوضاء، ويرفع احتمال نجاح إحدى المحاولات، ويفرض على المدافعين قضاء وقت أطول في الفرز.

تحذير MIT Technology Review من أن المؤسسات تكافح الحجم الهائل للهجمات يعكس تحولًا شعر به كثير من فرق الأمن بالفعل. وحتى عندما لا تكون أي عملية احتيال منفردة متقدمة جدًا، فإن الأثر التراكمي لمحاولات كثيرة مدعومة بالذكاء الاصطناعي يمكن أن يرهق الموظفين والأنظمة.

وهذا صحيح بشكل خاص عندما يمتد الخداع عبر قنوات متعددة. فإذا أمكن توليد البريد الإلكتروني والصوت والفيديو اصطناعيًا أو تكييفها بكلفة منخفضة، تصبح عملية التحقق أكثر استهلاكًا للجهد. وتصبح مسارات الثقة التي كانت تعتمد سابقًا على نبرة معينة أو أسلوب كتابة أو وجه مألوف أقل موثوقية.

الدلالة الأوسع لهذا التحذير

تصنف المجلة “الاحتيالات المعززة بقوة” باعتبارها إحدى أهم 10 قضايا في الذكاء الاصطناعي الآن. وهذه الصياغة التحريرية مهمة لأنها تضع الاستخدام الإجرامي إلى جانب تطوير النماذج الرئيسية والنشر التجاري بوصفه سمة محددة للمرحلة الحالية من المجال.

بعبارة أخرى، لم يعد خطر الذكاء الاصطناعي موضوعًا جانبيًا منفصلًا عن طفرة الذكاء الاصطناعي. إنه جزء من هذه الطفرة.

ولا يقدم النص المرفق حلًا سياسيا محددًا أو مخططًا دفاعيًا. لكنه يدعم استنتاجًا قويًا: الآثار الأمنية للذكاء الاصطناعي التوليدي لم تعد افتراضية، ومساحة الهجوم تتسع مع انتشار القدرات.

ما الذي يعنيه هذا للمرحلة التالية من تبني الذكاء الاصطناعي

مع ازدياد رخص أنظمة الذكاء الاصطناعي واندماجها أكثر في البرمجيات اليومية، يُرجح أن تصبح منحنى التعلم الإجرامي أكثر تسطحًا. ويمكن إعادة توظيف الأدوات التي تبدأ كنظم إنتاجية عامة أو تكييفها أو محاكاتها لأغراض خبيثة. وكل تحسن في الواقعية والسرعة وسهولة الوصول يؤثر في كل من الفاعلين الشرعيين وغير الشرعيين.

هذا لا يعني أن كل ميزة جديدة في الذكاء الاصطناعي ستزيد الجريمة الإلكترونية بشكل خطي. لكن التقرير المرفق يشير بوضوح إلى أن العوائق أمام إطلاق عمليات احتيال مقنعة قد انخفضت بالفعل. والقلق الآن أقل تعلقًا بسؤال ما إذا كان المجرمون سيستخدمون الذكاء الاصطناعي، وأكثر تعلقًا بسرعة قدرة الدفاعات على التكيف مع الخداع الروتيني المدعوم بالذكاء الاصطناعي.

قصة أمنية، وليست مجرد قصة ذكاء اصطناعي

يميل التغطية الإعلامية للذكاء الاصطناعي إلى التركيز على النماذج المتقدمة، والإطلاقات التنافسية، وعمليات طرح المنتجات. لكن تركيز MIT Technology Review على الاحتيالات يذكّر بأن الآثار الاجتماعية الأكثر إلحاحًا للذكاء الاصطناعي قد تأتي عبر سوء الاستخدام، لا عبر الابتكار التسويقي.

وهذا يجعلها قضية حوكمة وتشغيل بقدر ما هي قضية تقنية. فالمؤسسات التي تنظر إلى الذكاء الاصطناعي فقط بوصفه أداة للإنتاجية الداخلية قد تغفل واقعًا أكثر إلحاحًا: الخصوم يتبنون الفئة نفسها من الأدوات لشن هجمات أكثر كفاءة.

لذلك فإن التحذير الأساسي للمقالة واضح وموثوق. لقد غيّر الذكاء الاصطناعي بالفعل اقتصاديات الجريمة الإلكترونية. فأصبحت عمليات الاحتيال أكثر قابلية للتوسع، والمخرجات أكثر إقناعًا، والعبء على المدافعين أثقل. ومن المرجح أن يبقى هذا صحيحًا حتى مع استمرار تطور النماذج الأساسية.

هذه المقالة مبنية على تقرير MIT Technology Review. اقرأ المقال الأصلي.

Originally published on technologyreview.com