مع تزايد الهجمات السيبرانية والجرائم الإلكترونية عالمياً، كشفت أبحاث جديدة أن هجمات برمجيات الفدية (Ransomware) تتطور أكثر بفضل الانتشار الواسع لأدوات الذكاء الاصطناعي التوليدي.
ففي الوقت الذي يستخدم فيه بعض المهاجمين الذكاء الاصطناعي كأدوات لصياغة رسائل فدية أكثر تهديداً وفعالية في الابتزاز، تشير الأبحاث الحديثة إلى أن الاستعانة بالذكاء الاصطناعي أصبح أكثر انتشاراً وعمقاً، حيث يتم توظيفه في تطوير برمجيات خبيثة كاملة وتقديم خدمات فدية إلى مجرمين آخرين.
بحسب تقرير جديد صدر عن شركة أنثروبيك المطوّرة لنماذج الذكاء الاصطناعي التوليدية، تبيَّن أن مجرمي الفدية استعانوا بنموذجها اللغوي الكبير كلاود ونموذجها البرمجي Claude Code لتطوير برمجيات خبيثة وتقديمها كخدمة في أسواق الجريمة الإلكترونية.
تأتي هذه النتائج بالتزامن مع أبحاث منفصلة لشركة ESET الأمنية، التي عرضت نموذجاً تجريبياً لهجوم فدية يعتمد بالكامل على تشغيل نماذج لغوية محلية (LLMs) في خادم خبيث.
تكشف النتائج أنَّ الذكاء الاصطناعي التوليدي يُسهِّل على مجرمين ليست لديهم خبرة تقنية أو خلفية متقدمة في تطوير البرمجيات تنفيذ هجمات فدية معقدة، وكما كتب فريق Anthropic:
على مدى العقد الماضي، ظلَّت هجمات الفدية تمثل تحدياً عالمياً مستعصياً، إذ أصبح المهاجمون أكثر وحشية وابتكاراً لإجبار الضحايا على الدفع.
وبحسب التقديرات، شهدت بداية عام 2025 أرقاماً قياسية في عدد هذه الهجمات، حيث يحقق المجرمون مئات الملايين من الدولارات سنوياً.
بهذا الصدد، صرَّح بول ناكاسوني، الرئيس السابق لوكالة الأمن القومي الأمريكية والقيادة السيبرانية، خلال مؤتمر Defcon الأمني في لاس فيغاس قائلاً:
أحد أبرز الأمثلة على استخدام الذكاء الاصطناعي لتطوير البرمجيات الخبيثة وتحديداً الفدية مجموعة تهديد مقرها المملكة المتحدة تُعرف باسم GTG-5004، والتي تنشط منذ مطلع هذا العام.
وفقاً لأنثروبيك، استخدمت هذه المجموعة نموذج كلاود لتطوير وتسويق وتوزيع برمجيات فدية متقدمة بقدرات مراوغة.
وعبر منتديات الجريمة الإلكترونية، عرضت المجموعة خدماتها بأسعار تتراوح بين 400 و1200 دولار، تشمل أدوات تشفير، وحلولاً للموثوقية، وأساليب لتجنب الكشف.
رغم ذلك، تشير الأبحاث إلى افتقار مطور هذه الأدوات إلى المهارات التقنية الكافية لتطوير خوارزميات التشفير أو تقنيات مضادة للتحليل بدون مساعدة كلاود.
أكدت أنثروبيك حظرها للحساب المرتبط بعملية الفدية المذكورة، إضافة إلى ابتكار الشركة “أساليب جديدة” لاكتشاف ومنع توليد البرمجيات الخبيثة عبر منصاتها.
تشمل الإجراءات استخدام ما يُعرف بقواعد YARA وأنماط اكتشاف بصمات البرمجيات الضارة، وهي مجموعة من الأوامر النصية أو الثنائية التي تصف أنماطاً محددة تُستخدم لتحديد وتصنيف البرامج الضارة والتهديدات السيبرانية.
من جانبها، أعلنت شركة ESET عن اكتشافها لأول برمجية فدية مدعومة بالذكاء الاصطناعي أطلق عليها اسم PromptLock.
يعمل هذا النموذج محلياً على أجهزة الضحايا باستخدام نموذج مفتوح المصدر من OpenAI، قادر على:
رغم عدم استخدام هذه البرمجيات ضد أي ضحايا بعد، يُحذِّر الباحثون من هذه الخطوة التي تُظهر كيف يمكن لمجرمي الإنترنت دمج النماذج اللغوية في عملياتهم.
يرى باحثو ESET أن تشغيل الفدية المدعومة بالذكاء الاصطناعي يواجه عقبات، مثل كِبر حجم النماذج وحاجتها لموارد حسابية ضخمة، لكنهم يتوقعون أن المجرمين سيبتكرون طرقاً لتجاوز هذه التحديات.
كشفت أنثروبيك أيضاً عن مجموعة أخرى تُعرف باسم GTG-2002، استخدمت Claude Code لتنفيذ دورة كاملة من الهجمات السيبرانية، بدءًا من:
في السياق نفسه، تشير التقارير إلى أن هذا الهجوم طال ما لا يقل عن 17 مؤسسة في قطاعات حكومية وصحية وخدمات طوارئ ومؤسسات دينية خلال الشهر الماضي فقط.
ما تكشفه هذه الأبحاث يُعد تحذيراً واضحاً في مجال الأمن السيبراني، فمساهمة الذكاء الاصطناعي التوليدي لا تقتصر فقط على تحسين رسائل الابتزاز، إذ تحولت نماذج الذكاء الاصطناعي إلى شريك فعلي في تطوير البرمجيات الخبيثة وتنفيذ هجمات الفدية، وهو ما ينذر بموجة أكثر تعقيداً وخطورة من الجرائم الإلكترونية في السنوات المقبلة.
المصادر:
Wired
ظهرت المقالة كيف يدعم الذكاء الاصطناعي تطوير البرمجيات الخبيثة؟ أولاً على بلوك تِك.
المصدر
ففي الوقت الذي يستخدم فيه بعض المهاجمين الذكاء الاصطناعي كأدوات لصياغة رسائل فدية أكثر تهديداً وفعالية في الابتزاز، تشير الأبحاث الحديثة إلى أن الاستعانة بالذكاء الاصطناعي أصبح أكثر انتشاراً وعمقاً، حيث يتم توظيفه في تطوير برمجيات خبيثة كاملة وتقديم خدمات فدية إلى مجرمين آخرين.
تطوير الهجمات السيبرانية بالذكاء الاصطناعي
بحسب تقرير جديد صدر عن شركة أنثروبيك المطوّرة لنماذج الذكاء الاصطناعي التوليدية، تبيَّن أن مجرمي الفدية استعانوا بنموذجها اللغوي الكبير كلاود ونموذجها البرمجي Claude Code لتطوير برمجيات خبيثة وتقديمها كخدمة في أسواق الجريمة الإلكترونية.
تأتي هذه النتائج بالتزامن مع أبحاث منفصلة لشركة ESET الأمنية، التي عرضت نموذجاً تجريبياً لهجوم فدية يعتمد بالكامل على تشغيل نماذج لغوية محلية (LLMs) في خادم خبيث.

تهديد سيبراني يتجاوز المهارات التقنية التقليدية
تكشف النتائج أنَّ الذكاء الاصطناعي التوليدي يُسهِّل على مجرمين ليست لديهم خبرة تقنية أو خلفية متقدمة في تطوير البرمجيات تنفيذ هجمات فدية معقدة، وكما كتب فريق Anthropic:
ما كشفناه ليس مجرد متغير جديد من برمجيات الفدية، بل تحوُّل نوعي بالاعتماد على تقنيات الذكاء الاصطناعي، إذ أزالت العوائق التقنية التقليدية أمام تطوير برمجيات خبيثة مبتكرة.
تصاعد خطير في هجمات الفدية
على مدى العقد الماضي، ظلَّت هجمات الفدية تمثل تحدياً عالمياً مستعصياً، إذ أصبح المهاجمون أكثر وحشية وابتكاراً لإجبار الضحايا على الدفع.
وبحسب التقديرات، شهدت بداية عام 2025 أرقاماً قياسية في عدد هذه الهجمات، حيث يحقق المجرمون مئات الملايين من الدولارات سنوياً.
بهذا الصدد، صرَّح بول ناكاسوني، الرئيس السابق لوكالة الأمن القومي الأمريكية والقيادة السيبرانية، خلال مؤتمر Defcon الأمني في لاس فيغاس قائلاً:
نحن لا نحقق أي تقدم في مواجهة هجمات الفدية.
مجموعة بريطانية تستغل كلاود في تطوير الفدية
أحد أبرز الأمثلة على استخدام الذكاء الاصطناعي لتطوير البرمجيات الخبيثة وتحديداً الفدية مجموعة تهديد مقرها المملكة المتحدة تُعرف باسم GTG-5004، والتي تنشط منذ مطلع هذا العام.
وفقاً لأنثروبيك، استخدمت هذه المجموعة نموذج كلاود لتطوير وتسويق وتوزيع برمجيات فدية متقدمة بقدرات مراوغة.
وعبر منتديات الجريمة الإلكترونية، عرضت المجموعة خدماتها بأسعار تتراوح بين 400 و1200 دولار، تشمل أدوات تشفير، وحلولاً للموثوقية، وأساليب لتجنب الكشف.
رغم ذلك، تشير الأبحاث إلى افتقار مطور هذه الأدوات إلى المهارات التقنية الكافية لتطوير خوارزميات التشفير أو تقنيات مضادة للتحليل بدون مساعدة كلاود.

إجراءات مضادة من أنثروبيك
أكدت أنثروبيك حظرها للحساب المرتبط بعملية الفدية المذكورة، إضافة إلى ابتكار الشركة “أساليب جديدة” لاكتشاف ومنع توليد البرمجيات الخبيثة عبر منصاتها.
تشمل الإجراءات استخدام ما يُعرف بقواعد YARA وأنماط اكتشاف بصمات البرمجيات الضارة، وهي مجموعة من الأوامر النصية أو الثنائية التي تصف أنماطاً محددة تُستخدم لتحديد وتصنيف البرامج الضارة والتهديدات السيبرانية.
أول فدية مدعومة بالذكاء الاصطناعي
من جانبها، أعلنت شركة ESET عن اكتشافها لأول برمجية فدية مدعومة بالذكاء الاصطناعي أطلق عليها اسم PromptLock.
يعمل هذا النموذج محلياً على أجهزة الضحايا باستخدام نموذج مفتوح المصدر من OpenAI، قادر على:
- توليد سكربتات خبيثة بلغة Lua بشكل فوري.
- فحص الملفات المستهدفة.
- سرقة البيانات.
- تنفيذ عمليات التشفير.
رغم عدم استخدام هذه البرمجيات ضد أي ضحايا بعد، يُحذِّر الباحثون من هذه الخطوة التي تُظهر كيف يمكن لمجرمي الإنترنت دمج النماذج اللغوية في عملياتهم.
البرمجيات الخبيثة..تطور متسارع
يرى باحثو ESET أن تشغيل الفدية المدعومة بالذكاء الاصطناعي يواجه عقبات، مثل كِبر حجم النماذج وحاجتها لموارد حسابية ضخمة، لكنهم يتوقعون أن المجرمين سيبتكرون طرقاً لتجاوز هذه التحديات.
مجموعات تستغل كلاود كود في الهجمات السيبرانية
كشفت أنثروبيك أيضاً عن مجموعة أخرى تُعرف باسم GTG-2002، استخدمت Claude Code لتنفيذ دورة كاملة من الهجمات السيبرانية، بدءًا من:
- تحديد الأهداف
- اختراق الشبكات
- تطوير البرمجيات الخبيثة
- سرقة البيانات وتحليلها
- صياغة رسائل الفدية
في السياق نفسه، تشير التقارير إلى أن هذا الهجوم طال ما لا يقل عن 17 مؤسسة في قطاعات حكومية وصحية وخدمات طوارئ ومؤسسات دينية خلال الشهر الماضي فقط.
فصل جديد من الجرائم السيبرانية
ما تكشفه هذه الأبحاث يُعد تحذيراً واضحاً في مجال الأمن السيبراني، فمساهمة الذكاء الاصطناعي التوليدي لا تقتصر فقط على تحسين رسائل الابتزاز، إذ تحولت نماذج الذكاء الاصطناعي إلى شريك فعلي في تطوير البرمجيات الخبيثة وتنفيذ هجمات الفدية، وهو ما ينذر بموجة أكثر تعقيداً وخطورة من الجرائم الإلكترونية في السنوات المقبلة.
المصادر:
Wired
ظهرت المقالة كيف يدعم الذكاء الاصطناعي تطوير البرمجيات الخبيثة؟ أولاً على بلوك تِك.
المصدر