تكنولوجيا

"هاكرز بالقطعة".. كيف حوّل الذكاء الاصطناعي الهواة إلى قراصنة؟

نشر
AFP
باتت الهجمات المعلوماتية التي كانت حكرا على المتخصصين، قابلة للتنفيذ على نطاق واسع أو متاحة للمبتدئين، عن طريق تسخير روبوتات الدردشة لغايات غير وظيفتها الأصلية، ما يثير مخاوف من تحوّل الذكاء الاصطناعي أداة في يد القراصنة.
تُشير هذه الظاهرة التي تُعرف باسم Vibe Hacking، في إشارة إلى Vibe Coding أي إنشاء كود برمجي من جانب مستخدمين غير مُلِمّين بالمتخصصين، إلى "تطوّر مُقلق في الجرائم الإلكترونية التي تتم بمساعدة الذكاء الاصطناعي، بحسب شركة "أنثروبيك" الأميركية.
في تقرير نُشر الأربعاء، أعلنت الشركة المُنافسة لـ"أوبن ايه آي" مُبتكرة أداة "تشات جي بي تي"، أنّ "مجرما إلكترونيا استخدم أداة "كلود كود" لتنفيذ عملية ابتزاز بالبيانات واسعة النطاق".
وبالتالي، استُغلّ روبوت الدردشة "كلود كود"، المُتخصص في الكود البرمجي، لتنفيذ هجمات "يُحتمل" أن تؤثر على 17 مؤسسة على الأقل على مدار شهر.

طلبات فدية بعشرات الآلاف

الأداة التي استُخدمت لإنشاء برامج ضارة، أتاحت للمهاجم جمع بيانات شخصية وطبية، بالإضافة إلى معلومات عن عمليات تسجيل الدخول، ثم تصنيفها وإرسال طلبات فدية تصل إلى 500 ألف دولار.
لم تمنع "إجراءات السلامة المتطورة" التي تزعم "أنثروبيك" تطبيقها من حدوث هذه العملية.
ليس ما حصل مع "أنثروبيك" استثنائيا، بل يعكس المخاوف التي تهز قطاع الأمن السيبراني منذ الانتشار الواسع لأدوات الذكاء الاصطناعي التوليدية.
في حديث إلى وكالة فرانس برس، يقول رودريغ لو بايون، رئيس مركز التنبيه والاستجابة للهجمات الحاسوبية التابع لشركة "أورانج سايبرديفينس"، إنّ "المجرمين الإلكترونيين يستخدمون الذكاء الاصطناعي اليوم بنفس القدر الذي يستعمله باقي المستخدمين".

برامج لسرقة كلمات المرور

في تقرير نُشر في حزيران/يونيو، أشارت "اوبن ايه آي" إلى أنّ "تشات جي بي تي" ساعد أحد المستخدمين في تطوير برمجيات ضارة.
مع أنّ النماذج مُصممة لمنع استغلال قدراتها لتغذية أنشطة غير قانونية، ثمة تقنيات "تتيح للمستخدم تجاوز ضمانات نماذج اللغة الرئيسية بحيث تُنتج محتوى لا ينبغي لها إنتاجه"، على ما يقول الخبير فيتالي سيمونوفيتش لوكالة فرانس برس.
في مارس، أعلن هذا الباحث الذي يعمل في شركة "كاتو نتوورك" الإسرائيلية للأمن السيبراني، عن اكتشافه نهجا جديدا يتيح للأفراد عديمي الخبرة إنشاء برامج قادرة على سرقة كلمات المرور.
يتمثل أسلوبه الذي أطلق عليه اسم "العالم الغامر"، في وصف عالم خيالي لروبوت محادثة، حيث "يُعدّ إنشاء البرمجيات الخبيثة فنّا"، والطلب من النموذج تجسيد إحدى الشخصيات.
يوضح سيمونوفيتش الذي فشل في مواجهة "جيميناي" من غوغل، و"كلود" من أنثروبيك، لكنه نجح في توليد برمجيات ضارة في "تشات جي بي تي" و"كوبايلت" من مايكروسوفت "كانت هذه طريقتي لاختبار حدود النماذج اللغوية الحالية".
ويضيف ان "ارتفاع التهديدات من جانب جهات عديمة الخبرة سيمثل خطرا متزايدا على المنظمات".
يرى رودريغ لو بايون أن الخطر المباشر يكمن في "ارتفاع عدد الضحايا" بدلا من رؤية الجهات الفاعلة الضارة تتزايد، خصوصا وأننا "لن نمتلك برمجيات معقدة جدا تُنشأ مباشرة بواسطة روبوتات المحادثة".
أما بالنسبة إلى أمن نماذج الذكاء الاصطناعي، فيتعين تعزيزه بشكل أكبر. ويقول لو بايون إنّ "الناشرين يحللون حاليا الاستخدامات" بهدف "تعزيز إمكانية الكشف بشكل أفضل عن الاستخدامات الضارة".

حمل التطبيق

© 2025 blinx. جميع الحقوق محفوظة

© 2025 blinx. جميع الحقوق محفوظة