
الشاهين الإخباري
بات المخترقون يستخدمون الذكاء الاصطناعي لمهاجمة أنظمة الذكاء الاصطناعي، حيث جعل تقدم بحثي جديد هجمات الحقن الفوري للذكاء الاصطناعي أسرع وأسهل على نحو مخيف.
وباتت أكثر نماذج الذكاء الاصطناعي أمانًا مثل “Gemini” من شركة غوغل معرضة لهذا الخطر.
تُعدّ هجمات الحقن الفوري إحدى أكثر الطرق المستخدمة للتلاعب بالنماذج اللغوية الكبيرة، فمن خلال إدخال تعليمات خبيثة في النص الذي يقرأه الذكاء الاصطناعي -مثل تعليق في تعليمات برمجية أو نص مخفي على صفحة إنترنت- يمكن للمخترقين جعل النموذج يتجاهل قواعده الأصلية، بحسب تقرير لموقع “BGR” المتخصص في أخبار التكنولوجيا، اطلعت عليه “العربية Business”.
وقد يعني ذلك تسريب بيانات شخصية، أو تقديم إجابات خاطئة، أو القيام بسلوكيات أخرى غير مقصودة. لكن المشكلة تكمن في أن هجمات الحقن الفوري تتطلب عادةً الكثير من التجربة والخطأ اليدوي لتُصبح صحيحة، خاصةً بالنسبة للنماذج المغلقة مثل “GPT-4” أو “Gemini”، حيث لا يستطيع المطورون معرفة التعليمات البرمجية الأساسية أو بيانات التدريب.
لكن تقنية جديدة تُسمى “Fun-Tuning” تُغير ذلك. طور فريق من الباحثين الجامعيين هذه الطريقة، باستخدام واجهة برمجة تطبيقات الضبط الدقيق من غوغل” لـ”Gemini”، وذلك لتصميم عمليات حقن سريعة عالية النجاح تلقائيًا.
من خلال استغلال واجهة تدريب “Gemini”، يتمكن “Fun-Tuning” من اكتشاف أفضل “البادئات” و”اللاحقات” التي يجب إضافتها لطلب خبيث من هاجم للنموذج اللغوي الكبير، مما يزيد بشكل كبير من فرص تنفيذ هذا الطلب كما هو مراد.
في الاختبار، حقق “Fun-Tuning” معدلات نجاح تصل إلى 82% على بعض نماذج “Gemini”، مقارنةً بأقل من 30% في الهجمات التقليدية.
ويعمل “Fun-Tuning” من خلال استغلال الأدلة الدقيقة في عملية الضبط الدقيق -مثل كيفية تفاعل النموذج مع أخطاء التدريب- وتحويلها إلى ردود فعل تُعزز فعالية الهجوم.
والأمر الأكثر إثارة للقلق هو أن الهجمات التي طُوّرت لإصدار واحد من “Gemini” انتقلت بسهولة إلى إصدارات أخرى. وهذا يعني أن بإمكان مهاجم واحد تطوير طلب خبيث ناجح واحد ونشره عبر منصات متعددة.
وبالنظر إلى أن “غوغل” تقدم واجهة برمجة التطبيقات هذه للضبط الدقيق مجانًا، فإن تكلفة شن مثل هذا الهجوم منخفضة تصل إلى 10 دولارات من وقت الحوسبة.