تكنولوجيا

صور الذكاء الاصطناعي قد تفتح الطريق لسرقة الهوية

الشاهين الاخباري

أطلق خبراء الأمن السيبراني تحذيراً شديد اللهجة من أسلوب اختراق جديد يستهدف أنظمة الذكاء الاصطناعي التوليدية، حيث تمكن القراصنة من إخفاء تعليمات ضارة داخل الصور، لتتحول عند معالجتها إلى أوامر قادرة على سرقة بيانات المستخدمين وانتهاك خصوصيتهم.

وكشفت شركة **Trail of Bits** أن هذه الهجمات تستغل آلية تحجيم الصور الشائعة داخل نماذج الذكاء الاصطناعي. إذ تظهر أوامر خفية عند استخدام أساليب مثل *Nearest Neighbor* أو *Bilinear* أو *Bicubic*، ما يجعل الخوارزميات تقرأ نصوصاً سوداء غير مرئية للمستخدم العادي وكأنها أوامر صادرة منه مباشرة.تجارب عملية أظهرت حجم الخطورة؛ فمجرد صورة خضعت للتحجيم المكعب الثنائي، تحولت فيها مناطق داكنة إلى نصوص واضحة قرأها النظام، لينفذ أوامر حساسة مثل استخراج بيانات من تقويم جوجل وإرسالها إلى بريد إلكتروني خارجي دون علم أو موافقة المستخدم.

هذه التقنية جرى اختبارها على أنظمة متعددة، منها **Gemini CLI** و**Vertex AI Studio** ومساعد جوجل على أندرويد، إضافة إلى واجهة **Gemini عبر الويب**. وتبين أن جميعها عرضة لاختراق الخصوصية عبر هذه الطريقة.

ولتسليط الضوء على حجم التهديد، طور الباحثون أداة مفتوحة المصدر أطلقوا عليها اسم **Anamorpher**، قادرة على توليد صور تحوي أوامر خفية باستخدام تقنيات التحجيم المختلفة.

وعلى الرغم من أن الأداة مخصصة للأبحاث، فإنها تكشف سهولة إعادة تنفيذ الهجوم في حال غياب آليات الحماية.ويحذر الخبراء من أن هذه الثغرة تمثل خطراً مباشراً على تطبيقات مرتبطة بحياة المستخدمين اليومية، مثل البريد الإلكتروني وأدوات العمل ومنصات التواصل الاجتماعي، إذ قد تفتح الباب أمام سرقة الهوية أو تسريب معلومات بالغة الحساسية.

أما الدفاعات الحالية، مثل الجدران النارية التقليدية، فغير قادرة على رصد هذا النوع من الاختراقات.

لذلك شدد فريق Trail of Bits على ضرورة اعتماد أنظمة دفاع متعددة الطبقات، ومراجعة نتائج تحجيم الصور بدقة، إلى جانب فرض خطوات تأكيد إضافية قبل تمرير أي أوامر حساسة

زر الذهاب إلى الأعلى