الأمثلة العدائية Adversarial Examples

الأمثلة العدائية Adversarial Examples

المصدر [1]

ما هي الأمثلة العدائية Adversarial Examples؟

في مجال رؤية الحاسب، يمكن لاضافة اضطرابات صغيرة (ضوضاء مضافة) لإدخال الصور ان تجعل النماذج تصنف بشكل غير صحيح. وعادة ما تكون هذه الاضطرابات الصغيرة غير قابلة للكشف بالنسبة للعين البشرية فهي بالنسبة للناظر بالعين البشرية نفس الصورة.
وللتوضيح في الصورة أعلاه عند اضافة بعض الاضطرابات الطفيفة (الضوضاء المضافة) على صورة الباندا تم تصنيفه على انه قرد الجبون وبنسبة عالية تبلغ ٩٩.٣٪

ما أهمية دراستها ؟

تثير الأمثلة العدائية Adversarial Examples مخاوف أمنية لأنه يمكن استخدامها لتنفيذ هجوم على أنظمة التعلم الآلي. فالأمثلة العدائية يمكن أن تكون خطيرة، فقد تهدد كل التطبيقات التي تعتمد على رؤية الحاسب مثل التعرف على بصمة الوجه أو السيارت الذاتية القيادة وغيرها كثير .
الأمثلة العدائية توضح أن العديد من خوارزميات التعلم الآلي الحديثة يمكن كسرها. لذا يمكن أن نقول أن الأمثلة العدائية تمثل الإخفاقات في التعلم الآلي، فحتى الخوارزميات البسيطة باستخدامها يمكن أن تتصرف بشكل مختلف تمامًا عما ينبغي. لذا يحاول الباحثون في مجال التعلم الآلي على تصميم طرق لمنع الأمثلة العدائية.

المراجع

[1] Kurakin, Alexey, Ian Goodfellow, and Samy Bengio. “Adversarial examples in the physical world.” arXiv preprint arXiv:1607.02533 (2016).