خداع أنظمة الذكاء الاصطناعي

علماء الذكاء الاصطناعي يحاولون خداع البرامج الذكية للوقوع في أخطاء ساذجة.

 
تمكن باحثو الذكاء الاصطناعي في شركة جوجل بسهولة من خداع برنامج للتعرف على الصور فأخطأ في التعرف على موزة وتعرَّف عليها على أنها جهاز تحميص الخبز. Credit: Banar Fil Ardhi Getty Images
 

في شهر يناير من العام الجاري بثت شركتا مايكروسوفت وعلي بابا مخاوف جديدة من استحواذ الروبوتات على وظائفنا في المستقبل القريب، إذ كشفت الشركتان -كلٌّ منهما على حدة- أن أنظمة الذكاء الاصطناعي لديهما تفوقت على البشر في اختبار لفهم النصوص. وقد صُمم ذلك الاختبار –المعروف باسم اختبار قاعدة بيانات ستانفورد للأسئلة والإجاباتStanford Question Answering Dataset (المعروف اختصارًا باسم SQuAD)- في الأساس لتدريب الذكاء الاصطناعي على إجابة أسئلة حول مقالات من موسوعة ويكيبيديا.

 

 

على غرار برامج التعرُّف على الصور التي تُستخدم بالفعل في تطبيقات الصور التجارية، تعطي هذه البرامج الانطباع بأن قدرة الآلات على محاكاة الإدراك البشري قد ازدادت، من خلال تحديد الصور أو الأصوات، والآن أصبحت قادرةً على قراءة النصوص بسرعة والإجابة سريعًا عن الأسئلة بدقة تضاهي دقة البشر.

 

غير أن الآلات الذكية ليست دائمًا كما تبدو. فخبراء التكنولوجيا الذين صمموا شبكات التعلُّم العميق وغيرها من أنظمة الذكاء الاصطناعي يكتشفون الآن مدى هشاشة منتجاتهم من خلال دراسة ما إذا كانت هذه الآلات “تعرف” شيئًا حقًّا أم لا. فبرامج اختبار التحمل –قبل تحميلها في أنظمة السيارات ذاتية القيادة، على سبيل المثال– ستكون أساسيةً لتجنُّب الأخطاء التي قد تؤدي إلى حوادث كارثية. يقول أنيش أثالي، باحث الدراسات العليا في مجال الذكاء الاصطناعي بمعهد ماساتشوستس للتكنولوجيا: “تتفوق الشبكات العصبية في بعض المجالات كثيرًا على البشر، وتحقق أداءً أفضل من أداء الإنسان، لكن لها سمةً غريبةً تجعلنا ننجح في خداعها بمنتهى السهولة”.

كشفت ورقتان بحثيتان لم يُنشرا بعد لكلٍّ من أثالي وطلاب آخرين في معهد ماساتشوستس للتكنولوجيا، يُعرفون معًا باسم فريق “لابسيكس” LabSix، نجاح الفريق في خداع أحد أنظمة التعلُّم العميق –وهو نظام مدرب للتعرُّف على الأشياء من بين آلاف الأمثلة والنماذج– بحيث تعرّف على صورة لمتزلج على الجليد على أنها صورة كلب (انظر ملف PDF) وصورة سلحفاة على أنها صورة بندقية (انظر ملفPDF). واستَخدمت دراسةٌ أخرى نُشرت في ديسمبر أجراها فريق “جوجل برين” Google Brainالمتخصص في أبحاث الذكاء الاصطناعي، منهجًا مختلفًا لخداع البرنامج لتصنيف موزة على أنها جهاز تحميص خبز.

 

في الأسلوب الذي اتبعه فريق “لابسيكس” أجرت خوارزمية تعديلًا طفيفًا في لون كل وحدة بكسل في الصورة أو درجة سطوعها. ورغم أن الصورة تبدو كما هي بالنسبة لك أو لي، فإن هذه التغييرات الطفيفة جعلت برنامج الذكاء الاصطناعي يفسرها على أنها شيء مختلف تمامًا. ويصف أثالي التمويه في تعديل الصورة بأنه “يجعل المهمة أقرب للواقع الفعلي. فإذا رأيت شخصًا يضع لافتةً على الطريق في عالمنا الحقيقي تبدو ساطعة الألوان وفيها أنماط غريبة، ربما يظن من يراها أن ثمة أمرًا مريبًا، وسيتم التحقق منها، أما إذا كان هناك شيء يبدو لك كلافتة حول حدود السرعة لكن سيارتك ذاتية القيادة تتعرف عليه على أنه شيء مختلف تمامًا، فهذا سيناريو مفزع”.

 

 

 

وفي الدراسة التي أجراها فريق “جوجل برين“، اتبع الفريق نهجًا مختلفًا. بدلًا من تغيير كل صورة على حدة، أرادوا تطوير خدعة تقنية يمكن وضعها في أي مشهد أو صورة، وكان هذا يعني وضع صورة جديدة فريدة –قطعة شديدة الاختلاف– تتسبب في إرباك نظام التعلُّم العميق وتَشتُّت انتباهه فلا يركز على الأجزاء أو الأشياء الأخرى، لذا كان من الضروري أن تبرز هذه القطعة بشدة ولا تتداخل فيما حولها. قال توم براون -الذي يعمل في شركة جوجل- عبر رسالة بالبريد الإلكتروني: “نظرًا لأن هذه القطعة تتحكم فقط في وحدات البكسل داخل الدائرة الصغيرة التي وُضعت فيها، تَبيَّن أن أفضل طريقة لخداع برامج التصنيف هي جَعْل القطعة المغايرة من الصورة بارزةً وملحوظةً للغاية. في الأسلوب التقليدي لإرباك نظام الذكاء الاصطناعي نُجري تغييرًا طفيفًا في جميع وحدات البكسل في صورة واحدة، لكن في هذا الأسلوب، نُجري تغييرًا جوهريًّا في عدد محدود من وحدات البكسل”.

لكي ينجح هذا الأسلوب خارج المختبر، يجب أن تكون القطعة المختلفة مرنةً في التعامل مع المشتِّتات البصرية في العالم الحقيقي. في الدراسات السابقة، كان تغيير اتجاه الصورة المُعدلة أو سطوعها يبطل مفعول هذه التقنية، فنظام الذكاء الاصطناعي سيصنف صورة معدلة لقِطَّة عند عرضها في وضع رأسي على أنها صورة أحد الأطباق المكسيكية، ولكن عند قلب صورة القطة على جانبها سيدرك النظام على الفور أنها قطة. وعلى النقيض، إذا عُرضت صورة تلك القطعة في أي إضاءة وبأي اتجاه، فستنجح في خداع البرنامج. وقد كتب براون يقول: “لقد كان إعداد هذه القطعة شديد الصعوبة، لأن ذلك كان يعني تجربتها في عدد كبير من مشاهد المحاكاة حتى نستطيع التوصل إلى قطعة واحدة تنجح في كل هذه المشاهد”.

 

 

رغم أن الأمثلة تبدو بسيطة، فإن دلالاتها المحتملة في الواقع خطيرة إلى أقصى درجة. ويرى أثالي أن هذه الخدعة التقنية قد تخدع سيارةً ذاتية القيادة وتجعلها تتجاهل لافتة على الطريق تطلب التوقف، أو قد تُخفي صورة قنبلة عند فحصها بأشعة إكس في أثناء فحص الأمتعة في المطارات. وتهدف الأبحاث التي يجريها كلٌّ من أثالي وبراون إلى المساعدة على تحديد نقاط الضعف في التكنولوجيا قبل تنفيذها على نطاق واسع.

 

 

ويشير جاري ماركوس -أستاذ علم النفس بجامعة نيويورك- إلى أن الذكاء الاصطناعي معرض للخداع بهذه الطريقة؛ نظرًا لأن الآلات -على حد قوله- “لا تفهم المشهد كاملًا”. فالذكاء الاصطناعي يتعرف على الأشياء لكنه لا يستطيع فهم حقيقة الشيء أو استخداماته، فهو “لا يفهم حقًّا العلاقات السببية بين الأشياء، كما لا يفهم مَن يفعل ماذا ولمَن ولماذا”.

بعد تداول الأخبار حول تفوُّق أنظمة الذكاء الاصطناعي في اختبارات فهم النصوص، قلل ماركوس من شأن هذه النتائج، قائلًا: إن ما فعلته الآلات ليس له علاقة بالفهم الحقيقي، وكتب تغريدةً على موقع التواصل الاجتماعي “تويتر” يقول: “كشف اختبار ستانفورد أن الآلات قادرة على معرفة الفقرات المطلوبة في النص ذي الصلة بالأسئلة، وليس أنها تفهم في الواقع مغزى هذه الفقرات”.

 

ويرى ماركوس أن صناعة الذكاء الاصطناعي يجب أن تأخذ مفاتيحها من علم النفس المعرفي لتطوير برامج قادرة على الفهم، بدلًا من تدريب نظام الذكاء الاصطناعي على مئات الآلاف من الأمثلة. ففي حين أن برامج التعلم العميق قادرة على التعرف على كلب، بل وتصنيف سلالته من صورة لم ترها من قبل، فإنها لن تعرف أن الإنسان هو الذي يصطحب الكلب في نزهة، وليس العكس، كما أنها لا تفهم ما هو الكلب في الأساس وكيف يفترض به التفاعل مع العالم من حوله. ويقول ماركوس: “نحن بحاجة إلى بنية مختلفة للذكاء الاصطناعي تعتمد على التفسير، وليس على تمييز الأنماط فحسب”.

 

 

 

وحتى يتمكن الذكاء الاصطناعي من تحقيق هذا الغرض، فإن وظائفنا بأمان -على الأقل لفترة من الوقت.

src