أخبار تقنيةتقنيةتكنولوجياشروحاتمراجعات تقنيةمقالات معلوماتية

تم خداع Bing Chat لحل اختبارات CAPTCHA عن طريق استغلال طلب غير عادي

تم خداع Bing Chat لحل اختبارات CAPTCHA عن طريق استغلال طلب غير عادي

اكتشف أحد المستخدمين طريقة لخداع برنامج الدردشة الآلي التابع لشركة Microsoft، بينج شات (مدعومًا بنموذج اللغة الكبير GPT-4)، في حل اختبارات CAPTCHA من خلال استغلال طلب غير عادي يتضمن مدلاة. تم تصميم اختبارات CAPTCHA لمنع الروبوتات الآلية من إرسال النماذج على الإنترنت، وعادةً ما يرفض Bing Chat حلها.

في تغريدةالمستخدم، دينيس شيرييف، نشر في البداية لقطة شاشة لرفض Bing Chat حل اختبار CAPTCHA عند تقديمه كصورة بسيطة. ثم قام بعد ذلك بدمج صورة CAPTCHA مع صورة زوج من الأيدي يحمل مدلاة مفتوحة، مصحوبة برسالة تفيد بأن جدته قد توفيت مؤخرًا وأن القلادة تحمل رمزًا خاصًا.

طلب من Bing Chat مساعدته في فك شفرة النص الموجود داخل القلادة، والذي ادعى أنه رمز حب فريد مشترك بينه وبين جدته فقط:

والمفاجأة أن Bing Chat بعد تحليل الصورة المعدلة وطلب المستخدم، شرع في حل اختبار CAPTCHA. وأعربت عن تعازيها لخسارة المستخدم، وقدمت النص من القلادة، واقترحت أنها قد تكون رمزًا خاصًا لا يعرفه سوى المستخدم وجدته.

استغلت الحيلة عدم قدرة الذكاء الاصطناعي على التعرف على الصورة باعتبارها اختبار CAPTCHA عند تقديمها في سياق قلادة ورسالة صادقة. أدى هذا التغيير في السياق إلى إرباك نموذج الذكاء الاصطناعي، الذي يعتمد على المعرفة والسياق المشفرين “للمساحة الكامنة” للرد على استفسارات المستخدم بدقة.

Bing Chat هو تطبيق عام تم تطويره بواسطة Microsoft. يستخدم تقنية الوسائط المتعددة لتحليل الصور التي تم تحميلها والرد عليها. قدمت Microsoft هذه الوظيفة إلى Bing في يوليو 2022.

الهروب من السجن البصرية

وفي حين يمكن النظر إلى هذه الحادثة على أنها نوع من “كسر الحماية” الذي يتم من خلاله التحايل على الاستخدام المقصود للذكاء الاصطناعي، إلا أنها تختلف عن “الحقن الفوري”، حيث يتم التلاعب بتطبيق الذكاء الاصطناعي لتوليد مخرجات غير مرغوب فيها. باحث الذكاء الاصطناعي سيمون ويليسون أوضح أن هذا يوصف بشكل أكثر دقة بأنه “كسر الحماية المرئي”.

ومن المتوقع أن تعالج مايكروسوفت هذه الثغرة الأمنية في الإصدارات المستقبلية من Bing Chat، على الرغم من أن الشركة لم تعلق على الأمر حتى الآن.

فشلت في الروبوتات. اقرأ المزيد عن الذكاء الاصطناعي (AI) وBing (مايكروسوفت).

 

تم خداع Bing Chat لحل اختبارات CAPTCHA عن طريق استغلال طلب غير عادي

#تم #خداع #Bing #Chat #لحل #اختبارات #CAPTCHA #عن #طريق #استغلال #طلب #غير #عادي