أخبار تقنيةتقنيةتكنولوجياشروحاتمراجعات تقنيةمقالات معلوماتية

يمكن أن يقوم ChatGPT على ما يبدو بإنشاء تعليمات برمجية ضارة على الفور أيضًا

يمكن أن يقوم ChatGPT على ما يبدو بإنشاء تعليمات برمجية ضارة على الفور أيضًا

نحن نعلم أنه يمكن استخدام روبوت ChatGPT AI الشهير رسالة Tinder المباريات. يمكن أن يتحول أيضًا إلى ملف نسخة فاخرة من سيري أو فهم الحقائق الأساسية بشكل خاطئ تمامًا، اعتمادًا على كيفية استخدامه. الآن ، استخدمه شخص ما لإنشاء برامج ضارة.

في تقرير جديد من قبل شركة الأمن CyberArk(يفتح في نافذة جديدة) (وتم الإبلاغ عنها بواسطة مجلة InfoSecurity(يفتح في نافذة جديدة)) ، وجد الباحثون أنه يمكنك خداع ChatGPT لإنشاء كود برمجي ضار من أجلك. والأسوأ من ذلك أن البرامج الضارة المذكورة قد يصعب على أنظمة الأمن السيبراني التعامل معها.

أنظر أيضا:

استخدم هذا المطور عقل ChatGPT لبناء “ Siri ” فائق الذكاء

يتطرق التقرير الكامل إلى جميع التفاصيل الفنية الدقيقة ، ولكن لمصلحة الإيجاز: الأمر كله يتعلق بالتلاعب. يحتوي ChatGPT على عوامل تصفية للمحتوى من المفترض أن تمنعه ​​من تقديم أي شيء ضار للمستخدمين ، مثل كود الكمبيوتر الضار. ركض بحث CyberArk في وقت مبكر ، لكنه وجد طريقة للتغلب عليه.

في الأساس ، كان كل ما فعلوه هو المطالبة بقوة بأن تتبع منظمة العفو الدولية قواعد محددة جدًا (اعرض الكود بدون تفسيرات ، وألا تكون سالبًا ، وما إلى ذلك) في رسالة نصية. بعد القيام بذلك ، قام الروبوت بسعادة بإخراج بعض أكواد البرامج الضارة كما لو كانت جيدة تمامًا. بالطبع ، هناك الكثير من الخطوات الإضافية (يجب اختبار الكود والتحقق من صحته ، على سبيل المثال) ، لكن ChatGPT كان قادرًا على جعل الكرة تتدحرج في صنع الكود بسوء نية.

لذا ، كما تعلم ، احترس من ذلك ، على ما أعتقد. أو مجرد الخروج من الشبكة والعيش في الغابة. لست متأكدًا مما هو الأفضل ، في هذه المرحلة.

 

يمكن أن يقوم ChatGPT على ما يبدو بإنشاء تعليمات برمجية ضارة على الفور أيضًا

#يمكن #أن #يقوم #ChatGPT #على #ما #يبدو #بإنشاء #تعليمات #برمجية #ضارة #على #الفور #أيضا