مدير الأمن السيبراني في وكالة الأمن القومي يقول “حزام الأمان” للذكاء الاصطناعي التوليدي
مدير الأمن السيبراني في وكالة الأمن القومي يقول “حزام الأمان” للذكاء الاصطناعي التوليدي
في RSA مؤتمر الأمن في سان فرانسيسكو هذا الأسبوع ، كان هناك شعور بالحتمية في الهواء. في المحادثات واللجان عبر مركز مؤتمرات موسكون المترامي الأطراف ، وفي كل كشك بائع في أرض العرض ، وفي المحادثات غير الرسمية في القاعات ، أنت تعرف فقط أن شخصًا ما سيطرح الذكاء الاصطناعي التوليدي وتأثيراته المحتملة على الأمن الرقمي والقرصنة الخبيثة. . شعر مدير الأمن السيبراني في وكالة الأمن القومي روب جويس بذلك أيضًا.
قال يوم الأربعاء بعد الظهر خلال عرضه التقديمي السنوي “حالة الاختراق”: “لا يمكنك التجول في RSA دون التحدث عن الذكاء الاصطناعي والبرامج الضارة”. أعتقد أننا رأينا جميعًا الانفجار. لن أقول أنه تم تسليمها بعد ، ولكن هذه حقًا هي بعض التقنيات التي ستغير قواعد اللعبة “.
في الأشهر الأخيرة ، جعلت روبوتات الدردشة الكبيرة المدعومة بنماذج اللغة مثل ChatGPT من OpenAI سنوات من تطوير التعلم الآلي والبحث أكثر واقعية ومتاحة للناس في جميع أنحاء العالم. ولكن هناك أسئلة عملية حول كيفية التلاعب بهذه الأدوات الجديدة وإساءة استخدامها من قبل الجهات الفاعلة السيئة لتطوير ونشر البرامج الضارة ، وإثارة إنشاء معلومات مضللة ومحتوى غير أصلي ، وتوسيع قدرات المهاجمين لأتمتة عمليات الاختراق الخاصة بهم. في الوقت نفسه ، يتوق المجتمع الأمني إلى تسخير الذكاء الاصطناعي التوليدي للدفاع عن الأنظمة واكتساب ميزة وقائية. ومع ذلك ، في هذه الأيام الأولى ، من الصعب تحليل ما سيحدث بعد ذلك بالضبط.
قال جويس إن وكالة الأمن القومي تتوقع أن يعمل الذكاء الاصطناعي التوليدي على تغذية عمليات الاحتيال الفعالة بالفعل مثل التصيد الاحتيالي. تعتمد مثل هذه الهجمات على محتوى مقنع ومقنع لخداع الضحايا لمساعدة المهاجمين عن غير قصد ، لذا فإن للذكاء الاصطناعي استخدامات واضحة لإنشاء اتصالات ومواد مخصصة بسرعة.
قال جويس: “هذا المخترق الروسي الأصل الذي لا يتحدث الإنجليزية جيدًا لن يصنع بريدًا إلكترونيًا مزعجًا لموظفيك”. “ستكون اللغة الإنجليزية الأم ، وسيكون ذلك منطقيًا ، وستجتاز اختبار الشم. … هذا صحيح هنا اليوم ، ونرى خصومًا ، سواء من الدولة القومية أو المجرمين ، بدأوا في تجربة جيل من نوع ChatGPT لمنحهم فرصًا للغة الإنجليزية “.
وفي الوقت نفسه ، على الرغم من أن روبوتات الدردشة بالذكاء الاصطناعي قد لا تكون قادرة على تطوير برامج ضارة جديدة مسلحة بشكل مثالي من الصفر ، إلا أن جويس أشار إلى أن المهاجمين يمكنهم استخدام مهارات الترميز التي تمتلكها المنصات لإجراء تغييرات أصغر يمكن أن يكون لها تأثير كبير. تتمثل الفكرة في تعديل البرامج الضارة الموجودة باستخدام الذكاء الاصطناعي التوليدي لتغيير خصائصها وسلوكها بدرجة كافية بحيث لا تتعرف أدوات الفحص مثل برامج مكافحة الفيروسات على التكرار الجديد وتضع علامة عليه.
قال جويس: “سيساعد ذلك في إعادة كتابة الكود وجعله بطرق من شأنها تغيير التوقيع والسمات الخاصة به”. “الذي – التي [is] سيكون تحديًا لنا على المدى القريب “.
فيما يتعلق بالدفاع ، بدا جويس متفائلًا بشأن إمكانات الذكاء الاصطناعي التوليدي للمساعدة في تحليل البيانات الضخمة والأتمتة. واستشهد بمسح السجلات الرقمية ، وإيجاد أنماط في استغلال الثغرات الأمنية ، ومساعدة المنظمات في تحديد أولويات القضايا الأمنية في شبكاتهم للتعامل معها أولاً في ثلاثة مجالات حيث “تُظهر التكنولوجيا وعدًا حقيقيًا” باعتبارها “تسريعًا للدفاع”. ومع ذلك ، حذر من أنه قبل أن يعتمد المدافعون والمجتمعات على هذه الأدوات على نطاق أوسع في الحياة اليومية ، يجب عليهم أولاً دراسة كيفية التلاعب بأنظمة الذكاء الاصطناعي التوليدية واستغلالها.
في الغالب ، شددت جويس على الطبيعة الغامضة وغير المتوقعة للحظة الحالية للذكاء الاصطناعي والأمن ، محذرة مجتمع الأمن من “الالتزام” بما قد يأتي بعد.
قال: “لا أتوقع بعض القدرات التقنية السحرية التي يولدها الذكاء الاصطناعي والتي ستستغل كل الأشياء”. لكن “في العام المقبل ، إذا كنا نتحدث هنا عن عام مماثل في المراجعة ، أعتقد أنه سيكون لدينا مجموعة من الأمثلة حول مكان تسليحها ، وأين تم استخدامها ، وأين نجحت.”