أخبار تقنيةتقنيةتكنولوجياشروحاتمراجعات تقنيةمقالات معلوماتية

داخل نهج Google DeepMind لسلامة الذكاء الاصطناعي

داخل نهج Google DeepMind لسلامة الذكاء الاصطناعي

تحتوي هذه المقالة على مقابلة مع ليلى إبراهيم ، مديرة العمليات في Google DeepMind. إبراهيم سيتحدث في مؤتمر TNW، الذي يقام يومي 15 و 16 يونيو في أمستردام. إذا كنت ترغب في تجربة الحدث (وقول مرحباً لفريق التحرير لدينا!) ، فلدينا شيء خاص لقرائنا المخلصين. استخدم الرمز الترويجي قراءة- TNW-25 واحصل على خصم 25٪ على تصريح عملك لحضور مؤتمر TNW. نراكم في أمستردام!

منظمة العفو الدولية أصبحت السلامة مصدر قلق رئيسي. أثار التطور السريع لأدوات مثل ChatGPT و deepfakes مخاوف بشأن فقدان الوظائف والمعلومات المضللة وحتى الإبادة. الشهر الماضي تحذير جذب الذكاء الاصطناعي هذا “خطر الانقراض” عناوين الصحف في جميع أنحاء العالم.

جاء التحذير في بيان وقعه أكثر من 350 من كبار الصناعة. وكان من بينهم ليلى إبراهيم ، رئيس العمليات في Google DeepMind. كقائد لمختبر الذكاء الاصطناعي الرائد ، يمتلك إبراهيم نظرة أولية على التهديدات – والفرص.

لقد قدم DeepMind بعضًا من أكثر الاختراقات المذهلة في هذا المجال ، من قهر الألعاب المعقدة إلى الكشف عن بنية الكون البروتيني.

تتمثل مهمة الشركة النهائية في إنشاء ذكاء عام اصطناعي ، وهو مفهوم غامض يشير على نطاق واسع إلى الآلات ذات القدرات الإدراكية على مستوى الإنسان. إنه طموح ذو رؤية يجب أن يظل راسخًا في الواقع – وهنا يأتي دور إبراهيم.

في عام 2018 ، تم تعيين إبراهيم كأول مدير عمليات في DeepMind. يشرف دورها على العمليات التجارية والنمو ، مع تركيز قوي على بناء الذكاء الاصطناعي بشكل مسؤول.

قال إبراهيم لـ TNW عبر البريد الإلكتروني: “يجب أن تؤخذ المخاطر الجديدة والناشئة – مثل التحيز والسلامة وعدم المساواة – على محمل الجد”. “وبالمثل ، نريد التأكد من أننا نفعل ما في وسعنا لتحقيق أقصى قدر من النتائج المفيدة.”

Lila Ibrahim