أخبار تقنيةتقنيةتكنولوجياشروحاتمراجعات تقنيةمقالات معلوماتية

يمكن للعدالة الإجرائية معالجة مشكلة الثقة / الشرعية التوليدية للذكاء الاصطناعي

يمكن للعدالة الإجرائية معالجة مشكلة الثقة / الشرعية التوليدية للذكاء الاصطناعي

أعاد وصول الذكاء الاصطناعي التوليدي الذي تم الترويج له كثيرًا إشعال نقاش مألوف حول الثقة والأمان: هل يمكن الوثوق بمديري التكنولوجيا التنفيذيين للحفاظ على مصالح المجتمع الفضلى في القلب؟

نظرًا لأن بيانات التدريب الخاصة به يتم إنشاؤها من قبل البشر ، فإن الذكاء الاصطناعي بطبيعته عرضة للتحيز وبالتالي يخضع لطرقنا غير الكاملة والموجهة عاطفياً لرؤية العالم. نحن نعلم جيدًا المخاطر ، من تعزيز التمييز وعدم المساواة العرقية إلى تعزيز الاستقطاب.

الرئيس التنفيذي لشركة OpenAI سام التمان لديه طلب “الصبر وحسن النية” لأنها تعمل على “تصحيح الأمر”.

لعقود من الزمان ، وضعنا إيماننا بصبر مع التنفيذيين في مجال التكنولوجيا على مسؤوليتنا: لقد أنشأوها ، لذلك صدقناهم عندما قالوا إنهم يستطيعون إصلاحها. تستمر الثقة في شركات التكنولوجيا في الانخفاض ، ووفقًا لمقياس إيدلمان للثقة لعام 2023 ، 65٪ قلقون على الصعيد العالمي ستجعل التكنولوجيا من المستحيل معرفة ما إذا كان ما يراه الناس أو يسمعونه حقيقيًا.

لقد حان الوقت لكي يتبنى وادي السيليكون نهجًا مختلفًا لكسب ثقتنا – نهج أثبت فعاليته في النظام القانوني للدولة.

نهج العدالة الإجرائية للثقة والشرعية

ترتكز العدالة الإجرائية على علم النفس الاجتماعي ، وهي تستند إلى بحث يُظهر أن الناس يعتقدون أن المؤسسات والجهات الفاعلة أكثر موثوقية وشرعية عندما يتم الاستماع إليها وتجربة اتخاذ قرارات محايدة وغير منحازة وشفافة.

أربعة مكونات رئيسية للعدالة الإجرائية هي:

  • الحياد: القرارات غير متحيزة وموجهة من خلال التفكير المنطقي الشفاف.
  • الاحترام: يعامل الجميع باحترام وكرامة.
  • الصوت: كل شخص لديه فرصة ليروي جانبه من القصة.
  • الجدارة بالثقة: ينقل صانعو القرار دوافع جديرة بالثقة حول المتأثرين بقراراتهم.

باستخدام هذا الإطار ، حسنت الشرطة الثقة والتعاون في مجتمعاتها وبدأت بعض شركات وسائل التواصل الاجتماعي في ذلك استخدم هذه الأفكار لتشكيل الحوكمة والاعتدال اقتراب.

فيما يلي بعض الأفكار حول كيفية قيام شركات الذكاء الاصطناعي بتكييف هذا الإطار لبناء الثقة والشرعية.

بناء الفريق المناسب لمعالجة الأسئلة الصحيحة

مثل أستاذة جامعة كاليفورنيا في لوس أنجلوس ، صفية نوبل s ، لا يمكن حل الأسئلة المحيطة بالتحيز الخوارزمي من قبل المهندسين وحدهم ، لأنها قضايا اجتماعية نظامية تتطلب وجهات نظر إنسانية – خارج أي شركة واحدة – لضمان المحادثة المجتمعية ، والإجماع ، والتنظيم في النهاية – سواء الذاتي والحكومي.

في خطأ في النظام: أين أخطأت شركات التكنولوجيا الكبرى وكيف يمكننا إعادة التشغيل يناقش ثلاثة أساتذة في جامعة ستانفورد بشكل نقدي أوجه القصور في التدريب على علوم الكمبيوتر وثقافة الهندسة بسبب هوسهم بالتحسين ، وغالبًا ما يدفعون القيم الأساسية إلى مجتمع ديمقراطي جانبًا.

في منشور مدونة ، تقول منظمة العفو الدولية المفتوحة إنها تقدر المدخلات الاجتماعية: “لأن الجانب الإيجابي للذكاء الاصطناعي العام كبير جدًا ، لا نعتقد أنه من الممكن أو المرغوب فيه أن يوقف المجتمع تطوره إلى الأبد ؛ بدلاً من ذلك ، يتعين على المجتمع ومطوري الذكاء الاصطناعي العام أن يكتشفوا كيفية القيام بذلك بشكل صحيح “.

ومع ذلك ، فإن صفحة التوظيف للشركة ومؤسسها Sam Altman’s tweets أظهر أن الشركة توظف أعدادًا كبيرة من مهندسي التعلم الآلي وعلماء الكمبيوتر لأن “ChatGPT لديها خارطة طريق طموحة وتعوقها الهندسة.”

هل علماء ومهندسي الكمبيوتر هؤلاء مجهزون لاتخاذ قرارات ، كما قالت شركة OpenAI ، “يتطلب حذرًا أكثر بكثير مما يطبقه المجتمع عادةً على التقنيات الجديدة“؟

يجب أن توظف شركات التكنولوجيا فرقًا متعددة التخصصات تشمل علماء الاجتماع الذين يفهمون التأثيرات البشرية والاجتماعية للتكنولوجيا. من خلال مجموعة متنوعة من وجهات النظر المتعلقة بكيفية تدريب تطبيقات الذكاء الاصطناعي وتنفيذ معايير السلامة ، يمكن للشركات توضيح أسباب شفافة لقراراتها. وهذا بدوره يمكن أن يعزز تصور الجمهور للتكنولوجيا على أنها محايدة وجديرة بالثقة.

قم بتضمين وجهات نظر خارجية

عنصر آخر للعدالة الإجرائية هو إعطاء الناس فرصة للمشاركة في عملية صنع القرار. في الآونة الأخيرة مدونة في منشور حول كيفية معالجة شركة OpenAI للتحيز ، قالت الشركة إنها تسعى للحصول على “مدخلات خارجية على تقنيتنا” مشيرة إلى تمرين فريق أحمر حديث ، وهي عملية لتقييم المخاطر من خلال نهج عدائي.

في حين أن الفرق الحمراء هي عملية مهمة لتقييم المخاطر ، يجب أن تتضمن مدخلات خارجية. في تمرين الفريق الأحمر لـ OpenAI، 82 من أصل 103 مشاركين كانوا موظفين. من بين المشاركين الـ 23 المتبقين ، كان الغالبية من علماء علوم الكمبيوتر من جامعات غربية في الغالب. للحصول على وجهات نظر متنوعة ، تحتاج الشركات إلى النظر إلى ما هو أبعد من موظفيها وتخصصاتها وجغرافيتها.

يمكنهم أيضًا تمكين المزيد من التعليقات المباشرة على منتجات الذكاء الاصطناعي من خلال تزويد المستخدمين بمزيد من الضوابط على كيفية أداء الذكاء الاصطناعي. قد يفكرون أيضًا في توفير فرص للتعليق العام على السياسة الجديدة أو تغييرات المنتج.

ضمان الشفافية

يجب أن تضمن الشركات أن جميع القواعد وعمليات السلامة ذات الصلة شفافة وأن تنقل دوافع جديرة بالثقة حول كيفية اتخاذ القرارات. على سبيل المثال ، من المهم تزويد الجمهور بمعلومات حول كيفية تدريب التطبيقات ، ومن أين يتم سحب البيانات ، وما هو الدور الذي يلعبه البشر في عملية التدريب ، وما هي طبقات الأمان الموجودة لتقليل سوء الاستخدام.

يُعد السماح للباحثين بتدقيق نماذج الذكاء الاصطناعي وفهمها أمرًا أساسيًا لبناء الثقة.

حصل التمان على حق في الآونة الأخيرة حروف أخبار مقابلة عندما قال ، “المجتمع ، على ما أعتقد ، لديه قدر محدود من الوقت لمعرفة كيفية الرد على ذلك ، وكيفية تنظيم ذلك ، وكيفية التعامل معه.”

من خلال نهج العدالة الإجرائية ، بدلاً من نهج التعتيم والعمياء الذي اتبعه أسلاف التكنولوجيا ، يمكن للشركات التي تبني منصات الذكاء الاصطناعي إشراك المجتمع في العملية وكسب الثقة والشرعية – وليس الطلب.

 

يمكن للعدالة الإجرائية معالجة مشكلة الثقة / الشرعية التوليدية للذكاء الاصطناعي

#يمكن #للعدالة #الإجرائية #معالجة #مشكلة #الثقة #الشرعية #التوليدية #للذكاء #الاصطناعي