artificial intelligenceNeuralأخبار تقنيةتقنيةتكنولوجياشروحاتمراجعات تقنيةمقالات معلوماتية

سبب أهمية حوكمة الذكاء الاصطناعي لبناء ذكاء اصطناعي أكثر جدارة بالثقة وقابلية للتفسير

سبب أهمية حوكمة الذكاء الاصطناعي لبناء ذكاء اصطناعي أكثر جدارة بالثقة وقابلية للتفسير

المحتوى مقدم من آي بي إم و TNW

إن مخاطر تطور الروبوتات خارج نطاق سيطرتنا موثقة جيدًا في أفلام الخيال العلمي والتلفزيون – هي ، المرآة السوداء ، البدائلو أنا روبوتنحتاج أن نواصل؟

في حين أن هذا قد يبدو وكأنه خيال بعيد المنال ، فإن FICO 2021 حالة الذكاء الاصطناعي المسؤول وجد التقرير أن 65 ٪ من الشركات لا تستطيع في الواقع شرح كيفية اتخاذ قرارات أو تنبؤات نموذجية للذكاء الاصطناعي.

تحياتي البشر

اشترك في النشرة الإخبارية لدينا الآن للحصول على ملخص أسبوعي لقصص الذكاء الاصطناعي المفضلة لدينا في صندوق الوارد الخاص بك.

بينما يساعد الذكاء الاصطناعي بلا شك في دفع أعمالنا ومجتمعنا إلى الأمام بسرعة البرق ، فقد رأينا أيضًا الآثار السلبية التي يمكن أن يحدثها نقص الإشراف.

أظهرت دراسة تلو الأخرى أن اتخاذ القرار الذي يحركه الذكاء الاصطناعي يمكن أن يؤدي إلى نتائج متحيزة ، من التنميط العرقي في خوارزميات الشرطة التنبؤية إلى قرارات التوظيف المتحيزة جنسياً.

مع تبني الحكومات والشركات لأدوات الذكاء الاصطناعي بمعدل سريع ، ستؤثر أخلاقيات الذكاء الاصطناعي على العديد من جوانب المجتمع. ومع ذلك ، وفقًا لتقرير FICO ، قالت 78٪ من الشركات إنها “ضعيفة التجهيز لضمان الآثار الأخلاقية لاستخدام أنظمة الذكاء الاصطناعي الجديدة” ، وأن 38٪ فقط لديها خطوات للكشف عن التحيز في البيانات والتخفيف من حدته.

كما هو معتاد مع التقنيات التخريبية ، فاقت سرعة تطوير الذكاء الاصطناعي سرعة التنظيم. ولكن في السباق لاعتماد الذكاء الاصطناعي ، ما بدأت العديد من الشركات في إدراكه هو أن الجهات التنظيمية تلحق بالركب الآن. تم بالفعل رفع عدد من الدعاوى القضائية ضد الشركات إما لتطوير أو ببساطة استخدام خوارزميات الذكاء الاصطناعي المتحيزة.

تشعر الشركات بحرارة تنظيم الذكاء الاصطناعي

هذا العام كشف الاتحاد الأوروبي النقاب عن توجيه المسؤولية AI، مشروع قانون من شأنه أن يسهل مقاضاة الشركات على الضرر الذي تسببه ، وهو جزء من حملة أوسع لمنع الشركات من تطوير ونشر الذكاء الاصطناعي الضار. يضيف مشروع القانون طبقة إضافية إلى قانون الذكاء الاصطناعي المقترح ، والذي سيتطلب فحوصات إضافية للاستخدامات “عالية المخاطر” للذكاء الاصطناعي ، مثل استخدام الشرطة أو التوظيف أو الرعاية الصحية. تم الكشف عن مشروع القانون في وقت سابق من هذا الشهر ، ومن المرجح أن يصبح قانونًا في غضون السنوات القليلة المقبلة.

بينما يشعر البعض بالقلق من أن توجيه المسؤولية للذكاء الاصطناعي سيحد من الابتكار ، فإن الغرض من ذلك هو مساءلة شركات الذكاء الاصطناعي ، ويطلب منهم شرح كيفية بناء أنظمة الذكاء الاصطناعي الخاصة بهم وتدريبها. شركات التكنولوجيا التي لا تمتثل ستخاطر بإجراءات على مستوى أوروبا.

في حين أن الولايات المتحدة كانت أبطأ في تبني سياسات الحماية ، أصدر البيت الأبيض أيضًا مخططًا لـ منظمة العفو الدولية شرعة الحقوق في وقت سابق من هذا الشهر والذي يوضح كيفية عمل المستهلكين ينبغي أن تكون محميًا من الذكاء الاصطناعي الضار:

  1. يجب أن يكون الذكاء الاصطناعي آمنًا وفعالًا
  2. يجب ألا تميز الخوارزميات
  3. يجب حماية خصوصية البيانات
  4. يجب أن يكون المستهلكون على دراية عند استخدام الذكاء الاصطناعي
  5. يجب أن يكون المستهلكون قادرين على الانسحاب من استخدامه والتحدث إلى الإنسان بدلاً من ذلك

لكن هناك مشكلة. “من المهم أن ندرك أن قانون حقوق الذكاء الاصطناعي ليس تشريعًا ملزمًا ،” يكتب سيجال صموئيل ، مراسلة كبيرة في Vox. “إنها مجموعة من التوصيات التي قد تلتزم بها الوكالات الحكومية وشركات التكنولوجيا طواعية – أو لا تلتزم بها. هذا لأنه تم إنشاؤه بواسطة مكتب سياسة العلوم والتكنولوجيا ، وهي هيئة في البيت الأبيض تقدم المشورة للرئيس ولكنها لا تستطيع تطوير القوانين الفعلية “.

مع وجود لوائح صارمة للذكاء الاصطناعي أو بدونها ، واجه عدد من الشركات والمؤسسات التي تتخذ من الولايات المتحدة مقراً لها دعاوى قضائية بسبب ممارسات الذكاء الاصطناعي غير الأخلاقية.

وهي ليست مجرد رسوم قانونية تحتاج الشركات إلى القلق بشأنها. ثقة الجمهور في الذكاء الاصطناعي أمر مطلوب. أ دراسة سأل مركز بيو للأبحاث 602 مبتكرًا في مجال التكنولوجيا والمطورين وقادة الأعمال والسياسة ، “بحلول عام 2030 ، هل ستستخدم معظم أنظمة الذكاء الاصطناعي التي تستخدمها المؤسسات من جميع الأنواع المبادئ الأخلاقية التي تركز في المقام الأول على الصالح العام؟” 68٪ لا يعتقدون ذلك.

سواء خسرت شركة ما معركة قانونية بشأن مزاعم الذكاء الاصطناعي المتحيز أم لا ، فإن التأثير الذي يمكن أن تحدثه مثل هذه الحوادث على سمعة الشركة يمكن أن يكون ضارًا بنفس القدر.

بينما يلقي هذا الضوء على مستقبل الذكاء الاصطناعي ، لم نفقد كل شيء. تم العثور على مؤشر تبني الذكاء الاصطناعي العالمي لشركة IBM أن 85٪ من محترفي تكنولوجيا المعلومات يوافقون على أنه من المرجح أن يختار المستهلكون شركة تتمتع بالشفافية بشأن كيفية بناء نماذج الذكاء الاصطناعي الخاصة بها وإدارتها واستخدامها.

يمكن للشركات التي تتخذ خطوات لتبني ممارسات أخلاقية للذكاء الاصطناعي أن تجني ثمارها. فلماذا يتباطأ الكثيرون في أخذ زمام المبادرة؟

قد تكون المشكلة أنه بينما ترغب العديد من الشركات في تبني ممارسات أخلاقية للذكاء الاصطناعي ، لا يعرف الكثير من أين يبدأون. تحدثنا مع بريا كريشنان ، التي تقود فريق إدارة منتجات البيانات والذكاء الاصطناعي في شركة IBM ، لاكتشاف كيف يمكن أن يساعد بناء نموذج حوكمة قوي للذكاء الاصطناعي.

حوكمة الذكاء الاصطناعي

بحسب شركة آي بي إم“حوكمة الذكاء الاصطناعي هي عملية تحديد السياسات وإرساء المساءلة لتوجيه إنشاء ونشر أنظمة الذكاء الاصطناعي في المؤسسة.”

يقول كريشنان: “قبل الحكم ، كان الناس ينتقلون مباشرة من التجارب إلى الإنتاج في الذكاء الاصطناعي”. “لكنهم أدركوا بعد ذلك ،” حسنًا ، انتظروا دقيقة ، هذا ليس القرار الذي أتوقع أن يتخذه النظام. لماذا يحدث هذا؟’ لم يتمكنوا من شرح سبب اتخاذ الذكاء الاصطناعي لقرارات معينة “.

تتعلق حوكمة الذكاء الاصطناعي حقًا بالتأكد من أن الشركات على دراية بما تفعله خوارزمياتها – ولديها الوثائق التي تدعمها. وهذا يعني تتبع وتسجيل كيفية تدريب الخوارزمية ، والمعلمات المستخدمة في التدريب ، وأي مقاييس مستخدمة أثناء مراحل الاختبار.

إن وجود هذا في مكانه يجعل من السهل على الشركات فهم ما يحدث تحت سطح أنظمة الذكاء الاصطناعي الخاصة بهم ويسمح لهم بسحب الوثائق بسهولة في حالة التدقيق. وأشار كريشنان إلى أن هذه الشفافية تساعد أيضًا في كسر صوامع المعرفة داخل الشركة.

“إذا غادر عالم البيانات الشركة ولم تكن لديك المعلومات السابقة مرتبطة بهذه العملية ، فمن الصعب جدًا إدارتها. أولئك الذين يبحثون في النظام لن يعرفوا ما حدث. لذا فإن عملية التوثيق هذه توفر فقط تعقلًا أساسيًا حول ما يحدث وتجعل من السهل شرحه للإدارات الأخرى داخل المنظمة (مثل مديري المخاطر).

بينما لا تزال اللوائح قيد التطوير ، فإن اعتماد حوكمة الذكاء الاصطناعي الآن يعد خطوة مهمة لما يشير إليه كريشنان بـ “تدقيق المستقبل”:

“[Regulations are] يأتي سريعًا وقويًا. الآن يقوم الناس بإنتاج وثائق يدوية لأغراض التدقيق بعد وقوعها “، على حد قولها. بدلاً من ذلك ، يمكن أن يساعد البدء في التوثيق الآن الشركات في الاستعداد لأي لوائح قادمة.

النقاش حول الابتكار مقابل الحوكمة

قد تواجه الشركات منافسة متزايدة للابتكار بسرعة وتكون أول من يسوق. إذن ، ألا يؤدي قضاء الوقت في حوكمة الذكاء الاصطناعي إلى إبطاء هذه العملية وخنق الابتكار؟

يقدم كريشنان حجة مفادها أن حوكمة الذكاء الاصطناعي لا توقف الابتكار أكثر من المكابح التي تمنع شخصًا من القيادة: “هناك تحكم في الجر في السيارة ، وهناك مكابح في السيارة. تم تصميم كل هذه الأشياء لتجعلك تنطلق أسرع وأمان. هكذا أفكر في حوكمة الذكاء الاصطناعي. إنها حقًا الحصول على أقصى قيمة من الذكاء الاصطناعي الخاص بك ، مع التأكد من وجود حواجز حماية لمساعدتك أثناء الابتكار “.

وهذا يتماشى مع أكبر سبب على الإطلاق لاعتماد حوكمة الذكاء الاصطناعي: إنه أمر منطقي من الناحية التجارية. لا أحد يريد منتجات وخدمات معيبة. يمكن أن يساعد وضع معايير التوثيق ونقاط التفتيش وعمليات المراجعة الداخلية الواضحة والشفافة للتخفيف من التحيز الشركات في النهاية على إنشاء منتجات أفضل وتحسين سرعة الوصول إلى السوق.

ما زلت غير متأكد من أين تبدأ؟

هذا الشهر فقط أطلق عملاق التكنولوجيا حوكمة IBM AI، حل شامل للشركات التي تكافح من أجل الحصول على فهم أفضل لما يحدث تحت سطح هذه الأنظمة. تستخدم الأداة برنامجًا آليًا للعمل مع النظام الأساسي لعلوم البيانات في الشركات لتطوير عملية إدارة نموذج حسابي متسقة وشفافة ، مع تتبع وقت التطوير والبيانات الوصفية ومراقبة ما بعد النشر وسير العمل المخصص. يساعد ذلك في تخفيف الضغط عن فرق علوم البيانات ، مما يسمح لهم بالتركيز على المهام الأخرى. تساعد الأداة أيضًا قادة الأعمال في الحصول دائمًا على عرض لنماذجهم ، وتدعم التوثيق المناسب في حالة التدقيق.

يعد هذا خيارًا جيدًا بشكل خاص للشركات التي تستخدم الذكاء الاصطناعي عبر المؤسسة ولا تعرف ما الذي يجب التركيز عليه أولاً.

“قبل أن تشتري سيارة ، تريد تجربتها. في شركة IBM ، استثمرنا في فريق من المهندسين يساعدون عملائنا على اتخاذ حوكمة الذكاء الاصطناعي لاختبار القيادة لمساعدتهم على البدء. في غضون أسابيع فقط ، يمكن لفريق IBM Client Engineering مساعدة الفرق على الابتكار باستخدام أحدث تقنيات وأساليب إدارة الذكاء الاصطناعي باستخدام نماذج الأعمال والبيانات الخاصة بهم. يقول كريشنان: “إنه استثمار في عملائنا للمشاركة في الإنشاء السريع باستخدام تقنية IBM حتى يتمكنوا من البدء بسرعة”.

 

سبب أهمية حوكمة الذكاء الاصطناعي لبناء ذكاء اصطناعي أكثر جدارة بالثقة وقابلية للتفسير

#سبب #أهمية #حوكمة #الذكاء #الاصطناعي #لبناء #ذكاء #اصطناعي #أكثر #جدارة #بالثقة #وقابلية #للتفسير