أخبار تقنيةتقنيةتكنولوجياشروحاتمراجعات تقنيةمقالات معلوماتية

لدى Microsoft طريقة جديدة للحفاظ على أخلاقيات ChatGPT ، ولكن هل ستنجح؟

لدى Microsoft طريقة جديدة للحفاظ على أخلاقيات ChatGPT ، ولكن هل ستنجح؟

تعرضت مايكروسوفت للكثير من الانتقادات عندما أغلقت فريق الأخلاقيات والمجتمع في الذكاء الاصطناعي (AI) في مارس 2023. لم تكن نظرة جيدة بالنظر إلى الفضائح شبه المتزامنة التي اجتاحت الذكاء الاصطناعي ، لكن الشركة أوضحت للتو كيف تنوي للحفاظ على مسؤوليتها المستقبلية والتحقق من المضي قدمًا.

في منشور على موقع Microsoft في مدونة القضاياأوضحت ناتاشا كرامبتون – كبير مسؤولي الذكاء الاصطناعي المسؤول في شركة ريدموند – أنه تم حل فريق الأخلاقيات لأن “فريقًا واحدًا أو تخصصًا واحدًا مكلفًا بالذكاء الاصطناعي المسؤول أو الأخلاقي لن يحقق أهدافنا”.

تظهر دردشة Bing على جهاز كمبيوتر محمول.
جاكوب روتش / الاتجاهات الرقمية

وبدلاً من ذلك ، تبنت Microsoft النهج الذي اتبعته مع فرق الخصوصية والأمان وإمكانية الوصول و “الذكاء الاصطناعي المسؤول المضمّن عبر الشركة”. من الناحية العملية ، هذا يعني أن لدى Microsoft موظفين كبار “مكلفين بقيادة الذكاء الاصطناعي المسؤول داخل كل مجموعة عمل أساسية” ، بالإضافة إلى “شبكة كبيرة من” أبطال “الذكاء الاصطناعي المسؤولين مع مجموعة من المهارات والأدوار لمزيد من المشاركة المنتظمة والمباشرة.”

علاوة على ذلك ، قال كرامبتون إن لدى Microsoft “ما يقرب من 350 شخصًا يعملون في مجال الذكاء الاصطناعي المسؤول ، مع ما يزيد قليلاً عن ثلث هؤلاء (129 على وجه الدقة) مكرسين لها بدوام كامل ؛ يتحمل الباقون مسؤوليات مسؤولة عن الذكاء الاصطناعي كجزء أساسي من وظائفهم “.

بعد أن أغلقت Microsoft فريق Ethics & Society الخاص بها ، أشار كرامبتون إلى أن بعض أعضاء الفريق تم دمجهم لاحقًا في فرق عبر الشركة. ومع ذلك ، تم فصل سبعة أعضاء من المجموعة كجزء من التخفيضات الواسعة لوظائف Microsoft التي أدت إلى تسريح 10000 عامل في بداية عام 2023.

الإبحار في الفضائح

Bing Chat تقول إنها تريد أن تكون إنسانًا.
جاكوب روتش / الاتجاهات الرقمية

أملك لم يكن خاليًا من الفضائح في الأشهر الأخيرة ، وهذه المخاوف هي التي غذت رد الفعل العنيف ضد حل Microsoft لفريق أخلاقيات الذكاء الاصطناعي. إذا كانت Microsoft تفتقر إلى فريق متخصص للمساعدة في توجيه منتجات الذكاء الاصطناعي الخاصة بها في اتجاهات مسؤولة ، فقد ذهب التفكير ، فستجد صعوبة في الحد من أنواع الانتهاكات والسلوك المشكوك فيه الذي اشتهر به برنامج Bing chatbot.

تهدف أحدث مدونة للشركة بالتأكيد إلى التخفيف من هذه المخاوف بين الجمهور. بدلاً من التخلي عن جهود الذكاء الاصطناعي بالكامل ، يبدو أن Microsoft تسعى لضمان اتصال الفرق في جميع أنحاء الشركة بالخبراء المسؤولين عن الذكاء الاصطناعي بشكل منتظم.

ومع ذلك ، ليس هناك شك في أن إغلاق فريق AI Ethics & Society التابع لها لم يكن جيدًا ، وهناك احتمالات بأن Microsoft لا يزال أمامها بعض الطريق لتهدئة العقل الجماعي للجمهور بشأن هذا الموضوع. في الواقع ، حتى مايكروسوفت نفسها تعتقد أن ChatGPT – التي يمتلك مطورها OpenAI ، مملوكة لشركة Microsoft – يجب أن تخضع للتنظيم.

بالأمس فقط ، ترك جيفري هينتون – “الأب الروحي للذكاء الاصطناعي – Google” وأخبر صحيفة نيويورك تايمز أن لديه مخاوف جدية بشأن وتيرة واتجاه توسع الذكاء الاصطناعي ، بينما وقعت مجموعة من خبراء التكنولوجيا البارزين مؤخرًا خطابًا مفتوحًا يدعو إلى التوقف تطوير الذكاء الاصطناعي بحيث يمكن فهم مخاطره بشكل أفضل.

قد لا تتجاهل Microsoft المخاوف الأخلاقية بشأن تطوير الذكاء الاصطناعي ، ولكن يبقى أن نرى ما إذا كان نهجها الجديد هو النهج الصحيح أم لا. بعد استمرار Bing Chat المثير للجدل ، تأمل ناتاشا كرامبتون وزملاؤها أن تتغير الأمور نحو الأفضل.

توصيات المحررين






 

لدى Microsoft طريقة جديدة للحفاظ على أخلاقيات ChatGPT ، ولكن هل ستنجح؟

#لدى #Microsoft #طريقة #جديدة #للحفاظ #على #أخلاقيات #ChatGPT #ولكن #هل #ستنجح