أخبار تقنيةتقنيةتكنولوجياشروحاتمراجعات تقنيةمقالات معلوماتية

يقول عمال Google أنفسهم إن منافس ChatGPT من Google يمثل فوضى أخلاقية

يقول عمال Google أنفسهم إن منافس ChatGPT من Google يمثل فوضى أخلاقية

أطلقت Google شركة Bard ، منافستها ChatGPT ، على الرغم من المخاوف الداخلية من أنها كانت “كاذبة مرضية” وأنتجت نتائج “جديرة بالملل” ، حسبما زعم تقرير جديد. تم تجاهل هذه المخاوف على ما يبدو في محاولة محمومة للحاق بـ ChatGPT والتخلص من التهديد الذي يمكن أن يشكله على أعمال البحث في Google.

الوحي يأتي من أ تقرير بلومبرج التي تعمقت في Google Bard والمشكلات التي أثارها الموظفون الذين عملوا في المشروع. إنه سرد رائع للطرق التي يبدو أن الشات بوت خرج بها عن مساره ، والشكوك التي أثارتها هذه الحوادث بين العمال المعنيين.

ChatGPT مقابل Google على الهواتف الذكية.

على سبيل المثال ، استشهدت بلومبرج بموظف مجهول طلب من بارد تعليمات حول كيفية الهبوط بالطائرة ، ثم شعر بالفزع لرؤية أن وصف بارد سيؤدي إلى وقوع حادث. وقال عامل آخر إن نصائح Bard للغوص “من المحتمل أن تؤدي إلى إصابة خطيرة أو الوفاة”.

من الواضح أن هذه القضايا قد أثيرت قبل وقت قصير من إطلاق Bard ، ومع ذلك ، ضغطت Google على موعد بدء البث المباشر ، وكانت هذه هي رغبتها في مواكبة المسار الذي أطلقته ChatGPT. لكنها فعلت ذلك مع تجاهل التزاماتها الأخلاقية ، مما أدى ليس فقط إلى نصائح خطيرة ، ولكن أيضًا احتمال انتشار المعلومات المضللة.

التسرع في الانطلاق

روبوت الدردشة Google Bard AI في مستعرض ويب يظهر على شاشة هاتف ذكي يعمل بنظام Android.
مجاهد متكين / أنسبلاش

في عام 2021 ، تعهدت Google بمضاعفة فريق موظفيها الذين يدرسون العواقب الأخلاقية للذكاء الاصطناعي (AI) والاستثمار بشكل أكبر في تحديد الأضرار المحتملة. ومع ذلك ، فإن هذا الفريق أصبح الآن “محبط القوة والعاطفة” ، كما يزعم بلومبرج. والأسوأ من ذلك ، أنه تم إخبار أعضاء الفريق “بعدم الوقوف في طريقهم أو محاولة قتل أي من أدوات الذكاء الاصطناعي التوليدية قيد التطوير” ، مما جعل التزام Google بأخلاقيات الذكاء الاصطناعي موضع تساؤل.

شوهد هذا في العمل قبل إطلاق Bard مباشرة. في شباط (فبراير) ، أرسل أحد العاملين في Google رسالة إلى مجموعة داخلية ليقول “رائع أسوأ من عديم الفائدة: من فضلك لا تطلق” ، مع تناغم العشرات من الموظفين الآخرين للموافقة. في الشهر التالي ، نقضت جين جيناي ، رئيسة حوكمة الذكاء الاصطناعي في Google ، تقييمًا للمخاطر قال إن Bard يمكن أن يتسبب في ضرر ولم يكن جاهزًا للإطلاق ، مما دفع إلى إطلاق أول إصدار علني لبرنامج chatbot.

يرسم تقرير بلومبيرج صورة لشركة لا تثق في المخاوف الأخلاقية التي تشعر أنها يمكن أن تعرقل ربحية منتجاتها. على سبيل المثال ، طلب أحد العاملين العمل على الإنصاف في التعلم الآلي ولكن تم تثبيطه مرارًا وتكرارًا ، لدرجة أن ذلك أثر على مراجعة أدائهم. وذكر الموظف أن المديرين اشتكوا من أن المخاوف الأخلاقية كانت تعرقل “عملهم الحقيقي”.

إنه موقف مقلق ، خاصة وأننا رأينا بالفعل الكثير من الأمثلة على سوء سلوك روبوت الدردشة للذكاء الاصطناعي الذي أنتج معلومات مسيئة أو مضللة أو خاطئة تمامًا. إذا كان بلومبرج محقًا بشأن نهج Google الذي يبدو معاديًا للمخاوف الأخلاقية ، فقد تكون هذه مجرد البداية عندما يتعلق الأمر بالمشكلات التي يسببها الذكاء الاصطناعي.

توصيات المحررين






 

يقول عمال Google أنفسهم إن منافس ChatGPT من Google يمثل فوضى أخلاقية

#يقول #عمال #Google #أنفسهم #إن #منافس #ChatGPT #من #Google #يمثل #فوضى #أخلاقية