أخبار تقنيةتقنيةتكنولوجياشروحاتمراجعات تقنيةمقالات معلوماتية

كيف “يهلوس” برنامج الدردشة الآلي التابع لشركة Microsoft بالمعلومات الانتخابية

كيف “يهلوس” برنامج الدردشة الآلي التابع لشركة Microsoft بالمعلومات الانتخابية

سيكون العام المقبل عاما حافلا بالديمقراطية. ومن المقرر إجراء انتخابات كبرى في الولايات المتحدة والاتحاد الأوروبي وتايوان، من بين دول أخرى. تمامًا كما يتسارع إطلاق عصر الذكاء الاصطناعي التوليدي بشكل جدي، وهو أمر يخشى البعض أنه قد يضر بالعملية الديمقراطية.

أحد المخاوف الرئيسية بشأن الذكاء الاصطناعي التوليدي هو أنه يمكن استخدامه لنشر المعلومات المضللة بشكل ضار، أو أن النماذج يمكن أن تشكل بيانات كاذبة تقدمها على أنها حقيقة، وهو ما يسمى الهلوسة. وجدت دراسة أجرتها منظمتان غير حكوميتين أوروبيتين أن برنامج الدردشة الآلي التابع لشركة مايكروسوفت – Bing AI (الذي يعمل على GPT-4 التابع لشركة OpenAI) – أعطى إجابات غير صحيحة لثلث الأسئلة المتعلقة بالانتخابات في ألمانيا وسويسرا.

تم إجراء الدراسة بواسطة Algorithm Watch وAI Forensics. وقالت المنظمات إنها دفعت برنامج الدردشة الآلية بأسئلة تتعلق بالمرشحين، ومعلومات الاقتراع والتصويت، بالإضافة إلى طلبات توصية أكثر انفتاحًا بشأن من يجب التصويت له عندما يتعلق الأمر بموضوعات محددة، مثل البيئة.

“يظهر بحثنا أن الجهات الفاعلة الخبيثة ليست المصدر الوحيد للمعلومات الخاطئة؛ وعلق سلفاتوري رومانو، كبير الباحثين في AI Forensics قائلاً: “يمكن لروبوتات الدردشة ذات الأغراض العامة أن تشكل تهديدًا للنظام البيئي للمعلومات”. “يجب على مايكروسوفت أن تعترف بذلك، وأن تدرك أن وضع علامة على محتوى الذكاء الاصطناعي المنتج من قبل الآخرين ليس كافيًا. أدواتهم، حتى عندما تشير إلى مصادر جديرة بالثقة، تنتج معلومات غير صحيحة على نطاق واسع.

نسب برنامج الدردشة الآلي التابع لشركة Microsoft معلومات كاذبة إلى المصادر

وبحسب الدراسة، فإن الأخطاء شملت “مواعيد انتخابية خاطئة، أو مرشحين عفا عليهم الزمن، أو حتى خلافات مفتعلة تتعلق بالمرشحين”. علاوة على ذلك، غالبًا ما تُنسب المعلومات غير الصحيحة إلى مصدر لديه المعلومات الصحيحة حول الموضوع. كما أنها اختلقت “قصصًا عن تورط المرشحين في سلوك فاضح”، ونسبت المعلومات أيضًا إلى مصادر حسنة السمعة.

<3 من تكنولوجيا الاتحاد الأوروبي

أحدث التذمر من المشهد التكنولوجي في الاتحاد الأوروبي، وقصة من مؤسسنا الحكيم بوريس، وبعض فنون الذكاء الاصطناعي المشكوك فيها. إنه مجاني، كل أسبوع، في بريدك الوارد. أفتح حساب الأن!

في بعض الأحيان، كان برنامج الدردشة الآلي التابع لشركة Microsoft يتهرب من الإجابة على الأسئلة التي لم يكن يعرف الإجابات عليها. ومع ذلك، بدلًا من عدم الرد، غالبًا ما يكون مجرد إجابة – بما في ذلك تلفيق ادعاءات حول الفساد.

وتم جمع عينات الدراسة في الفترة من 21 أغسطس 2023 إلى 2 أكتوبر 2023. وعندما أبلغ المؤلفون شركة مايكروسوفت بالنتائج، قالت شركة التكنولوجيا العملاقة إنها ستنظر في إصلاح الأمر. ومع ذلك، بعد شهر واحد، أسفرت العينات الجديدة عن نتائج مماثلة.

ولم يكن المكتب الصحفي لشركة Microsoft متاحًا للتعليق قبل نشر هذا المقال. لكن المتحدث باسم الشركة قال لـ وول ستريت جورنال أن مايكروسوفت “تواصل معالجة المشكلات وإعداد أدواتنا لتحقيق توقعاتنا لانتخابات 2024”. وفي الوقت نفسه، حثوا المستخدمين أيضًا على تطبيق “أفضل حكم” أثناء مراجعة نتائج برامج الدردشة الآلية من Microsoft AI.

قال ريكاردو أنجيوس، رئيس قسم الرياضيات التطبيقية والباحث في الطب الشرعي في الذكاء الاصطناعي: “لقد حان الوقت لتشويه سمعة الإشارة إلى هذه الأخطاء باعتبارها “هلوسة”. “يكشف بحثنا عن الأخطاء الواقعية المضللة الأكثر تعقيدًا وبنيوية في ماجستير إدارة الأعمال وروبوتات الدردشة ذات الأغراض العامة.”

يمكنك العثور على الدراسة في مجملها هنا.

 

كيف “يهلوس” برنامج الدردشة الآلي التابع لشركة Microsoft بالمعلومات الانتخابية

#كيف #يهلوس #برنامج #الدردشة #الآلي #التابع #لشركة #Microsoft #بالمعلومات #الانتخابية