أخبار تقنيةتقنيةتكنولوجياشروحاتمراجعات تقنيةمقالات معلوماتية

هل يمكن لمنظمة العفو الدولية الالتزام بالتسمية؟ نحن على وشك معرفة ذلك

هل يمكن لمنظمة العفو الدولية الالتزام بالتسمية؟ نحن على وشك معرفة ذلك

قد تجد اللعبة الجديدة الأكثر رواجًا في عالم التكنولوجيا نفسها في مأزق قانوني لأن ميل الذكاء الاصطناعي لاختراع المقالات الإخبارية والأحداث يتعارض مع قوانين التشهير. هل يمكن لنموذج AI مثل ChatGPT أن يلتزم بتسمية؟ مثل الكثير من الأشياء المحيطة بالتكنولوجيا ، فهي غير معروفة وغير مسبوقة – لكن التحديات القانونية القادمة قد تغير ذلك.

يُعرَّف التشهير على نطاق واسع بأنه نشر أو قول بيانات ضارة وغير صحيحة عن شخص ما. إنها منطقة قانونية معقدة ودقيقة تختلف أيضًا على نطاق واسع عبر الولايات القضائية: تختلف قضية التشهير في الولايات المتحدة كثيرًا عن تلك الموجودة في المملكة المتحدة أو في أستراليا – مكان الدراما اليوم.

أنتج الذكاء الاصطناعي التوليدي بالفعل العديد من الأسئلة القانونية دون إجابة ، على سبيل المثال ما إذا كان استخدامه للمواد المحمية بحقوق الطبع والنشر يرقى إلى الاستخدام العادل أو الانتهاك. ولكن في وقت متأخر من عام مضى ، لم تكن النماذج المولدة للذكاء الاصطناعي من الصور والنصوص جيدة بما يكفي لإنتاج شيء يمكن أن تخلط بينه وبين الواقع ، لذا كانت أسئلة التمثيلات الخاطئة أكاديمية بحتة.

ليس كثيرًا الآن: نموذج اللغة الكبير وراء ChatGPT و Bing Chat هو فنان هراء يعمل على نطاق هائل ، ويمكن القول إن تكامله مع المنتجات السائدة مثل محركات البحث (وبشكل متزايد كل شيء آخر) يرفع النظام من تجربة رائعة إلى كتلة منصة النشر.

إذن ماذا يحدث عندما تكتب الأداة / المنصة أن مسؤولًا حكوميًا متهمًا في قضية مخالفة ، أو أن أستاذًا جامعيًا متهمًا بالتحرش الجنسي؟

قبل عام ، وبدون تكامل واسع ولغة غير مقنعة إلى حد ما ، كان القليلون يقولون إن مثل هذه التصريحات الكاذبة يمكن أن تؤخذ على محمل الجد. لكن هذه النماذج تجيب اليوم على الأسئلة بثقة وإقناع على منصات المستهلكين التي يمكن الوصول إليها على نطاق واسع ، حتى عندما تكون هذه الإجابات مهلوسة أو تُنسب بشكل خاطئ إلى مقالات غير موجودة. ينسبون البيانات الكاذبة إلى المقالات الحقيقية ، أو البيانات الصحيحة إلى المقالات المخترعة ، أو يصنعونها بالكامل.

نظرًا لطبيعة كيفية عمل هذه النماذج ، فهم لا يعرفون أو يهتمون بما إذا كان شيء ما صحيحًا أم لا ، إلا أنه يبدو صحيحًا. هذه مشكلة عندما تستخدمها لأداء واجبك ، بالتأكيد ، ولكن عندما تتهمك بجريمة لم ترتكبها ، فقد يكون ذلك تشهيرًا في هذه المرحلة.

هذا هو التأكيد الذي أدلى به بريان هود ، عمدة هيبورن شاير في أستراليا ، عندما تم إبلاغه بأن موقع ChatGPT وصفه بأنه أدين في فضيحة رشوة قبل 20 عامًا. كانت الفضيحة حقيقية – وكان هود متورطًا. لكنه كان الشخص الذي ذهب إلى السلطات بشأن ذلك ولم يُتهم قط بارتكاب جريمة. كما ذكرت رويترز محاميه يقولون.

الآن ، من الواضح أن هذا البيان خاطئ ويضر بسمعة هود بلا شك. لكن من الذي أدلى بهذا البيان؟ هل هو OpenAI الذي طور البرنامج؟ هل مايكروسوفت هي التي رخصتها ونشرتها تحت Bing؟ هل البرنامج نفسه يعمل كنظام آلي؟ إذا كان الأمر كذلك ، فمن المسؤول عن حث هذا النظام على إنشاء البيان؟ هل الإدلاء بمثل هذا التصريح في مثل هذا المكان يشكل “نشره” ، أم أنه أشبه بمحادثة بين شخصين؟ في هذه الحالة ، هل يصل الأمر إلى الافتراء؟ هل عرفت OpenAI أو ChatGPT أن هذه المعلومات خاطئة ، وكيف نحدد الإهمال في مثل هذه الحالة؟ هل يمكن لنموذج الذكاء الاصطناعي أن يظهر الخبث؟ هل يعتمد على القانون ، القضية ، القاضي؟

هذه كلها أسئلة مفتوحة لأن التكنولوجيا التي يهتمون بها لم تكن موجودة قبل عام ، ناهيك عن وضع القوانين والسوابق القانونية التي تحدد التشهير. في حين أنه قد يبدو من السخف على مستوى واحد مقاضاة روبوت محادثة لقوله شيئًا خاطئًا ، فإن روبوتات المحادثة ليست كما كانت من قبل. مع قيام بعض أكبر الشركات في العالم باقتراحها على أنها الجيل التالي لاسترجاع المعلومات ، لتحل محل محركات البحث ، لم تعد هذه ألعابًا بل أدوات يستخدمها بانتظام ملايين الأشخاص.

أرسل هود خطابًا إلى أوبن إيه آي يطلب منها أن تفعل شيئًا حيال ذلك – ليس من الواضح حقًا ما يمكن أن تفعله ، أو ما إذا كانت مضطرة ، أو أي شيء آخر ، بموجب القانون الأسترالي أو الأمريكي. لكن في قضية أخرى حديثة ، أستاذ القانون وجد نفسه متهما بالتحرش الجنسي بواسطة روبوت محادثة يستشهد بمقالة وهمية في الواشنطن بوست. ومن المحتمل أن تكون مثل هذه العبارات الخاطئة والمضرة أكثر شيوعًا مما نعتقد – أصبحت الآن جادة وكافية لتبرير إبلاغ الأشخاص المتورطين.

هذه ليست سوى بداية هذه الدراما القانونية ، وحتى المحامون وخبراء الذكاء الاصطناعي ليس لديهم أدنى فكرة عن كيفية سيرها. ولكن إذا كانت شركات مثل OpenAI و Microsoft (ناهيك عن كل شركات التكنولوجيا الكبرى الأخرى وبضع مئات من الشركات الناشئة) تتوقع أن تؤخذ أنظمتها على محمل الجد كمصادر للمعلومات ، فلا يمكنها تجنب عواقب هذه الادعاءات. قد يقترحون وصفات وتخطيط رحلة كنقاط انطلاق ، لكن الناس يفهمون أن الشركات تقول إن هذه المنصات مصدر للحقيقة.

هل ستتحول هذه التصريحات المقلقة إلى دعاوى قضائية حقيقية؟ هل سيتم حل تلك الدعاوى القضائية قبل أن تتغير الصناعة مرة أخرى؟ وهل سيتم طرح كل هذا من خلال التشريعات بين الولايات القضائية التي يتم فيها متابعة القضايا؟ إنها على وشك أن تكون بضعة أشهر مثيرة للاهتمام (أو على الأرجح سنوات) حيث يحاول الخبراء التقنيون والقانونيون معالجة أسرع هدف متحرك في الصناعة.

 

هل يمكن لمنظمة العفو الدولية الالتزام بالتسمية؟ نحن على وشك معرفة ذلك

#هل #يمكن #لمنظمة #العفو #الدولية #الالتزام #بالتسمية #نحن #على #وشك #معرفة #ذلك