أخبار تقنيةتقنيةتكنولوجياشروحاتمراجعات تقنيةمقالات معلوماتية

أعلنت هيئة مراقبة مكافحة الاحتكار في المملكة المتحدة عن المراجعة الأولية للذكاء الاصطناعي التوليدي

أعلنت هيئة مراقبة مكافحة الاحتكار في المملكة المتحدة عن المراجعة الأولية للذكاء الاصطناعي التوليدي

حسنًا ، كان ذلك سريعًا. أعلنت هيئة مراقبة المنافسة في المملكة المتحدة عن مراجعة مبدئية من “النماذج الأساسية للذكاء الاصطناعي” ، مثل نماذج اللغات الكبيرة (LLMs) التي تدعم OpenAI’s ChatGPT و Microsoft’s New Bing. من المحتمل أيضًا أن تندرج نماذج الذكاء الاصطناعي التوليدية التي تدعم منصات الذكاء الاصطناعي الفنية مثل DALL-E من OpenAI أو Midjourney في النطاق.

قالت هيئة المنافسة والأسواق (CMA) إن مراجعتها ستنظر في اعتبارات المنافسة وحماية المستهلك في تطوير واستخدام النماذج الأساسية للذكاء الاصطناعي – بهدف فهم “كيفية تطوير نماذج الأساس وإنتاج تقييم للشروط والمبادئ التي سيوجه بشكل أفضل تطوير نماذج الأساس واستخدامها في المستقبل “.

يقترح نشر المراجعة في “أوائل سبتمبر” ، مع الموعد النهائي في 2 يونيو لأصحاب المصلحة المهتمين لتقديم ردود لإبلاغ عملها.

“النماذج التأسيسية ، التي تشمل نماذج لغوية كبيرة وذكاء اصطناعي توليدي (AI) ، والتي ظهرت على مدار السنوات الخمس الماضية ، لديها القدرة على تحويل الكثير مما يفعله الأفراد والشركات. لضمان استمرار الابتكار في الذكاء الاصطناعي بطريقة تفيد المستهلكين والشركات والاقتصاد البريطاني ، طلبت الحكومة من الجهات التنظيمية ، بما في ذلك [CMA]، للتفكير في كيفية دعم التطوير المبتكر للذكاء الاصطناعي ونشره وفقًا لخمسة مبادئ شاملة: السلامة والأمن والمتانة ؛ الشفافية المناسبة وقابلية التفسير ؛ الإنصاف. المساءلة والحوكمة ؛ والمنافسة والتعويض “، كتب CMA في بيان صحفي”.

يعود الفضل إلى مركز أبحاث الذكاء الاصطناعي المتمركز حول الإنسان التابع لجامعة ستانفورد في صياغة مصطلح “النماذج التأسيسية” ، في عام 2021 ، للإشارة إلى أنظمة الذكاء الاصطناعي التي تركز على تدريب نموذج واحد على كمية هائلة من البيانات وتكييفه مع العديد من التطبيقات.

يتطرق تطوير الذكاء الاصطناعي إلى عدد من القضايا المهمة ، بما في ذلك السلامة والأمن وحقوق النشر والخصوصية وحقوق الإنسان ، فضلاً عن طرق عمل الأسواق. يتم النظر في العديد من هذه القضايا من قبل الحكومة أو جهات تنظيمية أخرى ، لذا ستركز هذه المراجعة الأولية على الأسئلة التي يعتبر CMA هو الأفضل لمعالجتها – ما هي الآثار المحتملة لتطوير نماذج أساسية للذكاء الاصطناعي للمنافسة وحماية المستهلك؟ وأضاف CMA.

وقالت الرئيسة التنفيذية للشركة ، سارة كارديل ، في بيان:

لقد انفجر الذكاء الاصطناعي في الوعي العام خلال الأشهر القليلة الماضية ولكنه ظل على رادارنا لبعض الوقت. إنها تقنية تتطور بسرعة ولديها القدرة على تغيير الطريقة التي تتنافس بها الشركات بالإضافة إلى دفع نمو اقتصادي كبير.

من الأهمية بمكان أن تكون الفوائد المحتملة لهذه التكنولوجيا التحويلية متاحة بسهولة للشركات والمستهلكين في المملكة المتحدة بينما يظل الناس محميين من مشكلات مثل المعلومات الخاطئة أو المضللة. هدفنا هو مساعدة هذه التكنولوجيا الجديدة سريعة التوسع على التطور بطرق تضمن وجود أسواق مفتوحة وتنافسية وحماية فعالة للمستهلك.

على وجه التحديد ، قال منظم المنافسة في المملكة المتحدة إن مراجعته الأولية للنماذج التأسيسية للذكاء الاصطناعي سوف:

  • يدرس كيف يمكن أن تتطور الأسواق التنافسية لنماذج الأساس واستخدامها
  • استكشاف الفرص والمخاطر التي يمكن أن تجلبها هذه السيناريوهات للمنافسة وحماية المستهلك
  • إنتاج مبادئ توجيهية لدعم المنافسة وحماية المستهلكين مع تطور نماذج الذكاء الاصطناعي الأساسية

في حين أنه قد يكون من الملاحظ في وقت مبكر أن تقوم الجهة المنظمة لمكافحة الاحتكار بإجراء مراجعة لمثل هذه التكنولوجيا الجديدة سريعة الحركة ، إلا أن هيئة السوق المالية تعمل بناءً على تعليمات الحكومة.

أشار الكتاب الأبيض لمنظمة العفو الدولية الذي نُشر في مارس / آذار إلى تفضيل الوزراء لتجنب وضع أي قواعد مخصصة (أو هيئات إشرافية) للتحكم في استخدامات الذكاء الاصطناعي في هذه المرحلة. لكن قال الوزراء إن الجهات التنظيمية الحالية في المملكة المتحدة – بما في ذلك هيئة السوق المالية التي تم التحقق من اسمها مباشرة – من المتوقع أن تصدر توجيهات لتشجيع الاستخدام الآمن والعادل والمسؤول للذكاء الاصطناعي.

تقول هيئة السوق المالية إن مراجعتها الأولية لنماذج الذكاء الاصطناعي الأساسية تتماشى مع التعليمات الواردة في الكتاب الأبيض ، حيث تحدثت الحكومة عن المنظمين الحاليين الذين يقومون بإجراء “تحليل مفصل للمخاطر” من أجل أن تكون في وضع يمكنها من تنفيذ عمليات الإنفاذ المحتملة ، أي على الخطورة ، تطبيقات الذكاء الاصطناعي غير العادلة وغير الخاضعة للمساءلة ، باستخدام صلاحياتها الحالية.

يشير المنظم أيضًا إلى مهمته الأساسية – دعم الأسواق المفتوحة والتنافسية – كسبب آخر لإلقاء نظرة على الذكاء الاصطناعي التوليدي الآن.

والجدير بالذكر أن هيئة الرقابة على المنافسة ستحصل على صلاحيات إضافية لتنظيم Big Tech في السنوات المقبلة ، في إطار خطط أوقفتها حكومة رئيس الوزراء ريشي سوناك الشهر الماضي ، عندما قال الوزراء إنها ستمضي قدمًا في خطة طويلة الأمد ( لكنها تأخرت كثيرًا) الإصلاح المسبق الذي يستهدف القوة السوقية للعمالقة الرقميين.

من المتوقع أن تكتسب وحدة الأسواق الرقمية التابعة لهيئة أسواق المال ، والتي تعمل منذ عام 2021 في شكل ظل ، (أخيرًا) سلطات تشريعية لتطبيق قواعد “مؤيدة للمنافسة” الاستباقية المصممة للمنصات التي يُنظر إليها على أنها تتمتع “بوضع إستراتيجي في السوق” (رسالة قصيرة). لذلك يمكننا التكهن بأن مزودي نماذج الذكاء الاصطناعي التأسيسية القوية قد يتم الحكم عليهم ، في المستقبل ، على أنهم يمتلكون رسائل نصية قصيرة – مما يعني أنه يمكنهم توقع مواجهة قواعد مفصلة حول كيفية تعاملهم مع المنافسين والمستهلكين في سوق المملكة المتحدة.

كما أن هيئة الرقابة على حماية البيانات في المملكة المتحدة ، ICO ، لها عينها أيضًا على الذكاء الاصطناعي التوليدي. إنها هيئة رقابة أخرى حالية كلفت الحكومة بإيلاء اهتمام خاص للذكاء الاصطناعي في إطار خطتها للتوجيهات الخاصة بالسياق لتوجيه تطوير التكنولوجيا من خلال تطبيق القوانين الحالية.

في مشاركة مدونة في الشهر الماضي ، قدم ستيفن ألموند ، المدير التنفيذي للمخاطر التنظيمية في ICO ، بعض النصائح وتحذيرًا صغيرًا لمطوري الذكاء الاصطناعي التوليدي عندما يتعلق الأمر بالامتثال لقواعد حماية البيانات في المملكة المتحدة. “يجب على المنظمات التي تعمل على تطوير أو استخدام الذكاء الاصطناعي التوليدي النظر في التزامات حماية البيانات الخاصة بها منذ البداية ، مع مراعاة حماية البيانات التصميم والنهج الافتراضيهو اقترح. “هذا ليس اختياريًا – إذا كنت تعالج البيانات الشخصية ، فهذا هو القانون.”

في غضون ذلك ، عبر القناة الإنجليزية في الاتحاد الأوروبي ، يقوم المشرعون بعملية تحديد القواعد التي يبدو أنها جاهزة للتطبيق على الذكاء الاصطناعي التوليدي.

لا تزال المفاوضات جارية بشأن النص النهائي لكتاب قواعد الذكاء الاصطناعي القادم للاتحاد الأوروبي – ولكن هناك حاليًا تركيز على كيفية تنظيم النماذج التأسيسية من خلال تعديلات على إطار العمل القائم على المخاطر لتنظيم استخدامات الذكاء الاصطناعي التي تم نشرها في مسودة منذ أكثر من عامين.

يبقى أن نرى أين سينتهي الأمر بالمشرعين المشاركين في الاتحاد الأوروبي بشأن ما يشار إليه أحيانًا باسم الذكاء الاصطناعي للأغراض العامة. ولكن ، كما ذكرنا مؤخرًا ، يدفع البرلمانيون من أجل اتباع نهج متعدد المستويات لمعالجة قضايا السلامة باستخدام النماذج التأسيسية ؛ تعقيد المسؤوليات عبر سلاسل التوريد للذكاء الاصطناعي ؛ ولمعالجة مخاوف المحتوى المحددة (مثل حقوق النشر) المرتبطة بالذكاء الاصطناعي التوليدي.

أضف إلى ذلك ، قانون حماية البيانات في الاتحاد الأوروبي ينطبق بالفعل على الذكاء الاصطناعي ، بالطبع. وتجري تحقيقات في نماذج مثل ChatGPT في الكتلة – بما في ذلك في إيطاليا حيث أدى تدخل من قبل هيئة مراقبة الخصوصية إلى قيام شركة OpenAI بتسريع سلسلة من عمليات الكشف عن الخصوصية والضوابط الشهر الماضي.

كما أنشأ مجلس حماية البيانات الأوروبي مؤخرًا فريق عمل لدعم التنسيق بين مختلف سلطات حماية البيانات بشأن التحقيقات في روبوت الدردشة الخاص بالذكاء الاصطناعي.

 

أعلنت هيئة مراقبة مكافحة الاحتكار في المملكة المتحدة عن المراجعة الأولية للذكاء الاصطناعي التوليدي

#أعلنت #هيئة #مراقبة #مكافحة #الاحتكار #في #المملكة #المتحدة #عن #المراجعة #الأولية #للذكاء #الاصطناعي #التوليدي