OpenAI و DeepMind و Anthropic لمنح المملكة المتحدة الوصول المبكر إلى النماذج التأسيسية لأبحاث السلامة في الذكاء الاصطناعي
OpenAI و DeepMind و Anthropic لمنح المملكة المتحدة الوصول المبكر إلى النماذج التأسيسية لأبحاث السلامة في الذكاء الاصطناعي
بعد إعلان حكومة المملكة المتحدة الأسبوع الماضي أنها تخطط لاستضافة قمة أمان الذكاء الاصطناعي “العالمية” هذا الخريف ، أطلق رئيس الوزراء ريشي سوناك أسبوع لندن للتكنولوجيا بأخبار أخرى – أخبر رواد المؤتمر أن أوبن إيه آي وجوجل ديب مايند وأنثروبيك قد التزموا لتوفير “الوصول المبكر أو ذي الأولوية” إلى نماذج الذكاء الاصطناعي الخاصة بهم لدعم البحث في التقييم والسلامة.
شهدت Sunak تحولًا سريعًا إلى موضوع أمان الذكاء الاصطناعي في الأسابيع الأخيرة ، بعد عدد من التدخلات من قبل عمالقة الذكاء الاصطناعي الذين حذروا من المخاطر الوجودية وحتى على مستوى الانقراض التي قد تشكلها التكنولوجيا إذا لم يتم تنظيمها بشكل صحيح.
سنقوم بعمل أحدث ما توصلت إليه [AI] تتعهد Sunak اليوم بأبحاث السلامة هنا في المملكة المتحدة. “مع 100 مليون جنيه إسترليني لفريق العمل الخبير لدينا ، نخصص تمويلًا أكبر لسلامة الذكاء الاصطناعي أكثر من أي حكومة أخرى.
ستركز فرقة العمل المعنية بالسلامة بالذكاء الاصطناعي على نماذج مؤسسة الذكاء الاصطناعي ، و قالت الحكومة أيضا.
أضاف سوناك: “نحن نعمل مع المعامل الحدودية – Google DeepMind و OpenAI و Anthropic”. “ويسعدني أن أعلن أنهم التزموا بمنح الوصول المبكر أو ذي الأولوية إلى النماذج لأغراض البحث والسلامة للمساعدة في بناء تقييمات أفضل ومساعدتنا على فهم الفرص والمخاطر التي تنطوي عليها هذه الأنظمة بشكل أفضل.”
كما كرر رئيس الوزراء إعلانه السابق لقمة السلامة المرتقبة للذكاء الاصطناعي ، ساعيًا إلى تشبيه الجهود بمؤتمرات COP المناخ التي تهدف إلى تحقيق قبول عالمي بشأن معالجة تغير المناخ.
وقال: “مثلما نتحد من خلال COP للتصدي لتغير المناخ ، ستستضيف المملكة المتحدة أول قمة على الإطلاق حول أمان الذكاء الاصطناعي العالمي في وقت لاحق من هذا العام” ، مضيفًا: “أريد أن أجعل المملكة المتحدة ليس فقط موطنًا فكريًا ولكن موطنًا جغرافيًا” ، من تنظيم سلامة الذكاء الاصطناعي العالمي. “
إن التبشير بسلامة الذكاء الاصطناعي هو تغيير ملحوظ في تجهيزات حكومة سوناك.
في الآونة الأخيرة ، في شهر مارس ، كان في وضع المشجع الكامل للذكاء الاصطناعي – قائلًا في مستند تقني إنه يفضل “a نهج مؤيد للابتكار لتنظيم الذكاء الاصطناعي “. قلل النهج الوارد في الورقة من أهمية مخاوف السلامة من خلال تجنب الحاجة إلى قوانين مخصصة للذكاء الاصطناعي (أو هيئة رقابة مخصصة للذكاء الاصطناعي) لصالح وضع بعض “المبادئ المرنة”. اقترحت الحكومة أيضًا أن الإشراف على تطبيقات الذكاء الاصطناعي يجب أن يتم من قبل الهيئات التنظيمية الحالية مثل هيئة مراقبة مكافحة الاحتكار وهيئة حماية البيانات.
تقدم سريعًا بعد بضعة أشهر ، ويتحدث Sunank الآن عن رغبته في أن تستضيف المملكة المتحدة هيئة مراقبة سلامة عالمية للذكاء الاصطناعي. أو ، على الأقل ، تريد أن تمتلك المملكة المتحدة محادثة أمان الذكاء الاصطناعي من خلال السيطرة على الأبحاث حول كيفية تقييم مخرجات خوارزميات التعلم.
يبدو أن التطورات السريعة في الذكاء الاصطناعي التوليدي جنبًا إلى جنب مع التصريحات العامة من مجموعة من عمالقة التكنولوجيا وشخصيات صناعة الذكاء الاصطناعي التي تحذر من أن التكنولوجيا قد تخرج عن نطاق السيطرة قد أدت إلى إعادة التفكير في استراتيجية سريعة في داونينج ستريت.
ومن الجدير بالذكر أيضًا أن عمالقة الذكاء الاصطناعي قاموا بثني أذن سوناك شخصيًا في الأسابيع الأخيرة ، حيث عُقدت اجتماعات بين رئيس الوزراء والرؤساء التنفيذيين لـ OpenAI و DeepMind و Anthropic قبل وقت قصير من تغير المزاج الحكومي لموسيقى الذكاء الاصطناعي.
إذا التزم هؤلاء الثلاثة من عمالقة الذكاء الاصطناعي بالتزاماتهم بتزويد المملكة المتحدة بوصول متقدم إلى نماذجهم ، فهناك فرصة للبلاد لقيادة البحث في تطوير تقنيات تقييم وتدقيق فعالة – بما في ذلك قبل أن تنطلق أي أنظمة رقابة تشريعية تفرض الشفافية الخوارزمية. . في أماكن أخرى (لا يُتوقع أن يكون مشروع قانون الذكاء الاصطناعي للاتحاد الأوروبي ساري المفعول حتى عام 2026 ، على سبيل المثال ؛ على الرغم من أن قانون الخدمات الرقمية للاتحاد الأوروبي ساري بالفعل ويتطلب بالفعل بعض الشفافية الخوارزمية من عمالقة التكنولوجيا).
في الوقت نفسه ، هناك خطر من أن تجعل المملكة المتحدة نفسها عرضة لاستحواذ الصناعة على جهود السلامة الناشئة في مجال الذكاء الاصطناعي. وإذا تمكنت شركات الذكاء الاصطناعي العملاقة من السيطرة على المحادثة حول أبحاث السلامة في الذكاء الاصطناعي من خلال توفير وصول انتقائي إلى أنظمتها ، فقد يكونون في وضع جيد لتشكيل أي قواعد مستقبلية للذكاء الاصطناعي في المملكة المتحدة يمكن تطبيقها على أعمالهم.
تشير المشاركة الوثيقة لعمالقة تكنولوجيا الذكاء الاصطناعي في الأبحاث الممولة من القطاع العام حول أمان تقنياتهم التجارية قبل تطبيق أي إطار عمل أمان للذكاء الاصطناعي ملزم قانونًا يتم تطبيقه عليهم ، إلى أن لديهم على الأقل مجالًا لتأطير كيفية النظر إلى أمان الذكاء الاصطناعي والمكونات والموضوعات و يتم إعطاء الأولوية للموضوعات (وبالتالي يتم التقليل من شأنها). ومن خلال التأثير على نوع البحث الذي يتم إجراؤه لأنه قد يعتمد على مقدار الوصول الذي توفره.
وفي الوقت نفسه ، حذر علماء أخلاقيات الذكاء الاصطناعي منذ فترة طويلة من أن المخاوف التي تصدرت عناوين الصحف بشأن المخاطر التي يمكن أن تشكلها أنظمة الذكاء الاصطناعي “فائقة الذكاء” على البشر تغرق النقاش حول الأضرار التي تحدث في العالم الحقيقي والتي تولدها تقنيات الذكاء الاصطناعي الحالية ، بما في ذلك التحيز والتمييز وإساءة استخدام الخصوصية وانتهاك حقوق النشر والموارد البيئية. إساءة. استغلال.
لذلك ، في حين أن حكومة المملكة المتحدة قد تنظر إلى قبول عمالقة الذكاء الاصطناعي على أنه انقلاب في العلاقات العامة ، إذا كانت قمة الذكاء الاصطناعي وجهود السلامة الأوسع للذكاء الاصطناعي ستنتج نتائج قوية وذات مصداقية ، فيجب أن تضمن مشاركة باحثين مستقلين ومجموعات ومجموعات المجتمع المدني الذين يتعرضون بشكل غير متناسب لخطر الضرر الناجم عن الأتمتة ، وليس مجرد إعلان عن خطتهم للشراكة بين “شركات الذكاء الاصطناعي الرائعة” والأكاديميين المحليين – بالنظر إلى غالبًا ما يعتمد البحث الأكاديمي بالفعل على التمويل من عمالقة التكنولوجيا.