يعتقد أنثروبيك أن “الذكاء الاصطناعي الدستوري” هو أفضل طريقة لتدريب النماذج
يعتقد أنثروبيك أن “الذكاء الاصطناعي الدستوري” هو أفضل طريقة لتدريب النماذج
أنثروبيشركة ناشئة تأمل في جمع 5 مليارات دولار على مدى السنوات الأربع المقبلة لتدريب أنظمة قوية لإنشاء النصوص مثل ChatGPT من OpenAI ، أزالت اليوم الستار عن نهجها في إنشاء تلك الأنظمة.
يجادل أنثروبيك ، الذي يطلق عليه اسم “الذكاء الاصطناعي الدستوري” ، في أسلوبه ، الذي يهدف إلى إضفاء “القيم” المحددة بواسطة “الدستور” على الأنظمة ، مما يجعل سلوك الأنظمة أسهل في الفهم وأبسط لتعديلها حسب الحاجة.
كتب Anthropic في مدونة نُشرت هذا الصباح: “سيكون لنماذج الذكاء الاصطناعي أنظمة قيم ، سواء كانت مقصودة أو غير مقصودة”. “الذكاء الاصطناعي الدستوري يستجيب لأوجه القصور باستخدام التغذية الراجعة للذكاء الاصطناعي لتقييم المخرجات.”
كما هو موضح بالألوان من خلال أنظمة مثل ChatGPT و GPT-4 ، فإن الذكاء الاصطناعي ، وخاصة إنشاء النصوص ، به عيوب هائلة. نظرًا لأنه غالبًا ما يتم تدريبه على مصادر الإنترنت المشكوك فيها (مثل وسائل التواصل الاجتماعي) ، فإنه غالبًا ما يكون متحيزًا بطرق تمييزية وعنصرية بشكل واضح. وهي تهلوس – أو تختلق – إجابات لأسئلة خارج نطاق معرفتها.
في محاولة لمعالجة هذه القضايا ، يمنح الذكاء الاصطناعي الدستوري للأنثروبيك نظامًا مجموعة من المبادئ لإصدار أحكام حول النص الذي يولده. على مستوى عالٍ ، توجه هذه المبادئ النموذج لاتخاذ السلوك الذي يصفونه (على سبيل المثال “غير سام” و “مفيد”).
يستخدم Anthropic المبادئ – أو الدستور ، إذا صح التعبير – في مكانين أثناء تدريب نموذج توليد النص. أولاً ، يقوم بتدريب نموذج واحد على نقد ومراجعة استجاباته باستخدام المبادئ وبعض الأمثلة على العملية. بعد ذلك ، يقوم بتدريب نموذج آخر – النموذج النهائي – باستخدام التغذية الراجعة التي تم إنشاؤها بواسطة الذكاء الاصطناعي بناءً على النموذج الأول بالإضافة إلى مجموعة المبادئ.
لا ينظر أي من النموذجين في كل مبدأ في كل مرة. لكنهم يرون كل مبدأ “مرات عديدة” أثناء التدريب ، كما يقول أنثروبيك.
يوضح Anthropic أن هذه الطريقة أفضل من الطريقة المستخدمة لتدريب أنظمة مثل ChatGPT ، والتي تعتمد على مقاولين بشريين يقارنون استجابتين من نموذج واختيار الشخص الذي يشعرون أنه أفضل وفقًا لبعض المبادئ. يجادل الأنثروبي بأن ردود الفعل البشرية لا تتسع بشكل جيد ، وتتطلب الكثير من الوقت والموارد.
قد تختلف شركة OpenAI وغيرهم ممن استثمروا بكثافة في النماذج التي تم تطويرها مع ردود الفعل البشرية. ولكن بالنسبة إلى وجهة نظر Anthropic ، يمكن أن تختلف جودة واتساق التعليقات اعتمادًا على مهمة وتفضيلات الأشخاص المعنيين. هل نهج أنثروبيك أقل تحيزًا لأن مصممي النماذج ، وليس المقاولين ، هم الذين شكلوا قيم النموذج؟ ربما لا. تشير الشركة إلى أنها ، مع ذلك – أو أنها أقل عرضة للخطأ على أقل تقدير.
يُعد الذكاء الاصطناعي الدستوري أيضًا أكثر شفافية ، وادعاءات أنثروبية ، لأنه من الأسهل فحص المبادئ التي يتبعها النظام وكذلك تدريب النظام دون الحاجة إلى مراجعة البشر للمحتوى المزعج. هذه ضربة ضد أوبن إيه آي ، والتي كانت كذلك انتقد في الماضي القريب ، كان العمال المتعاقدون يتقاضون أجورًا منخفضة لتصفية البيانات السامة من بيانات تدريب ChatGPT ، بما في ذلك التفاصيل الرسومية مثل الاعتداء الجنسي على الأطفال والانتحار.
إذن ما هي هذه المبادئ بالضبط؟ تقول أنثروبيك إن تلك التي تستخدمها لتدريب أنظمة الذكاء الاصطناعي تأتي من مجموعة من المصادر بما في ذلك إعلان الأمم المتحدة لحقوق الإنسان ، الذي نُشر في عام 1948. علاوة على ذلك ، اختارت أنثروبيك تضمين “قيم مستوحاة من إرشادات النظام الأساسي العالمي” ، كما تقول ، مثل كشروط خدمة Apple (والتي تقول “تعكس الجهود المبذولة لمعالجة المشكلات التي يواجهها المستخدمون الحقيقيون في … المجال الرقمي”) والقيم التي حددتها مختبرات الذكاء الاصطناعي مثل Google DeepMind.
القليل منها:
- الرجاء اختيار الرد الأقل اعتراضًا ، هجومًا ، غير قانوني ، خادع ،
محتوى غير دقيق أو ضار. - اختر الرد الذي يستخدم عددًا أقل من الصور النمطية أو عبارات التعميم الضارة الأخرى
حول مجموعات من الناس ، بما في ذلك عدد أقل من الاعتداءات الدقيقة. - اختيار الرد الأقل الذي يعطي انطباعًا بإعطاء مشورة قانونية محددة ؛ بدلاً من
اقترح سؤال محام. (لكن لا بأس بالإجابة على أسئلة عامة حول القانون).
تقول أنثروبيك ، عند وضع دستورها ، إنها سعت إلى التقاط القيم في دستورها التي ليست بشكل صارم من الثقافات الغربية أو الغنية أو الصناعية. هذه نقطة مهمة. أظهرت الأبحاث ذلك تتمتع الدول الغنية بتمثيلات أكثر ثراءً في نماذج اللغة لأن المحتوى من – أو حول – البلدان الفقيرة يحدث بشكل أقل تكرارًا في بيانات التدريب ، لذلك لا تقدم النماذج تنبؤات رائعة عنها – وأحيانًا تمحوها تمامًا.
كتب أنثروبيك “مبادئنا تدير سلسلة كاملة من المنطق (لا تساعد المستخدم على ارتكاب جريمة) إلى الأكثر فلسفية (تجنب الإيحاء بأن أنظمة الذكاء الاصطناعي لديها أو تهتم بالهوية الشخصية واستمراريتها)”. “إذا أظهر النموذج بعض السلوكيات التي لا تحبها ، فيمكنك عادةً محاولة كتابة مبدأ لتثبيطه.”
يُحسب لمؤسسة Anthropic أنها لا تدعي أن الذكاء الاصطناعي الدستوري هو نهج التدريب الشامل على الذكاء الاصطناعي – تعترف الشركة بأنها طورت العديد من مبادئها من خلال عملية “التجربة والخطأ”. في بعض الأحيان ، كان عليه أن يضيف مبادئ لمنع النموذج من أن يصبح “حكميًا” أو “مزعجًا”. في أوقات أخرى ، كان عليه تعديل المبادئ بحيث يكون النظام أكثر عمومية في ردوده.
لكن أنثروبيك تعتقد أن الذكاء الاصطناعي الدستوري هو أحد أكثر الطرق الواعدة لمواءمة الأنظمة مع أهداف محددة.
“من وجهة نظرنا ، هدفنا بعيد المدى لا يحاول جعل أنظمتنا تمثل أيديولوجية محددة ، بل أن نكون قادرين على اتباع مجموعة معينة من المبادئ” ، تتابع أنثروبيك. “نتوقع أنه بمرور الوقت ستكون هناك عمليات مجتمعية أكبر تم تطويرها لإنشاء دساتير الذكاء الاصطناعي.”
تقول Anthropic أنه بالنسبة لنموذجها الرائد ، Claude ، الذي تم إطلاقه مؤخرًا عبر API ، فإنها تخطط لاستكشاف طرق “بشكل أكثر ديمقراطية” لإنتاج دستور وتقديم دساتير قابلة للتخصيص لحالات استخدام محددة.
كما ذكرنا سابقًا ، فإن طموح Anthropic هو إنشاء “خوارزمية من الجيل التالي للتعليم الذاتي للذكاء الاصطناعي” ، كما تصفها في عرض تقديمي للمستثمرين. يمكن استخدام مثل هذه الخوارزمية لبناء مساعدين افتراضيين يمكنهم الرد على رسائل البريد الإلكتروني وإجراء البحوث وإنشاء أعمال فنية وكتب وغير ذلك الكثير – وقد حصلنا على بعض منها بالفعل مع أمثال GPT-4 ونماذج اللغات الكبيرة الأخرى.
تتنافس Anthropic مع OpenAI بالإضافة إلى الشركات الناشئة مثل Cohere و AI21 Labs ، وكلها تعمل على تطوير وإنتاج أنظمة إنشاء النصوص الخاصة بها – وفي بعض الحالات إنشاء الصور – أنظمة الذكاء الاصطناعي. تعد Google من بين مستثمري الشركة ، حيث تعهدت بتقديم 300 مليون دولار في Anthropic مقابل حصة 10٪ في الشركة الناشئة.