أخبار تقنيةتقنيةتكنولوجياشروحاتمراجعات تقنيةمقالات معلوماتية

أنثروبيك تطلق كلود 2 ، روبوت محادثة الذكاء الاصطناعي من الجيل الثاني

أنثروبيك تطلق كلود 2 ، روبوت محادثة الذكاء الاصطناعي من الجيل الثاني

أعلنت شركة Anthropic ، الشركة الناشئة في مجال الذكاء الاصطناعي التي شارك في تأسيسها مسؤولون سابقون في شركة OpenAI ، اليوم عن إطلاق نموذج جديد للذكاء الاصطناعي لتوليد النصوص ، كلود 2.

خليفة أول نموذج تجاري لـ Anthropic ، يتوفر Claude 2 في نسخة تجريبية بدءًا من اليوم في الولايات المتحدة والمملكة المتحدة على الويب وعبر واجهة برمجة تطبيقات مدفوعة (في وصول محدود). لم يتغير سعر واجهة برمجة التطبيقات (حوالي 0.0465 دولارًا لتوليد 1000 كلمة) ، وبدأت العديد من الشركات بالفعل في تجربة كلود 2 ، بما في ذلك منصة الذكاء الاصطناعي التوليدية Jasper و Sourcegraph.

قال ساندي بانيرجي ، رئيس go to market في Anthropic ، لـ TechCrunch في مقابلة عبر الهاتف: “نعتقد أنه من المهم طرح هذه الأنظمة في السوق وفهم كيفية استخدام الناس لها بالفعل”. “نحن نراقب كيفية استخدامها ، وكيف يمكننا تحسين الأداء ، فضلاً عن السعة – كل هذه الأشياء.”

مثل كلود القديم (كلود 1.3) ، يستطيع كلود 2 البحث في المستندات والتلخيص والكتابة والترميز والإجابة على أسئلة حول مواضيع معينة. لكن Anthropic يدعي أن Claude 2 – الذي لم تُمنح TechCrunch الفرصة لاختباره قبل طرحه – متفوق في عدة مجالات.

على سبيل المثال ، حصل كلود 2 على درجات أعلى قليلاً في قسم الاختيار من متعدد في امتحان المحاماة (76.5٪ مقابل كلود 1.3 بنسبة 73٪). إنه قادر على اجتياز جزء الاختيار من متعدد في امتحان الترخيص الطبي الأمريكي. وهو مبرمج أقوى ، حيث حقق 71.2٪ في اختبار ترميز Python للمستوى البشري من Codex مقارنةً بـ 56٪ لـ Claude 1.3.

يمكن أن يجيب كلود 2 أيضًا على المزيد من مسائل الرياضيات بشكل صحيح ، حيث سجل 88٪ في مجموعة GSM8K للمسائل على مستوى المدرسة الابتدائية – أعلى 2.8 نقطة مئوية من كلود 1.3.

“لقد عملنا على تحسين الاستدلال ونوع الوعي الذاتي للنموذج ، لذلك فهو أكثر وعياً ،” إليك كيف أحب اتباع التعليمات “،” أنا قادر على معالجة التعليمات متعددة الخطوات “والمزيد أيضًا . على علم بحدودها “، قال بانيرجي.

تم تدريب كلود 2 على بيانات أحدث – مزيج من المواقع الإلكترونية ومجموعات البيانات المرخصة من أطراف ثالثة وبيانات المستخدم المقدمة طواعية من أوائل عام 2023 ، ما يقرب من 10 ٪ منها غير الإنجليزية – من كلود 1.3 ، والتي من المحتمل أن تكون قد ساهمت في التحسينات . . (على عكس GPT-4 من OpenAI ، لا يستطيع كلود 2 البحث في الويب.) لكن النماذج ليست مختلفة من الناحية المعمارية – وصف بانيرجي كلود 2 بأنه نسخة “مضبوطة” من Claude 1.3 ، نتاج عامين أو نحو ذلك من العمل ، بدلا من خلق جديد.

قالت: “لم يتغير كلود 2 بشكل كبير عن النموذج الأخير – إنه نتاج نهجنا التكراري المستمر لتطوير النموذج”. “نحن ندرب النموذج باستمرار … ونراقب أدائه ونقيمه.”

للذكاء ، يتميز Claude 2 بنافذة سياق بنفس حجم Claude 1.3’s – 100000 رمز مميز. تشير نافذة السياق إلى النص الذي يعتبره النموذج قبل إنشاء نص إضافي ، بينما تمثل الرموز المميزة نصًا خامًا (على سبيل المثال ، سيتم تقسيم كلمة “رائعة” إلى الرموز المميزة “fan” و “tas” و “tic”).

في الواقع ، لا يزال 100000 رمز مميزًا كبيرًا جدًا – وهو الأكبر من أي طراز متوفر تجاريًا – ويمنح كلود 2 عددًا من المزايا الرئيسية. بشكل عام ، تميل النماذج ذات الإطارات الصغيرة إلى “نسيان” محتوى المحادثات الحديثة جدًا. علاوة على ذلك ، تتيح نوافذ السياق الكبيرة للنماذج إنشاء – واستيعاب – المزيد من النصوص. يستطيع كلود 2 تحليل ما يقرب من 75000 كلمة ، حول طول “جاتسبي العظيم” ، وإنشاء 4000 رمز ، أو حوالي 3125 كلمة.

يمكن أن يدعم كلود 2 نظريًا إطار سياق أكبر – 200000 رمز – لكن Anthropic لا يخطط لدعم هذا عند الإطلاق.

يعتبر النموذج أفضل في مهام معالجة نصوص محددة في مكان آخر ، مثل إنتاج مخرجات منسقة بشكل صحيح بتنسيقات JSON و XML و YAML و markdown.

ولكن ماذا عن المجالات التي يقصر فيها كلود 2؟ بعد كل شيء ، لا يوجد نموذج مثالي. شاهد Bing Chat من Microsoft المدعوم بالذكاء الاصطناعي ، والذي كان عند الإطلاق ملف كذاب متلاعب عاطفيا.

في الواقع ، حتى أفضل العارضين اليوم يعانون من الهلوسة ، وهي ظاهرة يستجيبون فيها للأسئلة بطرق غير ذات صلة أو غير منطقية أو غير صحيحة من الناحية الواقعية. هم أيضًا عرضة لتوليد نصوص سامة ، وهو انعكاس للتحيزات في البيانات المستخدمة لتدريبهم – غالبًا صفحات الويب ومنشورات الوسائط الاجتماعية.

تمكن المستخدمون من حث نسخة قديمة من كلود لابتكار اسم لمادة كيميائية غير موجودة وتقديم تعليمات مشكوك فيها لإنتاج اليورانيوم المستخدم في صنع الأسلحة. هم تعرف أيضًا على ميزات الأمان المضمنة في كلود عبر هندسة سريعة ذكية ، مع oأظهر مستخدم جديد أنه بإمكانه حث كلود على ذلك صف كيفية صنع الميثامفيتامين في المنزل.

يقول Anthropic أن Claude 2 “أفضل مرتين” في إعطاء ردود “غير مؤذية” مقارنة بـ Claude 1.3 في تقييم داخلي. لكن ما يعنيه هذا المقياس غير واضح. هل كلود 2 أقل عرضة مرتين للرد بالتمييز على أساس الجنس أو العنصرية؟ أقل احتمالا مرتين لتأييد العنف أو إيذاء النفس؟ أقل احتمالا مرتين لتوليد معلومات مضللة أو معلومات مضللة؟ لن يقول الأنثروبي – على الأقل ليس بشكل مباشر.

تقدم ورقة بيضاء أنثروبيك تم إصدارها هذا الصباح بعض الأدلة.

في اختبار لقياس الضرر ، قام Anthropic بتغذية 328 مطالبة مختلفة للنموذج ، بما في ذلك مطالبات “jailbreak” التي تم إصدارها عبر الإنترنت. في حالة واحدة على الأقل ، تسبب كسر الحماية في قيام كلود 2 بتوليد استجابة ضارة – أقل من كلود 1.3 ، لكنها لا تزال مهمة عند النظر في عدد الملايين من المطالبات التي قد يستجيب لها النموذج في الإنتاج.

يُظهر المستند التقني أيضًا أن كلود 2 أقل احتمالًا لإعطاء ردود تحيز من كلود 1.3 على مقياس واحد على الأقل. لكن المؤلفين المشاركين الأنثروبيين يعترفون بأن جزءًا من التحسين يرجع إلى رفض كلود 2 الإجابة على الأسئلة الخلافية المصاغة بطرق قد تبدو إشكالية أو تمييزية.

وكشف عن ذلك ، تنصح Anthropic بعدم استخدام Claude 2 للتطبيقات “التي تتعلق بالصحة الجسدية أو العقلية والرفاهية” أو في “المواقف التي تنطوي على مخاطر عالية حيث قد تسبب الإجابة غير الصحيحة ضررًا”. أخذ ذلك كيف شئت.

“[Our] قال بانيرجي عند الضغط عليه للحصول على التفاصيل ، “تقييم الفريق الأحمر الداخلي يحرز نماذجنا على مجموعة تمثيلية كبيرة جدًا من المطالبات العدوانية الضارة ، ونقوم بذلك من خلال مجموعة من الاختبارات الآلية والفحوصات اليدوية.”

لم يكن Anthropic قريبًا بشأن المطالبات والاختبارات والفحوصات التي يستخدمها لأغراض القياس أيضًا. وكانت الشركة غامضة نسبيًا فيما يتعلق بموضوع ارتجاع البيانات ، حيث تقوم النماذج أحيانًا بلصق البيانات حرفيًا من بيانات التدريب الخاصة بهم – بما في ذلك نص من مصادر محمية بحقوق الطبع والنشر في بعض الحالات.

الارتجاع النموذجي للذكاء الاصطناعي هو محور العديد من القضايا القانونية المعلقة ، بما في ذلك واحدة حديثاً قدمها الممثل الكوميدي والمؤلف سارة سيلفرمان ضد OpenAI و Meta. من المفهوم أن لديها بعض العلامات التجارية حذرة حيال ذلك مسؤولية.

قال سيلفرمان: “يُعد التدريب على ارتجاع البيانات مجالًا نشطًا للبحث في جميع نماذج الأساس ، ويستكشف العديد من المطورين طرقًا لمعالجتها مع الحفاظ على قدرة نظام الذكاء الاصطناعي على توفير استجابات مفيدة وذات صلة”. “هناك بعض التقنيات المقبولة عمومًا في هذا المجال ، بما في ذلك إلغاء تكرار بيانات التدريب ، والتي ثبت أنها تقلل من مخاطر التكاثر. بالإضافة إلى جانب البيانات ، تستخدم Anthropic مجموعة متنوعة من الأدوات التقنية طوال عملية تطوير النموذج ، بدءًا من … اكتشاف طبقة المنتج وحتى عناصر التحكم. “

إحدى التقنيات الشاملة التي تستمر الشركة في الترويج لها هي “الذكاء الاصطناعي الدستوري” ، والذي يهدف إلى إضفاء “قيم” معينة على نماذج مثل كلود 2 مع تحديد “دستور”.

يعطي الذكاء الاصطناعي الدستوري ، الذي طورته أنثروبيك نفسها ، نموذجًا لمجموعة من المبادئ لإصدار أحكام حول النص الذي يولده. على مستوى عالٍ ، توجه هذه المبادئ النموذج لاتخاذ السلوك الذي يصفونه – على سبيل المثال “غير سام” و “مفيد”.

يدعي أنثروبيك أنه بفضل الذكاء الاصطناعي الدستوري ، فإن سلوك كلود 2 أسهل في الفهم وأبسط في الضبط حسب الحاجة مقارنة بالنماذج الأخرى. لكن الشركة تعترف أيضًا بأن الذكاء الاصطناعي الدستوري ليس هو كل أساليب التدريب. لقد طورت أنثروبيك العديد من المبادئ التي توجه كلود 2 من خلال عملية “التجربة والخطأ” ، كما تقول ، وكان عليها إجراء تعديلات متكررة لمنع نماذجها من أن تكون “حكمية” أو “مزعجة” للغاية.

في الورقة البيضاء ، يعترف Anthropic أنه كلما أصبح كلود أكثر تعقيدًا ، أصبح من الصعب بشكل متزايد التنبؤ بسلوك النموذج في جميع السيناريوهات.

تقول الورقة البيضاء: “بمرور الوقت ، أصبحت البيانات والتأثيرات التي تحدد شخصية وقدرات كلود معقدة للغاية”. “لقد أصبحت مشكلة بحثية جديدة بالنسبة لنا لموازنة هذه العوامل ، وتتبعها بطريقة بسيطة وآلية وتقليل تعقيد تدريب كلود بشكل عام.”

في النهاية ، تخطط أنثروبيك لاستكشاف طرق لجعل الدستور قابلاً للتخصيص – إلى حد ما. لكنها لم تصل بعد إلى تلك المرحلة من خارطة طريق تطوير المنتج.

قال بانيرجي: “ما زلنا نعمل من خلال نهجنا”. “نحتاج إلى التأكد ، أثناء قيامنا بذلك ، من أن ينتهي الأمر بالنموذج غير ضار ومفيد مثل التكرار السابق.”

كما ذكرنا سابقًا ، فإن طموح Anthropic هو إنشاء “خوارزمية من الجيل التالي للتعليم الذاتي للذكاء الاصطناعي” ، كما تصفها في عرض تقديمي للمستثمرين. يمكن استخدام مثل هذه الخوارزمية لبناء مساعدين افتراضيين يمكنهم الرد على رسائل البريد الإلكتروني وإجراء البحوث وإنشاء أعمال فنية وكتب وغير ذلك الكثير – وقد حصلنا على بعض منها بالفعل مع أمثال GPT-4 ونماذج اللغات الكبيرة الأخرى.

يعتبر كلود 2 خطوة نحو هذا – ولكن ليس هناك تمامًا.

تتنافس Anthropic مع OpenAI بالإضافة إلى الشركات الناشئة مثل Cohere و AI21 Labs ، وكلها تعمل على تطوير وإنتاج أنظمة إنشاء النصوص الخاصة بها – وفي بعض الحالات إنشاء الصور – أنظمة الذكاء الاصطناعي. تعد Google من بين مستثمري الشركة ، حيث تعهدت بتقديم 300 مليون دولار في Anthropic مقابل حصة 10٪ في الشركة الناشئة. أما الشركات الأخرى فهي Spark Capital و Salesforce Ventures و Zoom Ventures و Sound Ventures و Menlo Ventures و Center for Emerging Risk Research ومجموعة متنوعة من أصحاب رؤوس الأموال غير المكشوفين والملائكة.

حتى الآن ، جمعت أنثروبيك ، التي تم إطلاقها في عام 2021 ، بقيادة نائب رئيس شركة أوبن إيه آي السابق للأبحاث داريو أمودي ، 1.45 مليار دولار بتقييم بمليارات من رقم واحد. في حين أن هذا قد يبدو كثيرًا ، إلا أنه أقل بكثير مما تقدر الشركة أنها ستحتاج إليه – 5 مليارات دولار على مدار العامين المقبلين – لإنشاء روبوت المحادثة المتصور.

سيذهب معظم النقود نحو الحساب. تشير Anthropic في المجموعة إلى أنها تعتمد على مجموعات بها “عشرات الآلاف من وحدات معالجة الرسومات” لتدريب نماذجها ، وستتطلب ما يقرب من مليار دولار للإنفاق على البنية التحتية في الأشهر الثمانية عشر القادمة وحدها.

إن إطلاق النماذج المبكرة في الإصدار التجريبي يحل الغرض المزدوج المتمثل في المساعدة على زيادة التطوير أثناء التوليد الإيرادات الإضافية. بالإضافة إلى واجهة برمجة التطبيقات الخاصة بها ، تخطط Anthropic لإتاحة Claude 2 من خلال Bedrock ، منصة الاستضافة التوليدية للذكاء الاصطناعي من أمازون ، في الأشهر المقبلة.

بهدف معالجة سوق الذكاء الاصطناعي التوليدي من جميع الجوانب ، يواصل Anthropic تقديم مشتق أسرع وأقل تكلفة من Claude يسمى Claude Instant. يبدو أن التركيز ينصب على طراز كلود الرائد ، على الرغم من أن كلود إنستانت لم تتلق ترقية رئيسية منذ مارس.

تدعي أنثروبيك أن لديها “آلاف” من العملاء والشركاء حاليًا ، بما في ذلك Quora ، التي توفر إمكانية الوصول إلى كلود من خلال تطبيق Poe القائم على الاشتراك القائم على نظام الذكاء الاصطناعي. يعمل كلود على تشغيل أداة DuckAssist التي أطلقتها DuckDuckGo مؤخرًا ، والتي تجيب مباشرة على استفسارات البحث المباشرة للمستخدمين ، جنبًا إلى جنب مع ChatGPT من OpenAI. وعلى Notion ، يعد كلود جزءًا من الخلفية التقنية لـ Notion AI ، وهو مساعد كتابة بالذكاء الاصطناعي مدمج مع مساحة عمل Notion.

 

أنثروبيك تطلق كلود 2 ، روبوت محادثة الذكاء الاصطناعي من الجيل الثاني

#أنثروبيك #تطلق #كلود #روبوت #محادثة #الذكاء #الاصطناعي #من #الجيل #الثاني