رسالة مفتوحة تسعى إلى التوقف مؤقتًا عن تجارب الذكاء الاصطناعي التي وقعها ستيف وزنياك وإيلون ماسك وغيرهما
رسالة مفتوحة تسعى إلى التوقف مؤقتًا عن تجارب الذكاء الاصطناعي التي وقعها ستيف وزنياك وإيلون ماسك وغيرهما
خبراء الذكاء الاصطناعي ، والتقنيون ، وقادة الأعمال من بين أكثر من 1000 مقدم التماس يطلبون من مختبرات الذكاء الاصطناعي إيقاف تدريب الأنظمة “الأقوى من GPT-4” مؤقتًا.
ال رسالة مفتوحة(يفتح في علامة تبويب جديدة) تم نشره يوم الأربعاء من قبل معهد Future of Life ، وهو مؤسسة غير ربحية للتخفيف من مخاطر التكنولوجيا التحويلية. تشمل قائمة الموقعين المؤسس المشارك لشركة Apple ستيف وزنياك ، و SpaceX ، و Tesla ، والرئيس التنفيذي لشركة Twitter Elon Musk ، والرئيس التنفيذي لشركة Stability AI ، عماد موستاك ، والمدير التنفيذي لمركز التكنولوجيا الإنسانية تريستان هاريس ، ويوشوا بنجيو ، مؤسس معهد أبحاث الذكاء الاصطناعي ميلا.
5 أشياء فظيعة يمكن لـ GPT-4 فعلها ولم يستطع GPT-3 القيام بها
وجاء في الرسالة: “يمكن أن يمثل الذكاء الاصطناعي المتقدم تغييرًا عميقًا في تاريخ الحياة على الأرض ، ويجب التخطيط له وإدارته بما يتناسب مع العناية والموارد”. “لسوء الحظ ، لا يحدث هذا المستوى من التخطيط والإدارة ، على الرغم من أن الأشهر الأخيرة شهدت أن مختبرات الذكاء الاصطناعي تخوض سباقًا خارج نطاق السيطرة لتطوير ونشر عقول رقمية أكثر قوة لا يمكن لأحد – ولا حتى مبتكريها – فهمها . ” أو توقع أو تحكم بشكل موثوق “.
كانت شركات مثل OpenAI و Microsoft و Google تتقاضى بأقصى سرعة مع نماذج الذكاء الاصطناعي التوليدية الخاصة بها. مدفوعة بالطموحات لاحتواء سوق الذكاء الاصطناعي ، يتم الإعلان عن التطورات الجديدة وإصدارات المنتجات على أساس يومي تقريبًا. لكن الرسالة تقول إن الأمر كله يحدث بسرعة كبيرة بحيث لا يتم أخذ المخاوف الأخلاقية والتنظيمية والمتعلقة بالسلامة في الاعتبار.
Bing مقابل Bard: المواجهة النهائية لروبوتات الدردشة بالذكاء الاصطناعي
“يجب أن نسأل أنفسنا: هل يجب أن نسمح للآلات بإغراق قنواتنا الإعلامية بالدعاية والكذب؟ هل يجب أن نزيل جميع الوظائف آليًا ، بما في ذلك الوظائف التي تفي بالغرض؟ هل يجب أن نطور عقولًا غير بشرية قد يفوق عددها في النهاية ، وتتفوق في عددها ، وتتقادم ، وتحل محلنا؟ نحن؟” نحن نجازف بفقدان السيطرة على حضارتنا؟
تدعو الرسالة المفتوحة إلى توقف مؤقت لمدة ستة أشهر عن تجارب الذكاء الاصطناعي “يجب تطويرها فقط بمجرد أن نكون واثقين من أن آثارها ستكون إيجابية وأن مخاطرها ستكون قابلة للإدارة”. وتوصي بأن تستغل مختبرات الذكاء الاصطناعي هذا الوقت لتطوير بروتوكولات سلامة جماعية يمكن تدقيقها من قبل أطراف ثالثة. إذا لم يتوقفوا ، يجب على الحكومات التدخل وفرض تجميد.
في الوقت نفسه ، يدعو الالتماس صانعي السياسات إلى الانخراط مع السلطات التنظيمية المخصصة للإشراف على أنظمة الذكاء الاصطناعي وتتبعها ، والتمييز بين المحتوى الحقيقي والمحتوى المُنشأ ، والتدقيق والشهادات لنماذج الذكاء الاصطناعي ، والمساءلة القانونية عن “الضرر الناجم عن الذكاء الاصطناعي” ، والتمويل العام . لأبحاث الذكاء الاصطناعي ، والمؤسسات “للتعامل مع الاضطرابات الاقتصادية والسياسية الدراماتيكية (خاصة الديمقراطية) التي سيحدثها الذكاء الاصطناعي.”
لا تقول الرسالة وقفة توقف جميع تطورات الذكاء الاصطناعي. إنه فقط يقول ضخ الفرامل. تحتاج المجتمعات إلى وقت مستقطع سريعًا لبناء البنية التحتية المناسبة حتى تكون ثورة الذكاء الاصطناعي آمنة ومفيدة للجميع. وخلصت الرسالة إلى “دعونا نستمتع بصيف طويل للذكاء الاصطناعي” ، “لا نستعجل غير مستعدين للسقوط”.