أخبار تقنيةتقنيةتكنولوجياشروحاتمراجعات تقنيةمقالات معلوماتية

أخبر البيت الأبيض عمالقة التكنولوجيا بحماية الجمهور من مخاطر الذكاء الاصطناعي

أخبر البيت الأبيض عمالقة التكنولوجيا بحماية الجمهور من مخاطر الذكاء الاصطناعي

في اجتماع لقادة التكنولوجيا البارزين في البيت الأبيض يوم الخميس ، ذكّرت نائبة الرئيس كامالا هاريس الحضور بأن لديهم “مسؤولية أخلاقية ومعنوية وقانونية لضمان سلامة وأمن” الموجة الجديدة من أدوات الذكاء الاصطناعي التوليدية التي لديها اكتسبت اهتمامًا كبيرًا في الأشهر الأخيرة.

وقال البيت الأبيض إن الاجتماع جزء من جهد أوسع للتعامل مع المدافعين والشركات والباحثين ومنظمات الحقوق المدنية والمنظمات غير الهادفة للربح والمجتمعات والشركاء الدوليين وغيرهم بشأن قضايا الذكاء الاصطناعي المهمة.

أخبر هاريس ومسؤولون آخرون قادة Google و Microsoft و Anthropic و OpenAI – الشركة التي تقف وراء روبوت الدردشة ChatGPT – أن عمالقة التكنولوجيا يجب أن يلتزموا بالقوانين الحالية لحماية الشعب الأمريكي من إساءة استخدام الموجة الجديدة من منتجات الذكاء الاصطناعي. من المتوقع أن تدخل اللوائح الجديدة للذكاء الاصطناعي التوليفي حيز التنفيذ قبل وقت طويل جدًا ، لكن المستوى الذي تقيد فيه التكنولوجيا سيعتمد إلى حد ما على كيفية نشر الشركات لتقنيات الذكاء الاصطناعي الخاصة بها في المستقبل.

أيضا يوم الخميس ، البيت الأبيض شارك مستندًا تحديد التدابير الجديدة المصممة لتعزيز الابتكار المسؤول في الذكاء الاصطناعي. يشمل الإجراء تمويلًا بقيمة 140 مليون دولار لسبعة معاهد بحثية وطنية جديدة للذكاء الاصطناعي ، وبذلك يصل العدد الإجمالي لهذه المعاهد إلى 25 في جميع أنحاء الولايات المتحدة.

تستجيب روبوتات الدردشة المتقدمة مثل ChatGPT و Google’s Bard للمطالبات النصية وقادرة على الاستجابة بطريقة شبيهة بالبشر. يمكنهم بالفعل أداء مجموعة واسعة من المهام بشكل مثير للإعجاب ، مثل كتابة العروض التقديمية والقصص وتلخيص المعلومات وحتى كتابة التعليمات البرمجية للكمبيوتر.

ولكن مع تسابق شركات التكنولوجيا لوضع تقنية chatbot الخاصة بها في المقدمة والمركز من خلال دمجها في الأدوات الموجودة عبر الإنترنت ، هناك مخاوف بشأن الآثار طويلة المدى للتكنولوجيا على المجتمع الأوسع ، مثل كيف ستؤثر على مكان العمل أو تؤدي إلى أنواع جديدة . من النشاط الإجرامي. حتى أن هناك مخاوف بشأن كيف يمكن للتكنولوجيا ، إذا سمح لها بالتطور دون رادع ، أن تشكل تهديدًا للبشرية نفسها.

رئيس OpenAI قال سام التمان في مارس أنه “خائف قليلاً” من التأثيرات المحتملة للذكاء الاصطناعي ، في حين دعت رسالة حديثة نشرها خبراء الذكاء الاصطناعي وغيرهم في صناعة التكنولوجيا إلى توقف لمدة ستة أشهر في تطوير الذكاء الاصطناعي التوليدي لإتاحة الوقت لإنشاء أمان مشترك البروتوكولات.

وفي هذا الأسبوع فقط ، استقال جيفري هينتون ، الرجل الذي يُعتبر على نطاق واسع بأنه “الأب الروحي للذكاء الاصطناعي” لعمله الرائد في هذا المجال ، من منصبه في Google حتى يتمكن من التحدث بحرية أكبر عن مخاوفه فيما يتعلق بالتكنولوجيا. قال المهندس البالغ من العمر 75 عامًا إنه بينما تطلق شركات التكنولوجيا أدوات الذكاء الاصطناعي الخاصة بها للاستخدام العام دون أن تكون على دراية كاملة بإمكانياتها ، “من الصعب أن ترى كيف يمكنك منع الجهات الفاعلة السيئة من استخدامها لأشياء سيئة.”

والأكثر إثارة للقلق ، في مقابلة حديثة مع شبكة سي بي إس سُئل فيها عن احتمال قيام الذكاء الاصطناعي “بالقضاء على الإنسانية” ، أجاب هينتون: “هذا ليس مستحيلًا”.

ولكن تجدر الإشارة أيضًا إلى أن معظم أولئك الذين أعربوا عن مخاوفهم يعتقدون أيضًا أنه إذا تم التعامل معها بمسؤولية ، يمكن أن يكون لهذه التكنولوجيا فوائد كبيرة للعديد من أجزاء المجتمع ، بما في ذلك ، على سبيل المثال ، الرعاية الصحية ، مما قد يؤدي إلى نتائج أفضل للمرضى.

توصيات المحررين






 

أخبر البيت الأبيض عمالقة التكنولوجيا بحماية الجمهور من مخاطر الذكاء الاصطناعي

#أخبر #البيت #الأبيض #عمالقة #التكنولوجيا #بحماية #الجمهور #من #مخاطر #الذكاء #الاصطناعي