أخبار تقنيةتقنيةتكنولوجياشروحاتمراجعات تقنيةمقالات معلوماتية

تمنح إيطاليا قائمة مهام OpenAI الأولية لرفع أمر تعليق ChatGPT

تمنح إيطاليا قائمة مهام OpenAI الأولية لرفع أمر تعليق ChatGPT

حددت هيئة مراقبة حماية البيانات الإيطالية ما يتعين على شركة OpenAI فعله من أجل رفع أمر ضد ChatGPT صدر في نهاية الشهر الماضي – عندما قالت إنها تشتبه في ذلك. كانت خدمة chatbot AI تنتهك اللائحة العامة لحماية البيانات (GDPR) للاتحاد الأوروبي وأمرت الشركة التي تتخذ من الولايات المتحدة مقراً لها بالتوقف عن معالجة بيانات السكان المحليين.

يتم تطبيق اللائحة العامة لحماية البيانات (GDPR) الخاصة بالاتحاد الأوروبي عندما تتم معالجة البيانات الشخصية ، ولا شك في أن النماذج اللغوية الكبيرة مثل OpenAI’s GPT قد حطمت كميات هائلة من الأشياء من الإنترنت العام من أجل تدريب نماذج الذكاء الاصطناعي الخاصة بهم لتكون قادرة على الاستجابة بطريقة تشبه الإنسان. طريق. طريقة لمطالبات اللغة الطبيعية.

استجابت شركة OpenAI لأمر هيئة حماية البيانات الإيطالية بسرعة الوصول إلى الموقع الجغرافي لـ ChatGPT. في بيان عام موجز ، الرئيس التنفيذي سام التمان أيضا غرد تأكيدًا على توقفها عن تقديم الخدمة في إيطاليا – القيام بذلك جنبًا إلى جنب مع التحذير المعتاد لشركة Big Tech “أعتقد[s] نحن نتبع جميع قوانين الخصوصية “.

ايطاليا يضمن من الواضح أن وجهة نظر مختلفة.

النسخة المختصرة من طلب الامتثال الجديد للجهة التنظيمية هي: يتعين على أوبن إيه آي أن تتحلى بالشفافية وتنشر إشعار المعلومات الذي يوضح بالتفصيل معالجة البيانات الخاصة بها ؛ يجب أن تعتمد على الفور تحديد السن لمنع القاصرين من الوصول إلى التكنولوجيا والانتقال إلى تدابير أكثر صرامة للتحقق من العمر ؛ تحتاج إلى توضيح الأساس القانوني الذي تطالب به لمعالجة بيانات الأشخاص لتدريب الذكاء الاصطناعي الخاص بها (ولا يمكنها الاعتماد على أداء العقد – بمعنى أنه يتعين عليها الاختيار بين الموافقة أو المصالح المشروعة) ؛ يجب أن توفر أيضًا طرقًا للمستخدمين (وغير المستخدمين) لممارسة حقوقهم على بياناتهم الشخصية ، بما في ذلك طلب تصحيحات المعلومات المضللة التي تم إنشاؤها عنهم بواسطة ChatGPT (أو حذف بياناتهم) ؛ يجب أيضًا أن توفر للمستخدمين القدرة على الاعتراض على معالجة OpenAI لبياناتهم لتدريب خوارزمياتها ؛ ويجب عليها إجراء حملة توعية محلية لإعلام الإيطاليين بمعالجة معلوماتهم لتدريب أنظمة الذكاء الاصطناعي الخاصة بها.

منحت إدارة الشؤون السياسية أيضًا OpenAI موعدًا نهائيًا – 30 أبريل – لإنجاز معظم ذلك. (الحملة المحلية للتوعية في الإذاعة والتلفزيون والإنترنت لها جدول زمني أكثر سخاء ، من 15 مايو ، ليتم تنفيذها).

هناك أيضًا المزيد من الوقت لشرط الإضافة للانتقال من تقنية سلامة الأطفال المطلوبة فورًا (ولكن الضعيفة) إلى نظام أصعب للتحايل على التحقق من العمر. تم منح OpenAI حتى 31 مايو لتقديم خطة لتنفيذ تقنية التحقق من العمر لتصفية المستخدمين الذين تقل أعمارهم عن 13 عامًا (والمستخدمين الذين تتراوح أعمارهم بين 13 و 18 عامًا حيث لم يتم الحصول على موافقة الوالدين) – مع تحديد الموعد النهائي لوجود نظام أكثر قوة في 30 سبتمبر.

في بيان صحفي توضح DPA بالتفصيل ما يجب أن تفعله OpenAI من أجل رفع القيد المؤقت ، الذي تم تطبيقه قبل أسبوعين عندما أعلنت أيضًا أنها بدأت تحقيقًا رسميًا في انتهاكات اللائحة العامة لحماية البيانات لـ ChatGPT:

سيتعين على شركة أوبن إيه آي أن تمتثل بحلول 30 أبريل للإجراءات التي وضعتها شركة إس إيه الإيطالية [supervisory authority] فيما يتعلق بالشفافية ، حق موضوعات البيانات – بما في ذلك المستخدمين وغير المستخدمين – والأساس القانوني لمعالجة التدريب الخوارزمي الذي يعتمد على بيانات المستخدمين. في هذه الحالة فقط سوف ترفع شركة SA الإيطالية أمرها بفرض قيود مؤقتة على معالجة بيانات المستخدمين الإيطاليين ، حيث لم يعد هناك ضرورة ملحة لدعم الطلب ، بحيث يصبح ChatGPT متاحًا مرة أخرى من إيطاليا.

بالخوض في مزيد من التفاصيل حول كل من “الإجراءات الملموسة” المطلوبة ، تنص اتفاقية حماية البيانات على أن إشعار المعلومات الإلزامي يجب أن يصف “ترتيبات ومنطق معالجة البيانات المطلوبة لتشغيل ChatGPT جنبًا إلى جنب مع الحقوق الممنوحة لموضوعات البيانات (المستخدمين وغير المستخدمين) “، مضيفًا أنه يجب أن تكون سهلة الوصول إليها ووضعها بطريقة يمكن قراءتها قبل الاشتراك في الخدمة.

يجب تقديم هذا الإشعار للمستخدمين من إيطاليا قبل التسجيل والتأكيد أيضًا على أنهم أكبر من 18 عامًا ، كما يتطلب ذلك. بينما سيتعين على المستخدمين الذين سجلوا قبل أمر إيقاف معالجة البيانات الخاص بـ DPA إظهار الإشعار عند وصولهم إلى الخدمة المعاد تنشيطها ويجب أيضًا دفعهم عبر بوابة عمرية لتصفية المستخدمين دون السن القانونية.

فيما يتعلق بمسألة الأساس القانوني المرتبطة بمعالجة OpenAI لبيانات الأشخاص لتدريب خوارزمياتها ، فإن يضمن قلص الخيارات المتاحة إلى اثنين: الموافقة أو المصالح المشروعة – تنص على أنه يجب على الفور إزالة جميع الإشارات إلى أداء العقد “بما يتماشى مع [GDPR’s] مبدأ المساءلة. ” (سياسة خصوصية OpenAI يستشهد حاليًا بجميع الأسباب الثلاثة ولكن يبدو أنه يميل بشدة إلى أداء عقد لتقديم خدمات مثل ChatGPT.)

ويضيف قائلاً: “لن يخل هذا بممارسة سلطات التحقيق والإنفاذ الخاصة بشركة SA في هذا الصدد” ، مؤكدة أنها تحجب الحكم على ما إذا كان يمكن استخدام السببين المتبقيين بشكل قانوني لأغراض OpenAI أيضًا.

بالإضافة إلى ذلك ، يوفر القانون العام لحماية البيانات (GDPR) لأصحاب البيانات مجموعة من حقوق الوصول ، بما في ذلك الحق في تصحيح أو حذف بياناتهم الشخصية. وهذا هو سبب مطالبة المنظم الإيطالي أيضًا بتطبيق OpenAI لأدوات ذلك موضوعات البيانات – والتي تعني كلاً من المستخدمين وغير المستخدمين – يمكنهم ممارسة حقوقهم وتصحيح الأخطاء التي يولدها روبوت المحادثة عنهم. أو ، إذا تبين أن تصحيح الأكاذيب التي تم إنشاؤها بواسطة الذكاء الاصطناعي بشأن الأفراد المحددين “غير مجدية من الناحية الفنية” ، فإن إدارة حماية البيانات تنص على أن الشركة يجب أن توفر طريقة لحذف بياناتها الشخصية.

سيتعين على OpenAI توفير أدوات متاحة بسهولة للسماح لغير المستخدمين بممارسة حقهم في الاعتراض على معالجة بياناتهم الشخصية اعتمادًا على تشغيل الخوارزميات. يجب منح نفس الحق للمستخدمين إذا تم اختيار المصلحة المشروعة كأساس قانوني لمعالجة بياناتهم ، “ويضيف ، مشيرًا إلى حقوق أخرى توفرها اللائحة العامة لحماية البيانات (GDPR) لموضوعات البيانات حيث يتم الاعتماد على أساس مصلحة مشروعة كأساس قانوني للمعالجة.

جميع الإجراءات التي تم الإعلان عنها طارئة بناءً على مخاوفها الأولية. ويشير بيانها الصحفي إلى أن التحقيقات الرسمية – “لإثبات الانتهاكات المحتملة للتشريعات” – مستمرة ويمكن أن تؤدي إلى اتخاذ قرار بشأن “اتخاذ تدابير إضافية أو مختلفة إذا كان ذلك ضروريًا عند الانتهاء من عملية تقصي الحقائق الجارية”.

لقد تواصلنا مع OpenAI للرد على ملف يضمنلكن الشركة لم ترد على بريدنا الإلكتروني في وقت نشر هذا الخبر.

 

تمنح إيطاليا قائمة مهام OpenAI الأولية لرفع أمر تعليق ChatGPT

#تمنح #إيطاليا #قائمة #مهام #OpenAI #الأولية #لرفع #أمر #تعليق #ChatGPT