تحليل شامل لقانون الذكاء الاصطناعي الجديد في الاتحاد الأوروبي
مدونة ممارسات الذكاء الاصطناعي العام: توجيهات جديدة لضمان الأمان والشفافية
في إطار جهودها الرامية لتوفير بيئة تكنولوجية آمنة، أطلقت المفوضية الأوروبية مسودة مدونة الممارسات العامة للذكاء الاصطناعي، ضمن قانون الذكاء الاصطناعي الجديد في الاتحاد الأوروبي (AI Act)، بهدف توجيه الشركات نحو التزام مبادئ الشفافية والأمان، مع تحقيق توازن بين الابتكار والمسؤولية.
1. الشفافية والإفصاح
تُعد الشفافية من أبرز مبادئ هذه المدونة، حيث يُلزم القانون الجديد الشركات المزودة للنماذج العامة للذكاء الاصطناعي بتوثيق ونشر معلومات دقيقة حول البيانات المستخدمة في التدريب، مثل أسماء أدوات جمع البيانات (web crawlers) وأوامر robots.txt المستخدمة، مما يعزز من الامتثال لحقوق الملكية الفكرية.
وتهدف هذه المتطلبات إلى بناء الثقة وضمان حماية حقوق النشر، مع إنشاء نقطة تواصل ثابتة لتسهيل عملية تقديم الشكاوى والتفاعل مع أصحاب الحقوق بسرعة وسهولة .
2. إدارة وتقييم المخاطر
يشدد قانون الذكاء الاصطناعي الجديد على ضرورة إدارة المخاطر المرتبطة بالنماذج العامة، وخاصة تلك التي تعتبر ذات مخاطر منهجية، مما قد يشكل تهديدًا للأمن العام أو يساعد في التلاعب بالمعلومات.
وبموجب المدونة، يتعين على الشركات تطوير إطار عمل شامل للسلامة والأمان (SSF)، بحيث يشمل التحديث المستمر لاستراتيجيات الأمان استنادًا إلى المستجدات التكنولوجية، وذلك من خلال استخدام أدوات تقييم متقدمة مثل دراسات رفع كفاءة المستخدمين ومنهجيات الاختبار المضاد، للكشف عن نقاط الضعف وتطوير تدابير وقائية فعالة.
وتهدف قانون الذكاء الاصطناعي الجديد في الاتحاد الأوروبي إلى ضمان التزام الشركات بتحديد مخاطر جديدة قد لا تكون مشمولة في التصنيفات الحالية، مثل انتهاكات الخصوصية الواسعة، مما يتيح للمدونة المرونة والشمولية في مواجهة التحديات الناشئة .
3. التبليغ عن الحوادث الخطيرة وآليات التصحيح
تؤكد المدونة على أهمية التبليغ السريع عن الحوادث الخطيرة، وتوفير تقارير تشمل الإجراءات التصحيحية المتخذة. ويهدف هذا الإجراء إلى تمكين هيئة الذكاء الاصطناعي، التي أنشئت خصيصًا للإشراف على تطبيق القانون، من التعامل بفعالية وسرعة مع الحوادث التي قد تؤثر على السلامة العامة أو الثقة المجتمعية.
كما تطرح المسودة بعض التساؤلات حول تعريف الحوادث الخطيرة التي تستوجب الإبلاغ الفوري، لضمان توافق المعايير عبر مختلف الدول الأوروبية .
4. التعاون والشراكة في تطوير المدونة
أتاح الاتحاد الأوروبي الفرصة لمختلف الأطراف المعنية، بما في ذلك الشركات التقنية والمستخدمين والجهات الحكومية، للمشاركة في تطوير وصياغة مسودة مدونة ممارسات الذكاء الاصطناعي، وذلك من خلال تقديم آرائهم وملاحظاتهم حتى نهاية نوفمبر 2024.
ويهدف هذا النهج التشاركي إلى ضمان أن تكون المدونة شاملة ومرنة، بحيث يمكن تكييفها مع الابتكارات المتسارعة في مجال الذكاء الاصطناعي.
ولتحقيق هذا الهدف، نُظمت ورش عمل وجلسات تفاعلية، انبثقت عنها أربع مجموعات عمل رئيسية تحت إشراف الهيئة الأوروبية للذكاء الاصطناعي، تركز في عملها على محاور أساسية تشمل الشفافية وإدارة المخاطر وحماية حقوق النشر والإجراءات الأمنية.
علاوة على ذلك، وفّر الاتحاد الأوروبي منصة رقمية “Futurium” لجمع الملاحظات المكتوبة من الأطراف المعنية، بهدف تنظيم عملية المراجعة وتوحيد الآراء في إطار موحد يمكن للخبراء الاستفادة منه لتحسين محتوى المدونة.
التبعات على الشركات الكبرى والمتوسطة
تُلزم المدونة الشركات الكبرى مثل OpenAI وGoogle وMeta، باتباع معايير صارمة في مجالات الشفافية وتقييم المخاطر، نظرًا لتأثير نماذجها واسعة النطاق على المجتمع والبنية التحتية الرقمية.
وتشمل هذه المتطلبات تقديم تقارير شاملة عن مصادر البيانات المستخدمة في التدريب، وإجراءات إدارة المخاطر، إلى جانب الالتزام بالإفصاح عن سياسات الأمان والسلامة.
في المقابل، تمنح المدونة مرونة أكبر للشركات الصغيرة والمتوسطة، نظرًا لقدراتها المحدودة مقارنةً بالشركات الكبرى. وقد تضمنت المدونة نصوصًا تتيح لهذه الشركات خيارات امتثال مبسطة وبتكاليف أقل، بحيث يمكنها الالتزام بالمتطلبات دون تكبد أعباء مالية كبيرة.
كما تم تبسيط الإجراءات الخاصة بمنتجات المصادر المفتوحة، مما يسمح للشركات الناشئة بالمشاركة في تطوير تقنيات الذكاء الاصطناعي بطرق تتناسب مع إمكاناتها، مع الحفاظ على معايير السلامة العامة والامتثال القانوني.