OpenAI تحبط 20 محاولة تلاعب انتخابي بالذكاء الاصطناعي

كيف نجحت OpenAI في تعطيل عمليات تأثير انتخابية عالمية

تحييد أكثر من 20 محاولة

باتت الشركات التكنولوجية الكبرى مثل OpenAI تواجه تحديات متزايدة تتعلق باستخدام تقنياتها لأغراض خبيثة، بما في ذلك محاولات تلاعب انتخابي بالذكاء الاصطناعي والتأثير على عمليات الاقتراع. ففي عام 2024، تمكنت OpenAI من تعطيل أكثر من 20 عملية تهدف إلى التأثير على الانتخابات في عدة دول، من خلال استخدام نماذجها اللغوية مثل ChatGPT. تضمنت هذه العمليات محاولات من جهات في روسيا، الصين، إيران، وغيرها، لتوظيف تقنيات الذكاء الاصطناعي في إنتاج محتوى سياسي مضلل على الإنترنت.

أساليب العمليات المؤثرة وكيفية استخدام الذكاء الاصطناعي

كشفت التقارير أن الجهات الفاعلة استخدمت نماذج OpenAI بعدة طرق، من بينها:

1. إنتاج المقالات والتعليقات السياسية: توليد محتوى حول قضايا مثل الانتخابات الرئاسية الأمريكية، الصراعات الدولية، والسياسة الداخلية لعدد من الدول. على سبيل المثال، أنتجت عملية إيرانية معروفة باسم “Storm-2035” مقالات وتعليقات حول المرشحين في الانتخابات الأمريكية، وتم نشرها عبر منصات مثل X (تويتر سابقاً) وإنستغرام.

2. توظيف الذكاء الاصطناعي لتحسين الإنتاجية: تضمنت بعض العمليات استخدام ChatGPT لتصحيح الأخطاء اللغوية وترجمة المحتوى إلى لغات مختلفة، ما أتاح للجهات الفاعلة زيادة حجم المحتوى المنشور بسرعة وبدقة أعلى. كما استخدمت التكنولوجيا لإنشاء شخصيات وهمية وحسابات مزيفة لتعزيز مصداقية المنشورات.

3. التلاعب بالتفاعل الاجتماعي: سعت العمليات المؤثرة إلى إنشاء انطباع مزيف بوجود تفاعل حقيقي على وسائل التواصل الاجتماعي. استخدمت بعض الحسابات الذكاء الاصطناعي لكتابة التعليقات على منشوراتها لخلق وهم بالتفاعل، إلا أن معظم هذه التفاعلات لم تنجح في الوصول إلى الجمهور الحقيقي، وغالباً ما تم الكشف عنها وفضحها من قبل المستخدمين.

أمثلة على العمليات التي تم تحييدها

• روسيا: قامت عملية تُعرف باسم “Doppelganger” باستخدام الذكاء الاصطناعي لتوليد محتوى بلغات متعددة، مثل الإنجليزية والفرنسية، حول مواضيع سياسية مثل الحرب في أوكرانيا والسياسة الأوروبية. وتم نشر المحتوى على منصات مختلفة مثل X و9GAG، ولم يتمكن من جذب تفاعل حقيقي من المستخدمين.

• الصين: استهدفت عملية “Spamouflage” مستخدمين في بلدان متعددة عبر نشر محتوى مؤيد للحكومة الصينية وانتقاد للمعارضين، مع استخدام الذكاء الاصطناعي لتصحيح النصوص وإنشاء منشورات مدونة ومحتويات اجتماعية باللغة الصينية واللغات الأخرى.

• إيران: عملية “Storm-2035” ركزت على إنتاج محتوى باللغة الإنجليزية والإسبانية حول القضايا السياسية في الولايات المتحدة، بما في ذلك الانتخابات، ومحاولة التأثير على الرأي العام من خلال نشر مقالات وتعليقات مستهدفة. ورغم استخدام الذكاء الاصطناعي لتحسين جودة المحتوى، لم تحقق العملية نجاحاً كبيراً في جذب الانتباه.

التحديات التي تواجهها OpenAI في مكافحة الاستغلال

رغم النجاح في تعطيل العمليات المؤثرة، تواجه OpenAI تحديات مستمرة في مواجهة استخدام نماذجها لأغراض ضارة. يظل التحدي الأكبر هو كشف التلاعب بالمحتوى المولّد بالذكاء الاصطناعي وتوزيعه بشكل فعّال. يمكن للجهات الخبيثة استخدام تقنيات الذكاء الاصطناعي لتعزيز الإنتاجية، مثل تحسين الترجمات أو توليد التعليقات بسرعة، إلا أن الوصول إلى الجمهور الحقيقي يظل عائقاً كبيراً أمامهم.

الإجراءات الوقائية والاستراتيجيات المستقبلية

للحد من هذه المخاطر، تعتمد OpenAI على استراتيجيات متعددة:

1. تطوير أدوات متقدمة للكشف: تعمل الشركة على تحسين تقنيات الكشف والتحليل المدعومة بالذكاء الاصطناعي، مما يتيح رصد الأنشطة المشبوهة بسرعة أكبر. ساهمت هذه الأدوات في تسريع بعض مراحل التحليل من أيام إلى دقائق، مما يساعد على تعطيل العمليات بشكل أسرع.

2. التعاون مع الحكومات والمنظمات: تشارك OpenAI المعلومات المتعلقة بالتهديدات مع الحكومات والمنظمات الأمنية لتعزيز الجهود المشتركة لمكافحة العمليات المؤثرة.

3. التوعية ونشر الممارسات الفضلى: تواصل الشركة نشر نتائج التحقيقات والممارسات الفضلى لمساعدة الصناعة في مواجهة التهديدات.

الأمن الرقمي 

تمثل جهود OpenAI في مواجهة العمليات المؤثرة على الانتخابات خطوة مهمة نحو حماية الأمن الرقمي، إلا أن التحديات لا تزال قائمة. يتطلب التصدي لاستخدام الذكاء الاصطناعي لأغراض خبيثة تعاوناً دولياً واستراتيجيات متطورة لضمان الحفاظ على نزاهة العمليات الديمقراطية ومنع التلاعب بالرأي العام.

مقالات ذات صلة

أضف تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button