الذكاء الاصطناعي: التهديد الخفي للانتخابات في 2024

"أتمتة التضليل" تهدد الديمقراطية

قبل سنوات عديدة من إصدار ChatGPT، تساءلت مجموعة بحثية من جامعة كامبريدج، وهي مختبر اتخاذ القرارات الاجتماعية، عما إذا كان من الممكن للشبكات العصبية أن تولد معلومات مضللة. لتحقيق ذلك، قمنا بتدريب نموذج GPT-2، سلف ChatGPT، على أمثلة من نظريات المؤامرة الشهيرة وطلبنا منه توليد أخبار مزيفة لنا.

قدم لنا آلاف القصص الإخبارية المضللة ولكنها تبدو مقنعة. بعض الأمثلة كانت: “بعض اللقاحات محملة بمواد كيميائية وسموم خطيرة”، و”المسؤولون الحكوميون تلاعبوا بأسعار الأسهم لإخفاء الفضائح”. والسؤال كان: هل سيصدق الناس هذه الادعاءات؟

قمنا بإنشاء أول أداة سيكومترية لاختبار هذه الفرضية، والتي سميناها اختبار قابلية التأثر بالمعلومات المضللة (MIST). بالتعاون مع شركة YouGov، استخدمنا العناوين التي أنشأها الذكاء الاصطناعي لاختبار مدى قابلية الأمريكيين للأخبار المزيفة التي ينتجها الذكاء الاصطناعي.

كانت النتائج مقلقة: 41% من الأمريكيين اعتقدوا خطأً أن العنوان الخاص باللقاح كان صحيحًا، و46% اعتقدوا أن الحكومة تتلاعب بسوق الأسهم. أظهرت دراسة حديثة نُشرت في مجلة Science أن نموذج GPT-3 لا يُنتج فقط معلومات مضللة أكثر إقناعًا من البشر، بل إن الناس لا يمكنهم التمييز بشكل موثوق بين المعلومات المضللة التي ينتجها الإنسان وتلك التي ينتجها الذكاء الاصطناعي.

توقعي لعام 2024 هو أن المعلومات المضللة التي يُنتجها الذكاء الاصطناعي ستصل إلى انتخابات قريبة منك، وربما لن تدرك ذلك حتى. في الواقع، قد تكون تعرضت بالفعل لبعض الأمثلة. في مايو 2023، انتشرت قصة مزيفة عن تفجير في البنتاغون مرفقة بصورة أنشأها الذكاء الاصطناعي تظهر سحابة دخان كبيرة. تسببت هذه القصة في إثارة الرأي العام وحتى تراجع في سوق الأسهم. استخدم المرشح الرئاسي الجمهوري رون ديسانتيس صورًا مزيفة لدونالد ترامب يحتضن أنتوني فوشي كجزء من حملته السياسية. 

من خلال خلط الصور الحقيقية والمولدة بواسطة الذكاء الاصطناعي، يمكن للسياسيين طمس الخطوط الفاصلة بين الحقيقة والخيال واستخدام الذكاء الاصطناعي لتعزيز هجماتهم السياسية.

قبل ظهور الذكاء الاصطناعي التوليدي، كانت شركات الدعاية السيبرانية حول العالم بحاجة إلى كتابة الرسائل المضللة بنفسها، وتوظيف مصانع “الترول” البشرية لاستهداف الناس على نطاق واسع. 

مع مساعدة الذكاء الاصطناعي، يمكن الآن أتمتة عملية إنشاء العناوين الإخبارية المضللة واستخدامها كسلاح مع تدخل بشري ضئيل. على سبيل المثال، كان الاستهداف الدقيق 

-ممارسة استهداف الناس برسائل بناءً على بياناتهم الرقمية، مثل إعجاباتهم على فيسبوك- مصدر قلق في الانتخابات السابقة، حيث كانت العقبة الرئيسية هي الحاجة إلى إنشاء مئات النسخ من الرسالة نفسها لمعرفة ما يناسب مجموعة معينة من الناس.

 ما كان شاقًا ومكلفًا أصبح الآن رخيصًا ومتوافرًا بلا عوائق. لقد ديمقراطية الذكاء الاصطناعي خلق التضليل: يمكن لأي شخص لديه إمكانية الوصول إلى روبوت دردشة أن يزود النموذج بموضوع معين -سواء كان الهجرة، أو السيطرة على الأسلحة، أو تغير المناخ..- وتوليد عشرات القصص الإخبارية المزيفة والمقنعة خلال دقائق. في الواقع، بدأت مئات المواقع الإخبارية التي يُنشئها الذكاء الاصطناعي في الظهور، ناشرة قصصًا وفيديوهات كاذبة.

لاختبار تأثير هذه المعلومات المضللة التي ينتجها الذكاء الاصطناعي على تفضيلات الناس السياسية، قام باحثون من جامعة أمستردام بإنشاء فيديو زائف لشخصية سياسية تسيء إلى قاعدتها الانتخابية الدينية. على سبيل المثال، في الفيديو سخر السياسي قائلاً: “كما يقول المسيح، لا تصلبوني على هذا”. وجد الباحثون أن الناخبين المسيحيين الذين شاهدوا الفيديو الزائف كانت لديهم مواقف أكثر سلبية تجاه السياسي مقارنة بأولئك في المجموعة الضابطة.

أن تخدع الناس بمعلومات مضللة ينتجها الذكاء الاصطناعي في التجارب شيء، لكن التجربة على ديمقراطيتنا شيء آخر. في عام 2024، سنشهد المزيد من الفيديوهات الزائفة، واستنساخ الأصوات، والتلاعب بالهوية، والأخبار المزيفة المنتجة بواسطة الذكاء الاصطناعي. وستحد الحكومات بشكل جدي -إن لم تحظر -استخدام الذكاء الاصطناعي في الحملات السياسية. لأن عدم القيام بذلك يعني أن الذكاء الاصطناعي سيقوض الانتخابات الديمقراطية.

المصدر: وايرد
ساندر فان دير ليندن

ساندر فان دير ليندن

أستاذ علم النفس الاجتماعي في جامعة كامبريدج، وهو مؤلف كتاب ” مضمون: لماذا تؤثر المعلومات المضللة على عقولنا وكيفية بناء المناعة”

 

مقالات ذات صلة

أضف تعليقاً

لن يتم نشر عنوان بريدك الإلكتروني. الحقول الإلزامية مشار إليها بـ *

Back to top button