كيف شوهت هلاوس الذكاء الاصطناعي سمعة صحفي ألماني بوصفه كمجرم
كيف تسببت أخطاء Copilot وChatGPT في فضيحة تشويه سمعة وإثارة الجدل القانوني
تخيل أن تقوم بإدخال اسمك في محرك بحث مدعوم بالذكاء الاصطناعي، لتفاجأ بأنه يعرضك كمتهم في جرائم خطيرة لم ترتكبها قط. هذا ما حدث بالفعل للصحفي الألماني مارتن بيرنكلو، حين اكتشف أن روبوت المحادثة Copilot من مايكروسوفت حددته كمجرم بأوصاف مشينة، ليصبح ضحية جديدة لما يعرف بـ”هلاوس الذكاء الاصطناعي“.
بحسب تقرير نشره موقع ABC Radio National، اكتشف الصحفي الألماني أن أداة Copilot التابعة لمايكروسوفت٫ قد خلطت بين تقاريره الإخبارية عن قضايا جنائية وبين بياناته الشخصية، وقدمتها كما لو كان هو المجرم.
تفاصيل هلاوس الذكاء الاصطناعي
عندما أدخل بيرنكلو اسمه في Copilot، فوجئ بوصف الأداة له بأنه متحرش بالأطفال، وأنه اعترف بجريمته ويشعر بالندم. ولم يتوقف الذكاء الاصطناعي هنا، بل زعم أنه هارب من مؤسسة نفسية، ومحتال يستهدف الأرامل، وتاجر مخدرات، ومجرم عنيف. لكن ما يثير الدهشة أن كل هذه القضايا هي في الواقع موضوعات كتب عنها بيرنكلو ضمن عمله الصحفي.
يُعرف هذا النوع من الأخطاء بـ”هلاوس الذكاء الاصطناعي”، حيث تقوم الأداة بدمج بيانات وخلطها لتخرج بمعلومات خاطئة تضر بالشخص الذي تطابق اسمه مع البيانات المخزنة، بل إن Copilot كشف عنوان بيرنكلو ورقم هاتفه، مما شكل خطرًا على خصوصيته وسلامته الشخصية.
هل يمكن مقاضاة Copilot؟
بعد اكتشافه للخطأ أرسل بيرنكلو خطابًا إلى المدعي العام في توبنغن بولاية بادن الألمانية، ومسؤول حماية البيانات في منطقته، لكنه لم يحصل على رد، ما دفعه للجوء إلى الإعلام، لتبدأ الصحف والمحطات التلفزيونية بنقل القصة. لكن رغم استجابة الرأي العام، لم تتفاعل مايكروسوفت بشكل رسمي، مما وضع بيرنكلو أمام خيار قانوني صعب: فالتقاضي قد يستغرق سنوات ويكلف الكثير دون ضمان لنتائج إيجابية.
قصص مماثلة
في أستراليا تعرض عمدة هيبورن شاير بولاية فيكتوريا, براين هود، لاتهامات ملفقة من ChatGPT بوصفه مجرمًا مدانًا، رغم أنه كان من الشخصيات المعروفة بفضح الفساد. وحين قرر العمدة اتخاذ إجراء قانوني ضد OpenAI تراجع بسبب التكلفة الباهظة.
أما في الولايات المتحدة، فقد قام المذيع الإذاعي مارك والترز برفع دعوى ضد OpenAI بعدما ادعى ChatGPT خطأً أنه متورط في قضايا اختلاس. وتعتبر هذه الحالات جزءًا من صراع قانوني معقد قد يكون له آثار مستقبلية على كيفية تعامل القانون مع أخطاء الذكاء الاصطناعي.
تحديات قانونية
يعزو بعض الخبراء، مثل الدكتور سيمون ثورن، المحاضر في علوم الحاسوب بجامعة كارديف، هذه الأخطاء إلى بنية الأنظمة نفسها، حيث تعتمد على نماذج ذكاء اصطناعي معقدة تجعل من الصعب تتبع سبب ظهور مثل هذه الأخطاء. يقول ثورن في هذا الشأن: “إنها مشكلة ليست قابلة للتصحيح بسهولة، لأنها متجذرة في كيفية عمل النظام بأكمله”.
الذكاء الاصطناعي في المحاكم
لا يقتصر استخدام الذكاء الاصطناعي على هذه القضايا فقط، بل يمتد أيضًا إلى المحاكم، حيث يُستخدم لإعداد الوثائق القانونية. في فيكتوريا بأستراليا، تجري دراسة حول كيفية استخدام الذكاء الاصطناعي في المحاكم والإجراءات القانونية، بقيادة المحامية كاثرين تيري التي تؤكد على ضرورة توخي الحذر، مشيرة إلى أن الاعتماد عليه قد يضعف “صوت الشخص” في الأدلة المقدمة.
المستقبل واللوائح القانونية
مع ازدياد الاعتماد على الذكاء الاصطناعي، يصبح من الضروري وضع لوائح قانونية واضحة تنظم استخدامه وتحمي الأفراد المتضررين من أخطائه، لذلك تصفه المحامية كاثرين تيري بأنه “معقد للغاية، وحتى الخبراء يواجهون صعوبة في فهمه”. وهذه الحالات مثل حالة بيرنكلو وهود ووالترز تدق ناقوس الخطر حول أهمية مراجعة اللوائح القانونية وتطويرها لحماية الأفراد من هلاوس الذكاء الاصطناعي.