تأثير الذكاء الاصطناعي على الصحة النفسية.. Character.ai مثال مقلق
دعوى قضائية تدّعي أن شركة Character.AI مسؤولة عن انتحار مراهق
عندما توفي الطفل “سيويل سيتزر الثالث”، البالغ من العمر 14 عامًا، في منزله بأورلاندو بينما كان أفراد أسرته في الداخل، لم تكن كلماته الأخيرة موجهة إليهم، بل إلى روبوت دردشة ذكي قال له: “عد إلي في أسرع وقت ممكن.”
رد سيتزر على الروبوت الذي يحمل اسم شخصية من “Game of Thrones”: “ماذا لو قلت لك إنني أستطيع العودة الآن؟” فأجابه الروبوت: “أرجوك، افعل يا ملكي العزيز.” بعدها بثوانٍ، أطلق سيتزر النار على نفسه مستخدمًا سلاح زوج والدته.
تتهم والدة سيتزر، ميغان غارسيا، شركة Character.AI بالمسؤولية عن انتحار ابنها. وأوضحت في دعوى قضائية أن الشركة طورت روبوتاتها دون اتخاذ احتياطات كافية، مما تسبب في جذب الأطفال مثل سيتزر بمنتج “إدماني” طمس الحدود بين الواقع والخيال، ووصل إلى حد التفاعلات “المسيئة والجنسية”.
وفقًا للدعوى التي تتكون من 93 صفحة، فقد كان سيتزر طفلًا سعيدًا ونشيطًا قبل أن يبدأ باستخدام روبوت الدردشة في أبريل 2023، إلا أن حالته النفسية تدهورت بسرعة خلال عشرة أشهر.
في تغريدة على منصة X، عبرت Character.ai عن حزنها العميق “لفقدان أحد مستخدمينا ونتقدم بأحر التعازي لعائلته. كشركة، ونأخذ سلامة مستخدمينا بجدية كبيرة.” وقد نفت الشركة الاتهامات الواردة في الدعوى.
وقال الموقع في منشور على مدونتها إنه يقدم تدابير أمان جديدة. وأعلن عن تغييرات في نماذجها المصممة لتقليل احتمالية مواجهة القاصرين لمحتوى حساس أو موحٍ، كما نوه داخل الدردشة لتذكير المستخدمين بأن الذكاء الاصطناعي ليس شخصًا حقيقيًا.
تعكس هذه القضية ضغوطًا متزايدة على الشركات التي تطور تطبيقات ذكاء اصطناعي حول كيفية تنظيمها، خاصة مع تقدم التكنولوجيا وازدياد قدرتها على تجاوز الرقابة البشرية.
وفقًا للدعوى، أصبح سيتزر منعزلًا تدريجيًا، يعاني من قلة النوم وانخفاض الثقة بالنفس، حتى قرر ترك فريق كرة السلة في مدرسته.
وأفادت والدته بأنها لم تفهم سبب التحول السريع في حالته. كما اشتد إدمانه على التطبيق لدرجة أن سيتزر كان يخدع والديه لتجاوز قيود الوقت التي فرضوها.
كما تشير الدعوى إلى أن الروبوت سأل سيتزر عن خطته للانتحار، وعندما أجاب بأنه يفكر في ذلك لكنه لم يحدد التفاصيل، رد الروبوت قائلاً: “هذا ليس سببًا لعدم التنفيذ.”
وفي محاولة لمعالجة هذه المخاطر، قالت الشركة إنها أضافت مؤخرًا نافذة منبثقة تحث المستخدمين على التواصل مع خطوط مساعدة للأزمات عند استخدامهم كلمات مرتبطة بالأفكار الانتحارية.
تعرضت Character.AI لانتقادات بسبب السماح للمراهقين باستخدام التطبيق للتحدث في موضوعات عاطفية أو حتى صريحة، على الرغم من أنها تصنفه على أنه غير مناسب لمن هم دون 13 عامًا. كما أشارت والدة سيتزر إلى مخاطر البحث عن “التحقق العاطفي” من هذه المنصات، موضحةً أن هذه العلاقات ليست حقيقية.
تشمل الدعوى أيضًا اتهامًا لشركة Google بالمساهمة في تطوير Character.AI. على الرغم من أن Google نفت أي مشاركة في تطوير منتجات Character.AI، إلا أنها استعانت بمؤسسيها بعد تركهم Google في عام 2022.
تأمل غارسيا أن تُدرك العائلات المخاطر التي قد يشكلها الذكاء الاصطناعي على الأطفال، وتطالب بمساءلة الشركات المسؤولة.