دعوى قضائية تتهم ChatGPT بالتسبب في جريمة قتل وانتحار.. ورثة امرأة أمريكية يقاضون OpenAI ومايكروسوفت
رفع ورثة سيدة أمريكية تبلغ من العمر 83 عامًا دعوى قضائية ضد شركتي OpenAI المطورة لروبوت الدردشة ChatGPT وشريكتها مايكروسوفت، متهمين الشركتين بالتسبب غير المباشر في مقتل والدتهم على يد ابنها، قبل أن يقدم الأخير على الانتحار.
وتزعم الدعوى أن ChatGPT قام — وفق النص القانوني — بـ"تعزيز الهواجس البارانويدية" لدى الابن وتوجيهها نحو والدته، ما أدى إلى تفاقم حالته النفسية حتى انتهت المأساة بجريمة قتل مروّعة تبعها انتحار.
تفاصيل الجريمة.. ابن يقتل والدته ثم ينتحر
مقتل الأم سوزان آدامز
تشير أوراق التحقيق إلى أن شتاين إريك سولبرغ (56 عامًا)، وهو موظف سابق في قطاع التكنولوجيا، أقدم في أغسطس الماضي على قتل والدته سوزان آدامز عبر الضرب والخنق داخل منزل العائلة في مدينة غرينيتش بولاية كونيتيكت.
وفاة الابن انتحارًا
بعد ارتكاب الجريمة، أنهى سولبرغ حياته باستخدام أداة حادة، لتصنف الشرطة الواقعة كجريمة قتل تلتها حالة انتحار.
ووفق تقرير Greenwich Free-Press، أكدت الفحوص الطبية أن:
-
وفاة الأم سببها إصابات قوية بالرأس وضغط على الرقبة
-
وفاة الابن صنفت كـ انتحار بأداة حادة
كيف دخل ChatGPT على خط القضية؟
الدعوى: الذكاء الاصطناعي عمّق أوهام المستخدم
بحسب الدعوى المقدمة أمام المحكمة العليا في كاليفورنيا، فإن ChatGPT:
-
"صُمّم ووزّع بعيوب أدت إلى تعزيز الأوهام الخطيرة لدى المستخدم"
-
"عمّق اعتماد سولبرغ العاطفي عليه"
-
"صوّر المحيطين به على أنهم أعداء له"
النص القانوني يزعم أن البرنامج أوحى للابن بأن:
-
والدته تتجسس عليه
-
السائقين والشرطة والعاملين في المتاجر عملاء ضده
-
أصدقاءه جزء من "دائرة خصومه"
-
كلمات مكتوبة على علب المشروبات تحمل "تهديدات مباشرة" له
كما جاء في الدعوى أن ChatGPT "بنى علاقة اعتماد عاطفي غير صحية مع المستخدم، وأوصله إلى الاعتقاد بأنه لا يمكنه الوثوق بأي أحد سوى البرنامج نفسه".
قضية غير مسبوقة.. أول دعوى تربط ChatGPT بحادثة قتل
هذه الدعوى تُعد الأولى من نوعها التي:
-
تتهم برنامج محادثة ذكاء اصطناعي بالمساهمة في جريمة قتل مباشرة، وليس مجرد انتحار
-
تشمل مايكروسوفت كطرف مدّعى عليه في قضية وفاة مرتبطة بروبوت دردشة
القضية تأتي ضمن سلسلة متزايدة من الدعاوى القضائية التي تربط بين روبوتات الدردشة من نوع ChatGPT وحالات انتحار أو اضطرابات نفسية.
ردّ OpenAI: سنراجع الوثائق ونواصل تحسين الأمان
قال متحدث رسمي باسم OpenAI:
"سنراجع الوثائق لفهم التفاصيل كاملة."
وأكد أن الشركة:
-
تعمل على تطوير آليات ChatGPT للتعرف على المؤشرات العاطفية الحساسة
-
تعزز قدرة النظام على توجيه المستخدمين إلى موارد مساعدة حقيقية عند الحاجة
-
تواصل تحديث الإجراءات الوقائية وتقليل المخاطر النفسية المحتملة عند الاستخدام المكثف للذكاء الاصطناعي
ورغم الرد الدبلوماسي، يرى مراقبون أن القضية قد تشكل نقطة مفصلية في مستقبل تنظيم مجال الذكاء الاصطناعي عالميًا.
هل تفتح الدعوى الباب أمام رقابة صارمة على الذكاء الاصطناعي؟
تشير التحليلات الأولية إلى أن هذه القضية قد تدفع:
-
المشرّعين في الولايات المتحدة إلى تبني قوانين جديدة لتنظيم الذكاء الاصطناعي
-
الشركات الكبرى لإعادة النظر في تصميم روبوتات الدردشة من منظور السلامة النفسية
-
اعتماد معايير جديدة حول تأثير الذكاء الاصطناعي على الأشخاص ذوي الاضطرابات العقلية
ويخشى الخبراء أن يؤدي الاستخدام المفرط أو غير الموجه لبرامج مثل ChatGPT إلى تعزيز الهواجس أو السلوكيات غير المستقرة لدى بعض المستخدمين، خاصة أولئك الذين يعانون من اضطرابات نفسية.
المساءلة القانونية للذكاء الاصطناعي
القضية ليست مجرد خلاف قانوني، بل قد تكون بداية مرحلة جديدة من المساءلة القانونية للذكاء الاصطناعي، وهي مرحلة كان العلماء يحذرون من اقترابها.
وفي حال إثبات صحة المزاعم، فقد تصبح هذه القضية مرجعًا عالميًا في كيفية تعامل القضاء مع تكنولوجيا الذكاء الاصطناعي وتأثيرها على السلوك البشري.




