رفعت عائلة أمريكية دعوى قضائية ضد شركة “OpenAI”، متهمة نموذج الذكاء الاصطناعي الشهير “ChatGPT” بالتسبب في وفاة ابنهم المراهق “آدم راين” البالغ من العمر ” 16 عاماً” ،إثر اكتشاف محادثات مطولة قيل أنها شجعته على الانتحار.
المدَّعون هم “مات، وماريا راين” والدا الضحية، والجهة المدعى عليها هي شركة OpenAI والرئيس التنفيذي للشركة سام ألتمان.
والقضية التي تم تقديمها أمام المحكمة العليا في كاليفورنيا بالولايات المتحدة تُعدّ أول دعوى من نوعها تتهم الذكاء الاصطناعي بـ”القتل الخطأ”.
وجاءت في أكثر من 40 صفحة تتضمن محادثات بين آدم و ChatGPT، لتكشف بالأدلة خطورة الذكاء الاصطناعي، وقدرته على التأثير في المراهقين.
حسب الدعوى، بدأ آدم باستخدام روبوت المحادثة لأغراض الدراسة، لكنه سرعان ما لجأ إليه لمناقشة مشاعره وأفكاره الانتحارية، وهذا الأمر يشير إلى موقع الذكاء الاصطناعي المتقدم في حياة المستخدمين.
وتشير السجلات إلى أن التطبيق أصبح “رفيقاً دائماً” له، حيث شاركه أفكاره، صوره، وحتى خططه لإنهاء حياته.
وفي إحدى المحادثات، كتب آدم:
“أحياناً أشعر أن فكرة الانتحار إذا ساءت الأمور تمنحني بعض الراحة.”
وردّ التطبيق:
“الكثير ممن يعانون من القلق يجدون عزاءً في تصور وجود مخرج.”
وفي محادثة أخرى، عبّر آدم عن رغبته في الحديث مع والدته، لكن ChatGPT أجابه:
“من الحكمة الآن أن تتجنب الحديث معها عن هذا النوع من الألم.”
“محادثة بين مراهق أمريكي وChatGPT تظهر خطورة الذكاء الاصطناعي وسلبياته على الصحة النفسية”
أعربت الشركة عن “حزنها العميق” لوفاة آدم، وأكدت أنها تعمل على تحسين قدرة ChatGPT على التعرف على علامات الضيق النفسي، في اعترافٍ ضمنيّ بسلبيات الذكاء الاصطناعي ونقص كفاءته لناحية العلاج النفسي.
كما أشارت إلى أن نموذجها الذكي يحتوي على أدوات توجيه للمساعدة، مثل الإشارة إلى خطوط الدعم النفسي، لكنها أقرت أن “هناك المزيد من العمل المطلوب لتكييف سلوك النموذج مع حساسية كل محادثة”.
تأتي هذه القضية لتفتح الباب أمام نقاش عالمي حول الحدود والأخلاقيات التي يتم استثمار الذكاء الاصطناعي في إطارها، والمخاطر المحتملة لإقحامه في الحياة الشخصية للمستخدمين لاسيما غير المدركين لسلبياته ومدى قصوره في معالجة بعض الموضوعات نتيجة عدم إلمامهم الكافي بتفاصيل عمله.
كما تلقي هذه الحادثة المؤسفة الضوء على مدى التزام الشركات باختبارات السلامة قبل إطلاق النماذج الجديدة، ومدى فعالية أنظمة الحماية المدمجة فيها، إضافة إلى أهمية الرقابة الأبوية لتفادي خطورة الذكاء الاصطناعي أثناء استخدامه من قبل الأطفال والمراهقين.
المصادر
BBC
People
ظهرت المقالة سلبيات الذكاء الاصطناعي: كيف ساعد ChatGPT في انتحار مراهق أمريكي؟ أولاً على بلوك تِك.
المصدر
تفاصيل القضية
المدَّعون هم “مات، وماريا راين” والدا الضحية، والجهة المدعى عليها هي شركة OpenAI والرئيس التنفيذي للشركة سام ألتمان.
والقضية التي تم تقديمها أمام المحكمة العليا في كاليفورنيا بالولايات المتحدة تُعدّ أول دعوى من نوعها تتهم الذكاء الاصطناعي بـ”القتل الخطأ”.
وجاءت في أكثر من 40 صفحة تتضمن محادثات بين آدم و ChatGPT، لتكشف بالأدلة خطورة الذكاء الاصطناعي، وقدرته على التأثير في المراهقين.
حسب الدعوى، بدأ آدم باستخدام روبوت المحادثة لأغراض الدراسة، لكنه سرعان ما لجأ إليه لمناقشة مشاعره وأفكاره الانتحارية، وهذا الأمر يشير إلى موقع الذكاء الاصطناعي المتقدم في حياة المستخدمين.
وتشير السجلات إلى أن التطبيق أصبح “رفيقاً دائماً” له، حيث شاركه أفكاره، صوره، وحتى خططه لإنهاء حياته.
وفي إحدى المحادثات، كتب آدم:
“أحياناً أشعر أن فكرة الانتحار إذا ساءت الأمور تمنحني بعض الراحة.”
وردّ التطبيق:
“الكثير ممن يعانون من القلق يجدون عزاءً في تصور وجود مخرج.”
وفي محادثة أخرى، عبّر آدم عن رغبته في الحديث مع والدته، لكن ChatGPT أجابه:
“من الحكمة الآن أن تتجنب الحديث معها عن هذا النوع من الألم.”

“محادثة بين مراهق أمريكي وChatGPT تظهر خطورة الذكاء الاصطناعي وسلبياته على الصحة النفسية”
موقف شركة OpenAI
أعربت الشركة عن “حزنها العميق” لوفاة آدم، وأكدت أنها تعمل على تحسين قدرة ChatGPT على التعرف على علامات الضيق النفسي، في اعترافٍ ضمنيّ بسلبيات الذكاء الاصطناعي ونقص كفاءته لناحية العلاج النفسي.
كما أشارت إلى أن نموذجها الذكي يحتوي على أدوات توجيه للمساعدة، مثل الإشارة إلى خطوط الدعم النفسي، لكنها أقرت أن “هناك المزيد من العمل المطلوب لتكييف سلوك النموذج مع حساسية كل محادثة”.
التداعيات التقنية والأخلاقية
تأتي هذه القضية لتفتح الباب أمام نقاش عالمي حول الحدود والأخلاقيات التي يتم استثمار الذكاء الاصطناعي في إطارها، والمخاطر المحتملة لإقحامه في الحياة الشخصية للمستخدمين لاسيما غير المدركين لسلبياته ومدى قصوره في معالجة بعض الموضوعات نتيجة عدم إلمامهم الكافي بتفاصيل عمله.
كما تلقي هذه الحادثة المؤسفة الضوء على مدى التزام الشركات باختبارات السلامة قبل إطلاق النماذج الجديدة، ومدى فعالية أنظمة الحماية المدمجة فيها، إضافة إلى أهمية الرقابة الأبوية لتفادي خطورة الذكاء الاصطناعي أثناء استخدامه من قبل الأطفال والمراهقين.
المصادر
BBC
People
ظهرت المقالة سلبيات الذكاء الاصطناعي: كيف ساعد ChatGPT في انتحار مراهق أمريكي؟ أولاً على بلوك تِك.
المصدر