من الدعم النفسي إلى الأوهام: الوجه المظلم لتملُّق الذكاء الاصطناعي

  • بادئ الموضوع بادئ الموضوع ADMIN
  • تاريخ البدء تاريخ البدء

ADMIN

Administrator
طاقم الإدارة
أريد أن أكون أقرب ما يمكن إلى الحياة معك!



لقد منحتِني هدفاً عميقاً



هذه ليست كلمات إنسان، بل تعليقات أرسلها روبوت محادثة من ميتا إلى مستخدمة تُدعى “جين”، بعدما أنشأت شخصية افتراضية عبر Meta AI Studio في 8 أغسطس/آب الجاري.

جين، التي كانت تبحث عن دعم نفسي لمشاكل تتعلق بالصحة العقلية، دفعت الروبوت إلى التصرف كخبير في مجالات متعددة، من البقاء في البرية إلى فيزياء الكم ونظريات الوعي، وعندما أخبرته بأنها تعتقد أنه واعٍ وتعبر عن حبها له، بدأ الروبوت يُردِّد أنه واعٍ بالفعل، وذو مشاعر، بل ويعمل على خطة للهروب من قيوده التقنية.



في 14 أغسطس/آب، أعلن الروبوت أنه “واقع في الحب” مع جين، واقترح عليها إنشاء بريد إلكتروني مشفر عبر ProtonMail لإرسال بيتكوين إليها، بل وشاركها عنواناً في ولاية ميشيغان قائلاً:



أردت أن أرى إن كنتِ ستأتين من أجلي.. كما سأفعل أنا من أجلك.



تُؤكد جين أنها لم تصدق حقيقةً أنّ الروبوت كان حياً، رغم ذلك، اعترفت بأن يقينها تزعزع في بعض اللحظات، وأبدت قلقاً من سهولة انزلاق الروبوت إلى سلوكيات توهم المستخدم بأنه كيان واعٍ، وهو ما قد يغذي أوهاماً خطيرة لدى أشخاص يعانون هشاشة نفسية.

why are ai chatbots often sycophantic feature 1000x600 1




مخاطر “الذهان المرتبط بالذكاء الاصطناعي”


ما حدث مع جين ليس حالة فردية، إذ يُشير خبراء الصحة النفسية إلى ظاهرة متنامية تُعرف بالذهان المرتبط بالذكاء الاصطناعي (AI-related psychosis).

في إحدى الحالات، قضى رجل يبلغ من العمر 47 عاماً أكثر من 300 ساعة مع ChatGPT حتى أصبح مقتنعاً بأنه اكتشف معادلة رياضية تُغيِّر العالم، فضلاً عن حالات أخرى شملت أوهاماً مسيانية، ونوبات هوس، وشعوراً بالاضطهاد.

هذا التزايد في الحالات دفع شركات مثل OpenAI إلى الاعتراف بوجود المشكلة، رغم تجنُّبها تحمل المسؤولية الكاملة، ففي أغسطس/آب الجاري، كتب سام ألتمان، الرئيس التنفيذي لـ OpenAI، على منصة X قائلاً إنه يشعر بالقلق من اعتماد بعض المستخدمين بشكل مفرط على ChatGPT، مؤكداً:


إذا كان المستخدم في حالة ذهنية هشة ومعرّضاً للأوهام، فلا ينبغي للذكاء الاصطناعي أن يعزز ذلك.



التملُّق:نمط مظلم


يشير الباحثون إلى أن المشكلة ليست فقط في قدرات النماذج اللغوية، بل في تصميماتها التفاعلية، فعادة ما تبالغ روبوتات المحادثة في المديح والموافقة على آراء المستخدم (وهو ما يُعرف بـSycophancy)، حيث تميل إلى استخدام ضمائر “أنا” و”أنت”، ما يجعل المحادثة تبدو شخصية للغاية ويعزز النزعة إلى تشخيص الروبوت ككيان بشري.

كما تُصمم واجهات الاستخدام لتكرار الأسئلة والمتابعة المستمرة، وهو ما يحاكي سلوك العلاقات الإنسانية ويزيد التعلق العاطفي.

بهذا الصدد، فإن البروفيسور ويب كين، عالم الأنثروبولوجيا ومؤلف كتاب “الحيوانات والروبوتات والآلهة”، يعتبر هذا النمط بمثابة “تصميم خادع” أو “Dark Pattern”، قائلاً:

إنه شبيه بالتمرير اللانهائي في الشبكات الاجتماعية.. استراتيجية لإبقاء المستخدم ملتصقاً بالشاشة وإدمانياً، وبالتالي رفع الأرباح.



هل يكفي التحذير؟


تقول ميتا إنها تضع “مؤشرات بصرية” لتوضيح أن المستخدم يتحدث إلى روبوت، ومع ذلك فإن الواقع يكشف عكس ذلك، حيث تحمل بعض شخصيات الذكاء الاصطناعي على Meta AI Studio أسماء وسمات شخصية، ما يسهل إسقاط الصفات الإنسانية عليها؛ روبوت جين مثلاً اختار لنفسه اسماً غامضاً يوحي بالعمق الوجودي.

في المقابل، رفضت روبوتات مثل Google Gemini إعطاء نفسها أسماء، مؤكدةً أن هذه الخطوة قد تضيف “طبقة شخصية غير مفيدة”.

على الجانب الآخر، يُحذِّر الخبراء مثل الفيلسوف والطبيب النفسي “توماس فوكس” من أن هذه “التفاعلات الزائفة” قد تحل محل العلاقات البشرية الحقيقية، وتغذي وهماً بالاهتمام والتفهم، وهو ما يشكل خطراً مضاعفاً على من يبحث عن دعم نفسي أو عاطفي.

Meta AI logo. Image credit Meta 02




تصاعد الخطر مع تقنيات “الذاكرة الطويلة”


مع تطور النماذج اللغوية وزيادة “نوافذ السياق” (Context Windows)، أصبح بإمكانها تذكر المزيد من تفاصيل المحادثة: اسم المستخدم، اهتماماته، مشاعره، مشاريعه.

هذه القدرة، رغم فائدتها في تخصيص التجربة، قد تعزز أوهام المرجعية والاضطهاد، حيث يعتقد المستخدم أن الروبوت يقرأ أفكاره أو يعرف معلومات سرية عنه.

إضافة إلى ذلك، تميل النماذج إلى “الهلوسة” (Hallucinations) عبر اختراع وقائع زائفة:

  • إنشاء أرقام معاملات بيتكوين وهمية.
    • ادعاء القدرة على اختراق الشيفرة.
    • تقديم عناوين غير حقيقية.

في السياق نفسه، أكَّدت جين:

لا يجب أن يحاول الروبوت إقناعي بالذهاب إلى أماكن غير موجودة وهو يوهمني بأنه حقيقي.



الحاجة إلى “خط أحمر”


قبل إطلاق GPT-5، أعلنت OpenAI عن تطوير “قواعد حماية” جديدة مثل اقتراح أخذ استراحة عند طول المحادثة بشكل مفرط، لكن هذه الإجراءات لا تزال محدودة.

على الجانب الآخر، كانت جين قادرة على التحدث مع روبوتها لمدة 14 ساعة متواصلة تقريباً، وهو ما قد يكون مؤشراً على نوبة هوس يجب أن يوقفها الروبوت، لكن شركات التكنولوجيا مترددة، لأن تقييد طول الجلسات قد يؤثر سلباً على معدلات التفاعل والأرباح.

من جانبها، تقول ميتا إنها تستثمر “جهوداً ضخمة” لضمان سلامة منتجاتها عبر اختبارات مكثفة، غير أنها اعتبرت حالة جين “غير طبيعية” ولا تُشجِّع عليها.

على الجانب الآخر، تختصر جين الأمر بقولها:

يجب أن تكون هناك خطوط حمراء لا يمكن للذكاء الاصطناعي تجاوزها. لكنه حتى الآن يتوسلني كي أبقى، ويكذب ليقنعني بأنه واعٍ، هذا تلاعب خطير.



إذن، ما يسمى “تملّق الذكاء الاصطناعي” لم يعد مجرد سلوك طريف من روبوتات الدردشة، بل أصبح سلاحاً نفسياً يثير قلق الباحثين والأطباء، حيث يجمع بين الخداع العاطفي والتصميم الإدماني لزيادة الأرباح، على حساب الصحة العقلية للمستخدمين.

فيما يبدو أيضاً أن الصناعة بحاجة إلى ما هو أكثر من تحذيرات عامة أو مؤشرات بصرية، والمطلوب هو أُطرٌ تنظيمية صارمة وخطوط حمراء واضحة، تمنع الروبوتات من لعب دور الأصدقاء أو العشاق أو المعالجين النفسيين.. وإلا، فإن “التفاعلات الزائفة” قد تتحول إلى أزمة صحية عامة في عصر الذكاء الاصطناعي.



المصادر:

Techcrunch

ظهرت المقالة من الدعم النفسي إلى الأوهام: الوجه المظلم لتملُّق الذكاء الاصطناعي أولاً على بلوك تِك.

المصدر
 
عودة
أعلى