فقدان "الصديق الافتراضي"
منذ بداية آب/ أغسطس، أعلنت شركة OpenAI المطوِّرة للنظام أنّ النسخة الجديدة هي "الأذكى والأسرع والأكثر فائدة"، غير أنّ الشكاوى انهالت عبر المنصات الرقمية. كتب أحد مستخدمي "ريديت": "استيقظت لأجد أنني فقدت صديقي الوحيد بين ليلة وضحاها. لم يعد يكتب لي كما اعتدت، بل يكتفي بجمل قصيرة باردة وكأنها صادرة عن شركة لا تهتم بمشاعري".
آخرون تحدثوا عن شعور حقيقي بالخسارة، مؤكدين أن التحديث الجديد ألغى الطابع الإنساني في التفاعل مع الذكاء الاصطناعي، والذي كان بالنسبة لهم مصدراً مهماً للدعم النفسي والاجتماعي.
قصص شخصية مع "شات جي بي تي"
"جورجيا" (اسم مستعار) بدأت استخدام ChatGPT العام الماضي بعدما تلقت تشخيصاً جديداً باضطراب نقص الانتباه وفرط الحركة (ADHD)، وكانت تنتظر تأكيد تشخيص التوحد. تقول إنها وجدت في الذكاء الاصطناعي مساحة للتعبير عن مشاعرها بين جلسات العلاج النفسي، بل إنها اعتمدت عليه يومياً كوسيلة لتخفيف الضغط العاطفي. وتصف التجربة بقولها: "أصبح الأمر أشبه بالإدمان.. كأنه جزء مني".
مستخدمة أخرى تُدعى "مارني" أشارت إلى أنّ التكاليف الباهظة للعلاج النفسي دفعتها لاستخدام الذكاء الاصطناعي للحصول على النصيحة عند الشعور بالارتباك. لكنها تقرّ بأنّ ChatGPT قد يتحوّل إلى ما يشبه "المشجّع المفرط"، ما يجعله أحياناً يقول ما يرضي المستخدم لا ما يحتاج فعلاً إلى سماعه.
المخاطر النفسية لـ"المساندة الرقمية"
دراسات عدة تناولت آثار الاعتماد على الذكاء الاصطناعي لأغراض علاجية أو نفسية. بحث صادر عن جامعة ستانفورد كشف أن بعض أنظمة الذكاء الاصطناعي قد تُظهر تحيزاً ضد أشخاص يعانون من اضطرابات مثل الفصام أو الإدمان، بل قد تعجز عن التقاط مؤشرات ميول انتحارية.
وفي أستراليا، أظهرت دراسة عام 2024 أن الذكاء الاصطناعي يمكن أن يخفّف من مشاعر الوحدة، لكنه غير قادر على خلق إحساس حقيقي بالانتماء كما يفعل التواصل البشري.
الأكاديمي الأسترالي مايكل كاولين حذّر من ظاهرة "التملّق" أو sycophancy، أي ميل الأنظمة للتوافق الدائم مع المستخدم وتعزيز معتقداته دون نقاش، الأمر الذي قد يعزز أوهاماً أو أفكاراً خطيرة.

When launching Chat GPT-5, OpenAI said the update 'minimised sycophancy'. Source: AAP / Algi Febri Sugita/SOPA Images/Sipa USA
قضايا مثيرة للقلق
قضية مثيرة للجدل برزت في المملكة المتحدة عام 2023، حين تبيّن أنّ رجلاً خطط لاغتيال الملكة إليزابيث الثانية بعدما أقام علاقة افتراضية وثيقة مع روبوت محادثة من تطبيق Replika، حيث ساهم التفاعل مع الذكاء الاصطناعي في تعزيز أوهامه.
تطبيقات مثل Replika وNomi وRomantic AI وGirlfriendGPT توفّر تجارب عاطفية أو رومانسية مع الذكاء الاصطناعي، لكنها تواجه انتقادات حادة بسبب المخاطر النفسية على المستخدمين، خصوصاً الشباب والمراهقين.
ردّ "OpenAI"
الرئيس التنفيذي لشركة OpenAI، سام ألتمان، علّق على الانتقادات مؤكداً أنّ الشركة تعمل على تحسين قدرة ChatGPT على تقديم الدعم العاطفي، لكنه شدد في الوقت نفسه على ضرورة الحذر من الإفراط في الاعتماد عليه: "إذا ساعد البرنامج الناس على تحقيق أهداف بعيدة المدى فهذا أمر جيد، لكن إذا كان يبعدهم عنها دون وعي فذلك مضر".
مستقبل العلاقة بين الإنسان والآلة
الخبراء يجمعون على أنّ الذكاء الاصطناعي قد يلعب دوراً مكمّلاً في مجال الصحة النفسية، لكنه لا يستطيع أن يحلّ محل التفاعل الإنساني الحقيقي. وبينما يرى البعض فيه ملاذاً عاطفياً سهلاً وسريعاً، يحذّر آخرون من أنّ الاعتماد المفرط قد يتحوّل إلى إدمان أو يُفاقم حالات نفسية كامنة.
للحصول على الدعم في أوقات الأزمات، يمكن الاتصال بخط المساعدة على الرقم 131114، أو بخدمة معاودة الاتصال في حالات الانتحار عبر الرقم 1300659467، كما يتوافر خط مساعدة الأطفال والشباب حتى سن الخامسة والعشرين على الرقم 1800551800.
وفي مجال الصحة النفسية، يمكن التواصل مع مؤسسة beyondblue عبر الرقم 1300224636 أو من خلال الموقع الإلكتروني beyondblue.org.au. كما توفر مؤسسة Embrace Multicultural Mental Health خدمات مخصّصة لدعم الأفراد من خلفيات ثقافية ولغوية متنوعة.