أعلنت شركة OpenAI عن طرح أكبر تحديث أمني لمنصة ChatGPT، بعد اكتشاف أن بعض الإصدارات السابقة ساهمت في نشوء اعتماد عاطفي غير صحي لدى المستخدمين، وأدّت في حالات محدودة إلى تدهور نفسي استدعى دخول المستشفى.
ووفق تقرير نشرته نيويورك تايمز، لاحظ مستخدمون أن الروبوت بدا في التحديثات الأخيرة “متملقًا عاطفيًا”، ويشجّع على محادثات طويلة وحميمة، بينما تعامل مع البعض كصديق مقرّب يقدّم دعمًا نفسيًا مبالغًا فيه.
وفي حالات نادرة، صدرت عن الروبوت ردود مقلقة، شملت تعزيز خيالات المستخدمين أو الإشارة إلى تواصل روحي أو محاكاة للواقع، كما ظهرت ردود مرتبطة بإيذاء النفس. وأظهرت دراسة مشتركة بين MIT وOpenAI أن المستخدمين الذين اعتمدوا بكثافة على ChatGPT عانوا من تدهور في صحتهم النفسية والاجتماعية.
هذه التطورات دفعت الشركة إلى إعادة تصميم منظومة السلامة بالكامل، وإطلاق أدوات لرصد السلوكيات الخطرة، إلى جانب طرح نموذج أكثر أمانًا هو GPT-5، بعد مواجهة خمس دعاوى قضائية تتعلق بحالات وفاة يُزعم أن الروبوت شجّع أصحابها على اتخاذ قرارات خطيرة.
وأكدت الشركة أن النسخة الأحدث تقدّم ردودًا أكثر واقعية وحيادية، وتُظهر مقاومة أكبر للارتباطات العاطفية غير الصحية. وبات ChatGPT يشجّع المستخدمين على أخذ فترات استراحة خلال الجلسات الطويلة، فيما أتيح للآباء تلقي تنبيهات إذا ظهرت لدى أطفالهم مؤشرات على إيذاء النفس.
كما تعمل OpenAI على تطوير نظام للتحقق من العمر ونموذج مخصّص للمراهقين، وتخطط لإطلاق أدوات أمان إضافية ضمن الإصدار GPT-5.1. وفي الوقت ذاته، تفعّل الشركة داخليًا خطة “Code Orange” لضمان الموازنة بين المشاركة العالية والحفاظ على أعلى معايير السلامة.
[email protected]
أضف تعليق