أعلنت شركة OpenAI تحديث سياساتها المتعلقة باستخدام منتجاتها القائمة على الذكاء الاصطناعي، بما في ذلك ChatGPT، لتوقف قدرة النموذج على تقديم استشارات طبية وقانونية مباشرة للمستخدمين.
وفق القواعد الجديدة، لن يتمكن ChatGPT من تقديم نصائح فردية، أو تقييم المخاطر القانونية لحالات محددة، أو صياغة استراتيجيات دفاعية في المحاكم، أو إعداد مستندات قانونية.
وفي المجال الطبي، يحظر على النموذج تشخيص الأمراض، وصف الأدوية وتحديد الجرعات، وكذلك تفسير الصور الطبية مثل الأشعة السينية، الرنين المغناطيسي، التصوير المقطعي وصور إصابات الجلد. وعند طلب مثل هذه المعلومات، سيكتفي ChatGPT بتقديم معلومات عامة مرجعية مع توصية بالرجوع إلى طبيب أو محامٍ مرخّص.
وقالت الشركة إن هذه القيود تهدف إلى تعزيز حماية المستخدمين، وتطبق على جميع منتجاتها، بما في ذلك واجهة الدردشة وواجهة البرمجة التطبيقية (API).
وأضافت OpenAI أنها ستخفف من قيود المحتوى في نسخة الدردشة الخاصة بالمستخدمين البالغين ابتداءً من ديسمبر، لتتيح الوصول إلى نسخة أقل رقابة من ChatGPT، بما في ذلك المواد الإيروتيكية، بعد التحقق من العمر.
وفي سبتمبر الماضي، أطلقت الشركة ميزة الرقابة الأبوية، التي تمكّن الآباء من ربط حساباتهم بحساب أطفالهم المراهقين وضبط القيود العمرية على استخدام النموذج.
[email protected]
أضف تعليق