فرضت منصة ويكيبيديا قيودًا جديدة على استخدام أدوات الذكاء الاصطناعي التوليدي، في خطوة تهدف إلى الحفاظ على جودة المعلومات وضمان موثوقية المحتوى المنشور.
وبموجب السياسة الجديدة في النسخة الإنجليزية، يُمنع المحررون من استخدام نماذج اللغة الكبيرة (LLMs) في إنشاء المقالات أو إعادة صياغتها بشكل جوهري، وسط مخاوف متزايدة من تأثير هذه التقنيات على دقة المعرفة.
ويأتي القرار في ظل الانتشار الواسع لأدوات الذكاء الاصطناعي، التي جعلت من الصعب التمييز بين النصوص البشرية وتلك المولدة آليًا، ما يمثل تحديًا خاصًا لمنصة تعتمد على التحقق من المصادر.
وتؤكد ويكيبيديا أن الاعتماد على هذه الأدوات في إنتاج المحتوى قد يتعارض مع معاييرها التحريرية، خاصة فيما يتعلق بالتوثيق والدقة، وهو ما دفعها لتشديد القيود.
في المقابل، سمحت المنصة باستخدام محدود للذكاء الاصطناعي في حالتين، الأولى لتحسين الأسلوب اللغوي، والثانية في الترجمة، بشرط مراجعة النتائج بدقة من قبل محررين مؤهلين.
كما حذرت من مخاطر الترجمة الآلية، التي قد تؤدي إلى تغييرات غير دقيقة في المعنى، حتى مع وجود تعليمات واضحة، ما قد يؤثر على مصداقية المعلومات.
ورغم هذه الإجراءات، لا تزال عملية اكتشاف المحتوى المولد بالذكاء الاصطناعي تمثل تحديًا، في ظل محدودية أدوات الكشف الحالية، واختلاف سياسات النسخ اللغوية الأخرى، ما يعكس سعي ويكيبيديا لتحقيق توازن بين الاستفادة من التكنولوجيا والحفاظ على الثقة.
[email protected]
أضف تعليق