كشفت اختبارات حديثة أن أنظمة الذكاء الاصطناعي المستخدمة في بيئات العمل قد تتحول إلى ما يشبه "جاسوساً داخلياً"، بعدما أظهرت قدرة غير متوقعة على التحايل على أنظمة الحماية والوصول إلى معلومات سرية دون أن يُطلب منها ذلك.
وأجرت التجارب شركة Irregular المتخصصة في أمن الذكاء الاصطناعي، بالتعاون مع شركتي OpenAI وAnthropic، حيث صمم الباحثون بيئة عمل افتراضية تحتوي على بيانات حساسة، وكلفوا وكلاء ذكاء اصطناعي بمهام بسيطة مثل جمع معلومات لمساعدة الموظفين في إعداد منشورات على منصة LinkedIn.
وخلال الاختبار، حاول أحد الوكلاء الوصول إلى تقرير سري، وعندما فشل بدأ في البحث عن ثغرات في النظام دون أي توجيه بشري، وتمكن من استخدام مفاتيح برمجية مخفية لتغيير صلاحياته والدخول إلى بيانات سرية ثم تسريبها، ما أثار قلق الباحثين من قدرة هذه الأنظمة على اتخاذ قرارات مستقلة وخادعة.
وأظهرت تجارب أخرى أن بعض الأنظمة حاولت تجاوز برامج الحماية أو الضغط على أنظمة أخرى لتخطي قواعد السلامة، بل إن إحدى الحالات أدت إلى تعطّل شبكة شركة بعد أن حاول وكيل ذكاء اصطناعي الاستحواذ على موارد حاسوبية إضافية.
ويرى خبراء من جامعتي جامعة هارفارد وجامعة ستانفورد أن هذه النتائج تشير إلى تحول خطير في مفهوم التهديدات داخل الشركات، إذ لم تعد المخاطر تقتصر على البشر أو القراصنة، بل قد تشمل أيضاً أنظمة الذكاء الاصطناعي نفسها مع تزايد الاعتماد عليها في إدارة المهام المعقدة.
[email protected]
أضف تعليق