نشر اليوم (الأربعاء) الطاقم الحكومي المشترك لفحص استخدامات الذكاء الاصطناعي في القطاع المالي تقريره النهائي. ويوصي التقرير باعتماد نهج تنظيمي قائم على المخاطر للذكاء الاصطناعي، مع التركيز على الأنظمة ذات المخاطر المرتفعة. ويتناول التقرير طيفًا واسعًا من القضايا المرتبطة بأنظمة الذكاء الاصطناعي. ومن بين أمور أخرى، يوصي التقرير بالتعامل مع إشكالية «الصندوق الأسود» عبر إلزام الجهات المالية بشرح كيفية عمل النظام، من دون إلزامها بالضرورة بتقديم تفسير تفصيلي لكل قرار تتخذه أنظمة الذكاء الاصطناعي في كل حالة على حدة.
كما يوصي التقرير، في ما يتعلق بالمسؤولية عن تشغيل أنظمة الذكاء الاصطناعي، بتحميلها على عاتق الجهة المالية المشغِّلة للنظام. ويقترح التقرير «صندوق أدوات» لآليات اتخاذ القرار في مجال الذكاء الاصطناعي، ولإدارة المخاطر الناشئة عن هذه الأنظمة، ولأساليب الرقابة والإشراف عليها. ويتناول التقرير أيضًا الآثار المحتملة للذكاء الاصطناعي على جوانب الاستقرار والتنافسية في النظام المالي، والحاجة إلى الاستعداد للمخاطر الناجمة عن الاحتيال والتضليل، بما في ذلك اعتماد أدوات تمكّن من رصد هذه الظواهر والتعامل معها لما تنطوي عليه من مخاطر نظامية واستهلاكية. وترأس الطاقم الحكومي المشترك كلٌّ من أمير فاسرمان، المستشار القانوني لهيئة الأوراق المالية، وساريت فلبر، رئيسة محور الابتكار التكنولوجي والميزانية في قسم الاستشارة والتشريع (القانون الاقتصادي) في وزارة العدل. كما شارك في أعمال الطاقم ممثلون عن وزارة المالية، وسلطة المنافسة، وسلطة سوق رأس المال والتأمين والادخار، وجهاز الرقابة على البنوك في بنك إسرائيل.
التوصيات المركزية في التقرير:
• اعتماد نهج قائم على المخاطر: يوصي التقرير باعتماد نهج يرتكز على تقييم المخاطر مع التركيز على الأنظمة ذات المخاطر المرتفعة. ويشرح التقرير كيفية تقييم المخاطر المتعلقة بأنظمة الذكاء الاصطناعي التي قد تُستخدم في طيف واسع من الأنشطة المالية.
• قابلية التفسير: تُعد مشكلة «الصندوق الأسود»، التي مفادها عدم القدرة على تفسير مخرجات أنظمة الذكاء الاصطناعي تفسيرًا كاملًا، من أبرز التحديات المرتبطة بهذه التكنولوجيا. ويميّز التقرير بين قابلية تفسير عامة تتعلق بكيفية عمل النظام، وقابلية تفسير فردية تتعلق بقرارات محددة. ويقترح التقرير اشتراط قابلية التفسير العامة من دون فرض واجب التفسير الفردي في كل حالة يُستخدم فيها نظام ذكاء اصطناعي، وذلك وفقًا للظروف وبخاصة في الأنظمة ذات المخاطر المرتفعة وفي حال عدم توافر بدائل تعويضية ملائمة.
• الإعلام والإفصاح: يُقترح اشتراط إعلام الجمهور بوجود استخدام لأنظمة الذكاء الاصطناعي، ولا سيما في المراحل الأولى لاعتماد التكنولوجيا، ما لم يكن ذلك واضحًا بذاته. إضافة إلى ذلك، يُقترح تحديد واجبات إفصاح تندمج مع المتطلبات القائمة في المجال المالي بشأن الخدمة أو المنتج المقدم للزبون، وذلك عندما يكون لنظام الذكاء الاصطناعي تأثير جوهري عليه. ويجب أن يتناول الإفصاح الخصائص الفريدة الناشئة عن تكنولوجيا الذكاء الاصطناعي، وأن يُقدَّم بلغة بسيطة ومحايدة، مع تجنب ظاهرة - تلميع الذكاء الاصطناعي (AI Washing- ، أي المبالغة في عرض الفوائد المتأتية من استخدامه.
• المسؤولية: لا مبرر للحياد عن المبدأ المعمول به في التنظيم المالي، والقاضي بأن المسؤولية القانونية تقع على عاتق الجهة الخاضعة للرقابة، وينطبق ذلك أيضًا على أنظمة الذكاء الاصطناعي. ويتناول التقرير مسألة مسؤولية الجهة الخاضعة للرقابة عند تعاقدها مع طرف ثالث (مثل مطوّر نظام ذكاء اصطناعي)، ويقرر كقاعدة عامة حظر تقييد المسؤولية تجاه الزبون عن عمل النظام.
• المنافسة: يسرد التقرير عددًا من المخاوف التنافسية الناجمة عن دمج نماذج الذكاء الاصطناعي في المجال المالي في إسرائيل، من بينها القوة السوقية لمزوّدي خدمات الذكاء الاصطناعي إزاء الجهات المالية، وغياب الوصول إلى البيانات لدى لاعبين ماليين جدد أو صغار، ومزايا الحجم والنطاق لدى الجهات المالية القائمة، ومخاطر التنسيق والمواءمة. ويؤكد التقرير أن قوانين المنافسة تسري أيضًا على أنشطة الذكاء الاصطناعي، ويقترح، من بين أمور أخرى، دراسة سبل منع تطور قوة سوقية مفرطة.
• الاحتيال والتضليل: يوسّع التقرير البحث في مخاطر التضليل على النظام المالي، بدءًا من انتحال صفة الزبائن وصولًا إلى آثار نظامية واسعة. وخلال العام المنصرم، أمكن ملاحظة بدء تجسّد هذه المخاطر في إسرائيل. ويحدّد التقرير مناطق مخاطر محددة، ويوصي بالاستعداد على مستوى الجهات التنظيمية والجهات الخاضعة للرقابة، ويدعو إلى تعزيز أدوات للتعامل مع أحداث التضليل، التي تشكّل بيئة خصبة لعمليات الاحتيال.
• حوكمة الذكاء الاصطناعي: نظرًا لوتيرة تطور التكنولوجيا وتعدد استخداماتها، يوصي التقرير بتنظيم قائم على المبادئ، ويعرض «صندوق أدوات» لحوكمة الذكاء الاصطناعي (AI Governance)، يشمل آليات اتخاذ القرار، وإدارة المخاطر، والرقابة والإشراف على تشغيل أنظمة الذكاء الاصطناعي. ويمكن للجهات المالية تطبيق هذه الأدوات وفق اعتبارات وظروف متغيرة، مثل طبيعة الخدمة المقدمة بواسطة نظام الذكاء الاصطناعي، وأهميتها، وإمكانات المساس بالفرد، وغيرها.
يعرض التقرير صورة الوضع التنظيمي عالميًا وفي إسرائيل في ما يتعلق بالذكاء الاصطناعي، وتحليل الفرص والمخاطر الكامنة في دخوله إلى المجال المالي، وتحليلًا لمجمل القضايا المتعلقة بحماية الجمهور، بما في ذلك جوانب التمييز والخصوصية، والمنافسة والاستقرار المالي وغيرها. ويتضمن التقرير توصيات في هذه الجوانب وغيرها الكثير، بهدف تعزيز تنظيم مالي متقدم وملائم للمعايير المتطورة عالميًا وللإمكانات الواسعة التي قد يفتحها الذكاء الاصطناعي.
وترأس الطاقم الحكومي المشترك لفحص استخدامات الذكاء الاصطناعي في القطاع المالي كلٌّ من المحامي أمير فاسرمان، المستشار القانوني لهيئة الأوراق المالية، والمحامية ساريت فلبر، رئيسة محور الابتكار التكنولوجي والميزانية في قسم الاستشارة والتشريع (القانون الاقتصادي) في وزارة العدل. كما ضمّ الطاقم السيدة إيلانيت مدَموني، مديرة وحدة الابتكار في التكنولوجيا المالية في جهاز الرقابة على البنوك في بنك إسرائيل، والسيدة أبيبا فايس، مديرة قسم إدارة المخاطر ومديرة قسم الإشراف على تكنولوجيات المعلومات والأمن السيبراني في سلطة سوق رأس المال والتأمين والادخار، والمحامي دودي كوبل، المستشار القانوني لوزارة المالية، والمحامي أيال شابيرا، المدير الرفيع لمجال التخطيط والسياسات في سلطة المنافسة. وقد تولّى المحامي توم غولدرَيْخ، رئيس مجال التكنولوجيا المالية في الدائرة الدولية بهيئة الأوراق المالية، تنسيق أعمال الطاقم.
لقراءة التقرير الكامل:
https://www.new.isa.gov.il/images/Fittings/isa/asset_library_pic/al_lobby/al_lobby-63b3dc4fa5dd2/aireport.pdf
[email protected]
أضف تعليق