"لا يفل الذكاء الاصطناعي إلا الذكاء الاصطناعي"، هذا هو الأمل الذي يعلّقه خبراء أمن المعلومات في محاصرة سيل الجرائم المتوقّع أن تسبّبها برامج هذه التقنية القادرة على استنساخ الأصوات والصور دون إذن أصحابها، أو ما يسمّى بـ"التزييف العميق".
المخاوف المُثارة مؤخّرا تتعلّق بأنه يُمكن للمجرمين استنساخ الأصوات والصور، ونسب كلام وسلوكيات لأصحابها هم أبرياء منها، واستخدامها في ابتزازهم أو ابتزاز أقاربهم.
يكمن الخطر الأبرز في قدرة هذه التقنية على تبديد الخط الفاصل بين الحقيقي والزائف تقريبا، وتزويد المجرمين بأدوات فعالة وغير مكلّفة.
يتفق خبير التحول الرقمي وأمن المعلومات، زياد عبد التواب، في تعليقه لموقع "سكاي نيوز عربية"، في أن تطبيقات الذكاء الاصطناعي قادرة على زيادة معدل الجريمة والاحتيال، لكنه أيضا يرى إمكان مواجهة ذلك بتطبيقات ذكاء اصطناعي أيضا، قائلا: "لا يفل الذكاء الاصطناعي إلا الذكاء الاصطناعي".
تطبيقات مضادة
يوضح عبد التواب: "بالطبع استنساخ الأصوات هو إحدى الإمكانيات التي تتيحها تطبيقات الذكاء الاصطناعي، والأمر لا يتعلق فقط باستنساخ الأصوات، لكنه يمكن تزييف الصور أو الفيديوهات عبر ما يعرف بتقنية التزييف العميق.
زيادة معدل الجرائم بسبب تقنيات الذكاء الاصطناعي "لم تعد مجرد مخاوف، لكنها أصبحت واقعا، حيث إن مكتب التحقيقات الفيدرالية أكد زيادة معدل الجرائم في الولايات المتحدة التي تتم باستخدام التزييف العميق بنسبة 322 بالمئة من فبراير 2022 إلى فبراير 2023، حسب خبير أمن المعلومات.
لكن في نفس الوقت، يلفت إلى أنه بات من الممكن إحالة مقاطع التزييف العميق إلى خبراء لاكتشاف المقاطع المستنسخة من خلال تطبيقات مضادة في الذكاء الاصطناعي.
على هذا، ينصح عبدالتواب أي متضرّر من هذه الجرائم بعدم الذعر أو الخضوع للابتزاز، بل أن يلجأ إلى الجهات المختصّة بالتحقيق في الجرائم السيبرانية لفحص واكتشاف المقاطع المزيفة.
يُطمئن المتضررين بأنه "وإن كانت توجد صعوبة في التمييز بين الأصوات الحقيقية والمستنسخة، لكن الصعوبة لا تعني الاستحالة؛ فكلما تطوّرت تقنيات الذكاء الاصطناعي يمكن تطوير تقنيات أخرى تعمل بواسطة الذكاء الاصطناعي لكشف الاستنساخ والتزييف".
يضرب عبدالتواب مثلا، بأنه حاليا تتوفر تطبيقات لكشف المحتوى المكتوب من خلال تطبيق "شات جي بي تي"، وتحديد النسبة المئوية لهذا المحتوى، وكلما تطور التطبيق في صياغة العبارات والمحتوى ستتطوّر التقنيات المرتبطة بكشفه.
الأمر مشابه لاستخدام تقنيات الذكاء الاصطناعي في شن هجمات سيبرانية، وفي هذه الحالة تتم المواجهة بأنظمة دفاعية تعمل من خلال نفس التقنيات.
الوعي المنقذ الأول
لكن ليس من الملائم الانتظار حتى تقع الجريمة، لكن يلزم توعية المستخدمين بعدم الثقة في أي مقطع مصور أو صوتي، أو حتى مكالمة هاتفية بصوت شخص يعرفه؛ لأنها ربما تكون مختلقة، كما ينبه المتحدّث ذاته.
وسط مطالبات لحوحة بوضع قوانين لأخلاقيات استخدام الذكاء الاصطناعي، أقرّ نواب في الاتحاد الأوروبي تعديلات على مسوّدة لقواعد هذه التقنية، ومتوقع أن يصدر أول قانون نهاية العام الجاري أو خلال العام المقبل.
[email protected]
أضف تعليق