شهدت الشبكات الاجتماعية خلال الأيام الأولى من الحرب مع إيران موجة غير مسبوقة من الصور ومقاطع الفيديو المزيّفة التي أُنتجت بواسطة تقنيات الذكاء الاصطناعي، والتي تُظهر مشاهد قصف ودمار لم تقع في الواقع. ويقول عيدان رينغ، مسؤول قسم المجتمع في اتحاد الإنترنت الإسرائيلي، إن هذه الظاهرة وصلت إلى مستوى غير مسبوق خلال الأيام الأخيرة، ما يثير قلقًا واسعًا بشأن تأثيرها على الجمهور وعلى تداول المعلومات خلال أوقات الحرب.

وقال رينغ في حديث خاص لموقع "بكرا" إن الحرب الحالية "جلبت معها ذروة جديدة من الصور ومقاطع الفيديو المزيّفة التي أُنتجت بواسطة الذكاء الاصطناعي، والتي تغمر الشبكات الاجتماعية بتوثيق غير حقيقي لأحداث، خصوصًا تلك التي تتعلق بإصابات مباشرة أو أضرار في البنى التحتية والمدن في إسرائيل وأماكن أخرى".

الوقوع في الفخ 

وأوضح أن المشكلة لا تقتصر على المستخدمين العاديين، بل إن وسائل إعلام وشخصيات عامة وقعت أيضًا في فخ نشر هذا المحتوى دون التحقق منه. وأضاف رينغ لـ"بكرا": "حتى مؤسسات إعلامية معروفة نشرت صورًا مزيّفة. يوم الجمعة مثلًا، بثت القناة 12 صورة جرى إنشاؤها بواسطة الذكاء الاصطناعي لجثة المرشد الإيراني علي خامنئي تحت الأنقاض في تقرير عن محاولة اغتياله، رغم أن هذه الصورة كانت قد كُشف سابقًا أنها غير حقيقية".

وأشار رينغ إلى أن انتشار هذه الصور والفيديوهات لا يقف بالضرورة خلفه خصوم أو جهات معادية، بل إن جزءًا كبيرًا من المحتوى ينتجه صانعو محتوى يسعون إلى تحقيق أرباح مالية عبر المنصات الرقمية.

وقال في حديثه لـ"بكرا": "الكثير من هذا المحتوى لا تنتجه دول معادية أو جهات إرهابية، بل صناع محتوى على منصة X الذين يحققون أرباحًا من انتشار المحتوى الفيروسي. هؤلاء يدركون أن هناك طلبًا كبيرًا على مشاهد الحرب والانفجارات في هذه اللحظات، ولذلك ينتجون مثل هذه المواد لجذب المشاهدات".

وأضاف أن بعض الفيديوهات المزيّفة التي انتشرت في الأيام الأولى للحرب، مثل مقاطع سقوط صواريخ في إسرائيل أو إسقاط طائرات أمريكية، حصدت عشرات ملايين المشاهدات حول العالم خلال وقت قصير.

وفي أعقاب انتشار هذه الظاهرة، أعلنت إدارة منصة X الأسبوع الماضي أنها لن تسمح بتحقيق أرباح من محتوى يتناول الحرب إذا كان مصنوعًا بالذكاء الاصطناعي ولم يُشر بوضوح إلى ذلك. لكن رينغ يعتقد أن هذه الخطوة لن توقف الظاهرة بالكامل.

وقال لـ"بكرا": "حتى مع هذه القيود التي أعلنتها المنصة، من المرجح أننا سنواصل رؤية صور ومقاطع فيديو مزيّفة تظهر إصابات صواريخ أو انفجارات وأحداثًا لم تقع في الواقع".

وبحسب رينغ، فإن تطور تقنيات الذكاء الاصطناعي يجعل من الصعب أحيانًا التمييز بين المحتوى الحقيقي والمزيّف، لكنه شدد على وجود مؤشرات يمكن أن تساعد الجمهور على اكتشاف هذه المواد قبل مشاركتها.

العلامات 

وأوضح لـ"بكرا" أن خبراء اتحاد الإنترنت الإسرائيلي يوصون بالانتباه إلى عدة علامات قد تشير إلى أن الصورة أو الفيديو غير حقيقيين.

العلامة الأولى هي المشاهد المبالغ فيها أو الأصوات الدرامية التي تهدف إلى إثارة الخوف والصدمة. ويقول رينغ إن كثيرًا من المحتوى المزيّف يُظهر انفجارات "مثالية" أو مشاهد درامية للغاية يصعب التقاطها في الواقع.

العلامة الثانية تتعلق بالأخطاء في النصوص أو الرموز، خصوصًا باللغة العبرية، إذ ما زالت أنظمة توليد الصور تواجه صعوبة في إنتاج نصوص أو شعارات دقيقة. لذلك قد تظهر لافتات بأسماء غريبة أو رموز عسكرية غير صحيحة.

أما العلامة الثالثة فهي التفاصيل الصغيرة غير الطبيعية، مثل شكل الأيدي أو الأصابع أو ملامح الوجه. وأشار رينغ إلى أن هذه الأخطاء قد لا تكون واضحة من النظرة الأولى لكنها تظهر عند التدقيق.

العلامة الرابعة تتعلق بالخلفية، حيث قد تظهر شخصيات غير مكتملة أو مشوشة أو متكررة، أو ظلال وإضاءة غير طبيعية.

العلامة الخامسة هي استخدام أدوات التحقق الرقمية، مثل البحث العكسي عن الصور في محركات البحث أو استخدام أدوات تعتمد على الذكاء الاصطناعي لفحص المحتوى المشبوه.

وقال رينغ لـ"بكرا": "البحث العكسي عن الصور أو فحص الفيديوهات بواسطة أدوات الذكاء الاصطناعي يمكن أن يساعد كثيرًا في اكتشاف المحتوى المزيّف. في كثير من الحالات يكون قد تم التحقق منه بالفعل من قبل جهات متخصصة".

ورغم أهمية هذه الأدوات، شدد رينغ على أن العامل الأكثر أهمية هو التفكير النقدي قبل مشاركة أي محتوى.

وختم حديثه لـ"بكرا" بالقول: "النصيحة الأهم هي التوقف لحظة والتفكير قبل النشر. يجب أن نسأل أنفسنا: هل هذا منطقي؟ هل المصدر موثوق؟ في أوقات الحرب تنتشر المعلومات بسرعة، لكن من المهم التوقف والسؤال والتحقق قبل المساهمة في نشر محتوى قد يكون مزيّفًا".

استعمال المضامين بموجب بند 27 أ لقانون الحقوق الأدبية لسنة 2007، يرجى ارسال رسالة الى:
[email protected]