لم يعد التمييز بين الحقيقة والتزييف أمرا يسيرا في زمن أصبحت فيه تقنيات الذكاء الاصطناعي قادرة على إنتاج مشاهد بصرية تحاكي الواقع بدقة مذهلة. ومع صعود أدوات مثل Veo-3، لم يعد خلق فيديو كامل من مجرد جملة أمرا مستبعدا، بل واقعا يثير قلق الخبراء والمختصين في الأمن السيبراني. وفي خضم هذا التحول الرقمي المتسارع، يسلط الخبير طيب هزاز الضوء على ما يجري خلف الكواليس التقنية لهذه النماذج، محذرا من التحديات العميقة التي تهدد صدقية المعلومات ومستقبل الثقة في المحتوى الرقمي. وقد أوضح الخبير في الأمن السيبراني والمعلوماتي، طيب هزاز، في تصريح ل"رسالة24″، أن هذه التقنيات تعتمد على بنية متعددة الوسائط معقدة تستند إلى نماذج التحويل العميق والنماذج التوليدية، وهي نماذج قادرة على فهم اللغة وتحويلها إلى عناصر مرئية دقيقة. يرتكز Veo-3 على نموذج تحويل نص إلى فيديو جرى تدريبه على ملايين الساعات من المحتوى المرئي المتنوع، ويعتمد على نماذج ترميز تربط بين النص والصورة لتحليل عناصر المشهد مثل الحركة والبيئة والضوء وتعابير الوجه، كما يستخدم محركات فيزيائية لضمان منطقية حركات الكائنات والمشاهد إلى جانب نماذج تفكيك المشهد التي تعيد تركيب اللقطات بصريا على شكل طبقات. وفي بعض الحالات، يستعان بتقنيات التعلم المعزز لتقديم نتائج أكثر دقة وسلاسة. غير أن التطور السريع لهذه النماذج التوليدية يطرح تحديات أمنية عميقة تتعلق بالقدرة على التحقق من صحة الفيديوهات. يؤكد طيب هزاز أن تقنيات مثل Veo-3 أو Sora باتت تنتج محتوى يصعب حتى على المحللين المتخصصين تمييزه عن الواقع، ما يضع أنظمة التحقق الرقمي في مواجهة غير متكافئة، من بين الوسائل التقنية التي يتم توظيفها حاليا لكشف التزييف نجد التحليل الطيفي الذي يدرس الترددات داخل الفيديوهات لتحديد البصمات الرقمية الناتجة عن التوليد الاصطناعي، وتحليل البيانات الوصفية الذي يمكن أن يكشف التلاعب إذا لم يتم مسح المعطيات الأصلية كذلك، بدأ الباحثون في تطوير تقنيات تتبع ما يسمى ب"بصمات الذكاء الاصطناعي"، وهي آثار مميزة تتركها بعض النماذج في الصور والفيديوهات، ولكن رغم ذلك لا تزال هذه الأدوات غير دقيقة كليا، وتخوض سباقا دائما مع الأدوات التوليدية المتقدمة التي تتحسن بسرعة. من الناحية التقنية، يشير الخبير إلى أن برنامج Veo-3 لا يتوفر حاليا للاستخدام العام، إذ تحصر Google استعماله ضمن بيئة سحابية مغلقة موجهة للباحثين أو الشركاء، وذلك بسبب متطلبات الحوسبة المرتفعة التي يتطلبها توليد الفيديو والتي تحتاج إلى وحدات معالجة رسومية من الفئة المتقدمة لا تتوفر للمستخدم العادي. كما تسعى الشركة إلى ضبط الاستخدامات لتفادي توظيف هذه التقنية لأغراض مضللة أو غير أخلاقية. وفي ظل غياب تشريعات صلبة تبرز الحاجة الماسة إلى قوانين حديثة تجرم إنتاج أو نشر المحتوى الاصطناعي المضلل مع فرض إلزاميات تقنية مثل وضع علامات مائية واضحة على كل محتوى توليدي. ويقترح هزاز أن يتم تطوير بروتوكولات للتحقق الرقمي من أصل المحتوى مثل التوقيع الرقمي المدمج بالإضافة إلى تضمين رموز مشفرة غير قابلة للمحو داخل ملفات الفيديو تتيح تتبع مصدرها ومراحل تعديلها. ولا يقتصر التحدي على البنية التحتية التقنية أو التشريعية، بل يمتد إلى البعد المجتمعي. يرى هزاز أن التثقيف المجتمعي هو السلاح الأقوى في مواجهة موجة التزييف البصري المقبلة إذ يجب تدريب الصحفيين والمحققين الرقميين والجهات الأمنية على التعامل مع أدوات الكشف المتاحة وتقييم مصداقية المحتوى بناء على مصادره وسياقه الزمني. كما يشدد على ضرورة تطوير نماذج ذكاء اصطناعي مضادة، أي أنظمة مدربة خصيصا على رصد أنماط المحتوى التوليدي وفك شيفراته، مشيرا إلى أن هذا المجال بات في قلب التنافس العالمي بين الدول والشركات العملاقة.ومن جهة أخرى، يدعو إلى إنشاء قواعد بيانات عالمية للمحتوى التوليدي المعروف، وتطوير تعاون دولي يضمن تبادل المعلومات بين الحكومات وشركات التكنولوجيا في إطار قانوني موحد. في ختام حديثه، يؤكد طيب هزاز أن الذكاء الاصطناعي لا يعتبر تهديدا بحد ذاته، بل أداة قوية تحدد خطورتها بمدى وعي مستخدميها وضبط سلوكهم القانوني والأخلاقي. ويقول "الذكاء الاصطناعي، مثل Veo-3، يفتح أفقا فنيا وتقنيا غير مسبوق، لكنه أيضا يحمل معه مسؤولية أخلاقية وأمنية هائلة. الأمان السيبراني لم يعد فقط حماية بيانات بل حماية الحقيقة نفسها." هذا التصريح يختزل حجم التحدي المقبل الذي يتجاوز الحدود التقنية نحو سؤال وجودي حول صدق ما نراه ونسمعه. وتجدر الإشارة إلى أن دراسة نشرتها مجلة Nature Communications سنة 2024 أكدت أن 38 بالمئة من مستخدمي الإنترنت لا يستطيعون التمييز بين فيديو حقيقي وآخر تم توليده بواسطة الذكاء الاصطناعي عند عرضه لأول مرة، وهو ما يوضح حجم الخطورة التي تهدد مصداقية المعلومات البصرية في العصر الرقمي. كما أظهرت الدراسة أن فعالية تقنيات الكشف التلقائي تنخفض كلما زاد تشابه الفيديوهات التوليدية مع المشاهد المأخوذة من الواقع اليومي، ما يعزز من أهمية تطوير أدوات هجينة تجمع بين الذكاء الاصطناعي وخبرة العنصر البشري. في ظل هذا الواقع يبدو أن المستقبل لن يعتمد فقط على ما تنتجه الآلات بل على قدرة المجتمعات على وضع الحدود وحماية القيم الأساسية في عصر ما بعد الحقيقة.