اشترك مجانا بقناة الديار على يوتيوب

لفت رواد تطبيق "تيكتوك" مؤخراً فيديو لصوت فيروز وهي تؤدي أغنية للفنانة اللبنانية اليسا "سلملي عليه"، ولم يقتصر الأمر على الأيقونة فيروز فقط بحيث أنه يشهد "تيكتوك" مؤخراً نهراً كبيراً من الفيديوهات المماثلة، قد قام عدد من المستخدمين بتركيبهم بإستخدام إحدى تقنيات الذكاء الإصطناعي تدعى "التزييف العميق أو الـDeep fake.

ليدخل العالم في ثورة جديدة، ثورة العالم الرقمي والإفتراضي، الذي يجهل حتى اليوم مدى مخاطره وقواعده وحدود استعماله.


@mounir.kasem فيروز تغني سلملي عليه لاليسا باستخدام الذكاء الاصطناعي ❤️ هذا المحتوى علمي فقط وليس ربحي، جميع الحقوق محفوظة للفنانين الأصليين. #فيروز #فيروزيات #ذكاء_اصطناعي #اكسبلوررررر #فيروز_وفنجان_قهوة #اليسا #اليسا_ملكة_الاحساس #اليسا #مشاهدات ♬ original sound - Mounir Kasem


ما هي تقنية التزييف العميق؟

وفي حديث خاص لـ "الديار" مع الخبير في التحول الرقمي وأمن المعلومات رولان أبي نجم، قال إن "تقنية التزييف العميق أو الـ deep fake هي أحدى تطبيقات الذكاء الاصطناعي التي تستخدم في توليد أصوات وصور وفيديوهات تبدو كأنها تم إنشاؤها بواسطة أفراد حقيقيين.

وأشار إلى أن "هناك تقنيات تزييف الصوت المستخدمة عبر تطبيق Microsoft. وتأخد هذه التقنية 3 ثواني فقط لتأخذ بصمة صوت أي شخص وتزييفه".

وأضاف "هناك اشخاص افتراضيون صنعهم الذكاء الأصطناعي أيضا ليس لهم وجود في الحياة الحقيقية، لهم دور عملي وتقني ومهني في عدد من الشركات والمؤسسات.

وأكد أبي نجم بأن "تقنية التزييف الحقيقي تتقن جميع اللغات بطريقة جيدة ولا تختلف جودتها بين لغة ولغة أخرى، بحيث أن على سبيل المثال، يملك chat gpt معلومات باللغة العربية تختلف عن اللغات الأخرى، بينما تقنية الـ deep fake ترتكز على بصمة الصوت ونبرة الشخص ليتم إدخال نص معين من قبل الإنسان ليقرأه الذكاء الإصطناعي بالصوت المطلوب فوراً.

"أظهرت دراسة لجامعة "كوليدج لندن" البريطانية أن أكثر من ربع الأصوات المقلدة باستخدام ما يعرف بـ "التزييف العميق" نجحت في خداع حتى أشد المستمعين حدة وتركيزا.

ووفق الباحثين في الجامعة، فإن أكثر من 500 شخص تم تدريبهم على تمييز الأصوات الحقيقية من المقلدة استطاعوا اكتشاف 73% فقط من الأصوات المقلدة أثناء الدراسة".


"خطر كبير يطال المجتمع"

وتابع أبي نجم "يقول إيلون ماسك إن الذكاء الإصطناعي أخطر بكثير من الأسلحة النووية، وذلك لأن الاسلحة النووية تمتلكها حكومات وسلطات كبرى، بينما الذكاء الإصطناعي في يومنا هذا هو بمتناول أيدي الجميع.

وأكد أبي نجم أن "هذا الأمر يشكل خطراً كبيرا يطال كافة الاصعدة، ففي السابق كان التأكيد على شيء معين هو حين يراه ويسمعه الإنسان بالصوت والصورة، بينما في يومنا هذا اصبح الاثنان في محط دائرة الشكّ.

وأردف "أصبحت الحقوق الملكة الفكرية شبه معدومة، فهناك تقنيات تسمح بأخد صوت أي مطرب في العالم لغناء أي اغنية أخرى من دون أخد الإذن من المطرب الأصلي، فحتى على صعيد الفوتوغرافي أصبح بإمكاننا أخد أي صورة لأي ممثل عالمي وتركيبها داخل مشهد سينمائي معين، من دون علم الممثل بهذا الأمر ايضاً".

"القوانين غير مرغوبة ولا ضوابط"

ولفت إلى أن "لهذا أصبح الذكاء الاصطناعي من دون ضوابط أو حواجز أمام المستخدمين في إستخدام تقنياته لعدة أسباب أبرزها: أولاً، القوانين التي تختص في هذا المجال في كل دول العالم تعتبر رجعية، ولأن الذكاء الأصطناعي يتطور بسرعة كبيرة ليس هناك الوعي الكامل لتحديد ما هو الذكاء الاصطناعي وما هي مهامه".

وأضاف "ثانياً، حتى لو تم تشريع قوانين تختص بالذكاء الاصطناعي فهناك إشكالية أكبر أمام هذا الموضوع وهي كيفية تطبيق القوانين وتحت أي عرف وعلى أي مسار ووفق اي شروط، على سبيل المثال، اذا قام أحد الأشخص من كوريا الشمالية بتركيب فيديو بتقنية الـdeep fake لشخصية سياسية عربية، فكيف سيمكن للأخير تقديم شكوى وفي أي بلد وتحت أي اسم، وهل ستأخذ الجرائم المعلوماتية الشكوى بعين الإعتبار؟ فمشكل الذكاء الإصطناعي بأنه غير مرتبط ببلد معين أو دولة معينة بل هو شيء عالمي وليس له حدود معينة".

وأكد ابي نجم على هذا الامر، "حين بدأ الإتحاد الأوروبي بنص تشريعات مختصة وضوابط لشركات تعنى بالذكاء الأصطناعي،هددت الشركات بإقفال أبوابها في الدول الاوروبية والإنتقال الى دولة اخرى غير معنية بقوانين الإتحاد الأوروبي".

"تهديد أمني وإجتماعي خطير"

أما على الصعيد السيبراني، فلفت ابي نجم إلى أن "وضع أحد البنوك في الكويت كلمة سر صوتية لدخول الموظفين إلى المبنى، فاليوم وبعد اختراع تقنية تزوير الصوت اصبحت هذه التقنية غير فعالة وتشكل خطرا امنيا جسيماً للبنك".

وأشار إلى أن "لأول مرة في العالم، طلب مجلس الامن الدولي لانعقاد اجتماع لمناقشة ابعاد ومخاطر الذكاء الصطناعي على الصعيد الأمني. فكن اول جزء تحت عنوان خطر إنخراط الذكاء الأصطناعي في مجال الاسلحة، وشرح الشق الآخر من الإجتماع مخاطر تقنيات التزييف عبر الذكاء الاصطناعي، خاصة مع اقتراب الإنتخابات الاميركية الرئاسية، وحماية الحملات السياسية والإعلامية من استخدام هذه التقنيات لتزييف مقاطع لشخصيات سياسية معينة تخدم بنشر الأخبار الكاذبة والتضليل الجماهيري".

وقال إن "هذا الأمر لا يشكل خطراُ على صعيد السياسي والأمني فقط بل على الصعيد الإجتماعي ايضاً، فمنذ فترة القت الشرطة القبض على شخص في مدريد أقدم على تزييف مقاطع من الفيديوهات جنسية لأطفال ومراهقين عبر تقنيات التزييف العميق، لابتزاز أهاليهم وعائلاتهم فيها مقابل مبلغ مادي. واذا رفض المعنيون بدفع المبالغ المطلوبة يقوم بنشرهم على مواقع اباحية، الأمر الذي يشكل ازمة نفسية على الأولاد والأهالي".

وشدد أبي نجم أن "هذا الشيء يعتبر خطير جداً على صعيد استخدام الأطفال مواقع التواصل الإجتماعي ولا يقتصر هذا الأمر عليهم فقط، بل أصبحت كل شركات ومؤسسات ومطارات العالم تمتلك كاميرات للمراقبة تعمل على تقنيات الذكاء الأصطناعي، التي تحفط بدورها جميع المعلومات البيومترية لدينا إضافة إلى صورنا وفيديوهاتنا بغض النظر عن تواجدنا واستخدامنا مواقع التواصل الإجتماعي".

واعتبر أن "هذا الموضوع سيشكل ازمة كبيرة خاصة عند اولادنا فبرغمنا على حجبهم عن مواقع التواصل إلا ان مع دخولهم اي مطار دولي ستخزن بياناتنا وبياناتهم البيومترية فوراً.


هل يمكننا رصد إستعمالاته؟

وعما إذا كان هناك تقنيات واكتشافات ترصدإستعمال تقنيات الـ deep fake فأكد ابي نجم أن "الإشكالية في هؤلاء التقنيات أن الذكاء الاصطناعي الوحيد من يستطيع فضح نفسه، إلا أن هذه التقنيات ليست بمتناول أيدي الجميع، خاصةَ بظل التطور السريع لبرامج الذكاء الاصطناعي لتصبح مواكبته للتحكم به وفك الغازه امراً صعباً في الوقت الحاضر".

الأكثر قراءة

مقايضة اوروبية للبنان في ملف النزوح: مليار يورو مقابل دور «الشرطي»؟ بلينكن يتأكد ان حرب غزة مرتبطة بحرب الشمال: اما صفقة مع حماس او حرب شاملة عصابة «التيك توك» جريمة منظمة… المتورطون 30 والضحايا عشرات القاصرين!