نبّه الممثل الأميركي توم هانكس والمذيعة التلفزيونية غايل كينغ معجبيهما إلى تداول إعلانين ترويجيين يستخدمان شكليهما وصوتيهما بفضل تقنيات الذكاء الاصطناعي من دون استئذانهما.
وعرض هانكس على شبكة "إنستغرام" لقطة شاشة لمقطع الفيديو السبت، وكتب: "حذارِ! ثمة مقطع فيديو مُتداوَل للترويج لتأمين على الأسنان، باستخدام نسخة ذكاء اصطناعي مني. لا علاقة لي بالأمر".
بدورها نشرت غايل كينغ التي تُشارك في تقديم البرنامج الصباحي على قناة "سي بي إس" الأميركية، تحذيرًا مماثلًا على إنستغرام الإثنين.
وكتبت في تعليق على مقطع فيديو تبدو فيه وكأنها تروّج لمنتج لإنقاص الوزن: "لا يتوقف الناس عن إرسال هذا الفيديو لي ويطرحون علي أسئلة عن هذا المنتج، رغم أن لا علاقة لي إطلاقًا بهذه الشركة".
كما نشرت كينغ مقطع الفيديو الأصلي الذي استند إليه المحتالون، وكانت تروّج فيه لبرنامج إذاعي في 31 أغسطس/ آب الماضي.
وأضافت: "لقد تلاعبوا بصوتي والفيديو ليجعلوا الأمر يبدو وكأنني أروّج لهذا المنتج، لم أسمع قط عن هذا المنتج ولم أستخدمه يومًا!"، وختمت: "لا تقعوا في فخّ مقاطع الفيديو القائمة على الذكاء الاصطناعي".
وتولى مستخدم يحمل اسم "أرتبيت" (Artipet) نشر مقطع الفيديو الذي أشارت إليه غايل، لكنّ عمليات بحث على "إنستغرام" و"غوغل" لا تسفر عن أي نتائج تُشير إلى منتجات الحمية هذه.
ويتيح الذكاء الاصطناعي اللجوء إلى "التزييف العميق" أي التلاعب بصور وأصوات، لجعل أصحابها يقولون أو يفعلون أشياء لم تحدث في الواقع.
ولم تكن هذه التزييفات العميقة في بداياتها مُقنعة، ولكنها أصبحت تتسمّ بواقعية شديدة مع ظهور الذكاء الاصطناعي التوليدي الذي يُتيح إنتاج المحتويات بكل أنواعها ومنها الفيديو، بناءً على طلب بسيط.
وحذّر الخبير والمستشار في الذكاء الاصطناعي رامي شاهين في حديث سابق إلى "العربي" من عمّان، أنّ التزييف العميق يتمّ عبر ثلاثة أنواع من الخوارزميات التي تعمل مجتمعة لتكوين صورة وصوت للشخص الأصلي، وبالتالي نشر فيديوهات مزيفة.