دیپفیک؛ ساخت فیلم جعلی مثل آب خوردن!
همهچیز درباره فناوری جدید «دیپفیک» که با کمک هوش مصنوعی حالت چهره و صدای مخاطبش را تقلید میکند
تصور کنید، روزی ویدئویی از رئیسجمهور به دستتان میرسد که در آن شخص شما را مخاطب قرار داده و عید را تبریک میگوید. البته که این ویدئو جعلی است اما ساختن آن اصلا ایده دور از دسترس نیست. اخیرا نوع جدیدی از فناوری، مبتنی بر هوش مصنوعی توسعه یافته که در بین بیشتر مردم به نام «دیپ فیک» شناخته میشود؛ چیزی شبیه نرمافزار فتوشاپ اما در دنیای فیلم. با این فیلم افراد میتوانند با نصب یک نرمافزار حرکات صورتشان را روی چهره یک سوژه پیاده کرده و حتی صدای او را درست مثل خودش تقلید کنند، بدون اینکه بیننده حتی یک درصد به جعلی بودن آنچه میبیند، شک کند. «دیپفیک» چیست و چطور کار میکند؟
دیپفیک به زبان ساده
به گزارش همشهری، دیپفیک با کمک هوش مصنوعی و الگوریتمهای ویژه، حالات و حرکات چهره اشخاص را در حالـتها و وضعیتهای مختلف پیشبینی کرده و آنها را روی مدلی که از قبل دریافت کرده، پیاده میکند. مدلی که حالات چهره روی آن پیاده میشود، میتواند هرکسی باشد، از چهرههای مشهور سیاسی و ورزشی گرفته تا آدمهای معمولی کوچه و بازار. برای اینکه حالت چهره و حرکات آنها در زمان ادای کلمات درست باشد، سیستم هوش مصنوعی از دادههایی که قبلا دریافت کرده و عموما مربوط به حرکات بازیگران سینماست، کمک میگیرد. برای بهتر شدن نتیجه میتوان فیلم و عکسهای بیشتری از سوژه به سیستم نشان داد تا نتیجه واقعیتر بشود اما بهطور کلی، با یک عکس هم میتوان «دیپفیک» کرد.
نرمافزار پیچیده اما در دسترس
«دیپفیک» نتیجه حل یک سری معادلات پیچیده توسط هوش مصنوعی است اما بهدست آوردن آن بسیار سادهتر از آن چیزی است که تصور میشود. اپهای تجاری با نامهای مشابه Deep Fake میتوانند حرکات صورت دارنده تلفن همراه را روی سوژه موردنظرشان پیاده کنند. بعضی از این سیستمها که کدنویسیهایشان بهصورت متنباز ارائه شده، از حرکات لب گوینده تقلید میکنند و آن را بهطور دقیقی روی سوژه پیاده میکنند. برخی به سیستمهای شبیهساز صدا نیز مجهز هستند و همین باعث میشود، تشخیص گوینده واقعی و حرفهایش دشوار باشد.
تکاپو برای تشخیص ویدئوی تقلبی
در بسیاری موارد فهمیدن ویدئوی جعلی از واقعی اصلا ساده نیست. اخیرا یکی از کاربران اینترنت صورت باراک اوباما را با استفاده از نرمافزار دیپفیک تغییر داد و سخنان خودش را روی چهره رئیسجمهور قبلی آمریکا پیاده کرد. خیلی از مخاطبان این کاربر نفهمیدند این برنامه جعلی است. با وجود این، برنامههای جدی برای مقابله با این ویژگی جدید فناوری در حال شکل گرفتن است. یکی از مهمترین برنامهها را وزارت دفاع آمریکا برنامهریزی کرده تا بتواند فیلمهای دستکاری شده را شناسایی کند. نگرانیها از احتمال تأثیر ویدئوهای جعلی در زمان انتخابات2020 ریاستجمهوری این کشور است. یکی از کارشناسان وابسته به وزارت دفاع اخیرا گفته: سیستمهایی طراحی کردهاند که میتوانند از روی مقایسه حالتهای فیزیولوژیک و طبیعی بدن با تصاویر ساختگی، ویدئوهای تقلبی را شناسایی کنند. ازجمله این ویژگیهایی که برای مقایسه استفاده میشود، میزان پلک زدن سوژههای ساختگی با «دیپفیک» و نمونههای واقعی است. در تصاویر «دیپفیک» معمولا فاصله بین پلک زدن بسیار طولانیتر از وضعیت طبیعی است. در کنار پیشرفت فناوری برای مقابله با کلاهبرداری، برخی کشورها نیز از در قانونگذاری برای مقابله برآمدهاند. «دیلیچاینا» اخیرا به نقل از مقامات چین گفته، استفاده از صدا یا میمیک و حالت صورت شخصی به جای دیگری، با استفاده از برنامهها و دستگاههای دیجیتال ممنوع است.
مزایا و معایب
عیبهای بزرگ یک فناوری
باز بودن کدهای این برنامهها هرچند راه خلاقیت را باز میکند اما در عین حال میتواند خطرناک هم باشد. کارشناسان توسعه نرمافزار هشدار میدهند، در مواقع حساسی مثل انتخابات میتوان از این سیستمهای ماشینی برای تأثیرگذاری بر مخاطب استفاده کرد. به جز این، در مواردی مثل کلاهبرداری نیز میتوان از همین سیستمها استفاده کرد.
یک برنامه مفید
این برنامهها در عینحال موارد مثبتی هم دارند؛ از جمله، دیپفیک در بعضی فیلمهای سینمایی برای جایگزین کردن چهره بازیگران و شبیهسازی حرکات صورتشان استفاده میشود. به جز این، با منطق و الگوریتمی که این برنامهها براساس آن شکل گرفتهاند، میتوان صدای بیمارانی را که قادر به تکلم نیستند شبیهسازی کرد و از این تصویر در موارد مختلفی ازجمله فیلمها یا چتهای تصویری استفاده کرد.