• سه شنبه 18 اردیبهشت 1403
  • الثُّلاثَاء 28 شوال 1445
  • 2024 May 07
چهار شنبه 18 اردیبهشت 1398
کد مطلب : 55211
+
-

دیپ‌فیک؛ ساخت فیلم جعلی مثل آب خوردن!

همه‌چیز درباره فناوری جدید «دیپ‌فیک» که با کمک هوش مصنوعی حالت چهره و صدای مخاطبش را تقلید می‌کند

دیپ‌فیک؛ ساخت فیلم جعلی مثل آب خوردن!


تصور کنید، روزی ویدئویی از رئیس‌جمهور به دست‌تان می‌رسد که در آن شخص شما را مخاطب قرار داده و عید را تبریک می‌گوید. البته که این ویدئو جعلی است اما ساختن آن اصلا ایده دور از دسترس نیست. اخیرا نوع جدیدی از فناوری، مبتنی بر هوش مصنوعی توسعه یافته که در بین بیشتر مردم به نام «دیپ فیک» شناخته می‌شود؛ چیزی شبیه نرم‌افزار فتوشاپ اما در دنیای فیلم. با این فیلم افراد می‌توانند با نصب یک نرم‌افزار حرکات صورت‌شان را روی چهره یک سوژه پیاده کرده و حتی صدای او را درست مثل خودش تقلید کنند، ‌بدون اینکه بیننده حتی یک درصد به جعلی بودن آنچه می‌بیند، شک کند. «دیپ‌فیک» چیست و چطور کار می‌کند؟

دیپ‌فیک به زبان ساده
به گزارش همشهری، دیپ‌فیک با کمک هوش مصنوعی و الگوریتم‌های ویژه‌، حالات و حرکات چهره اشخاص را در حالـت‌ها و وضعیت‌های مختلف پیش‌بینی کرده و آنها را روی مدلی که از قبل دریافت کرده، پیاده می‌کند. مدلی که حالات چهره روی آن پیاده می‌شود، می‌تواند هرکسی باشد، از چهره‌های مشهور سیاسی و ورزشی گرفته تا آدم‌های معمولی کوچه و بازار. برای اینکه حالت چهره و حرکات آنها در زمان ادای کلمات درست باشد، سیستم هوش مصنوعی از داده‌هایی که قبلا دریافت کرده و عموما مربوط به حرکات بازیگران سینماست، کمک می‌گیرد. برای بهتر شدن نتیجه می‌توان فیلم و عکس‌های بیشتری از سوژه به سیستم نشان داد تا نتیجه واقعی‌تر بشود اما به‌طور کلی، با یک عکس هم می‌توان «دیپ‌فیک» کرد.

نرم‌افزار پیچیده اما در دسترس
«دیپ‌فیک» نتیجه حل یک سری معادلات پیچیده توسط هوش مصنوعی‌ است اما به‌دست آوردن آن بسیار ساده‌تر از آن ‌چیزی است که تصور می‌شود. اپ‌های تجاری با نام‌های مشابه Deep Fake می‌توانند حرکات صورت دارنده تلفن همراه را روی سوژه موردنظرشان پیاده کنند. بعضی از این سیستم‌ها که کدنویسی‌هایشان به‌صورت متن‌باز ارائه شده، از حرکات لب گوینده تقلید می‌کنند و آن را به‌طور دقیقی روی سوژه پیاده می‌کنند. برخی به سیستم‌های شبیه‌ساز صدا نیز مجهز هستند و همین باعث می‌شود، تشخیص گوینده واقعی و حرف‌هایش دشوار باشد.

تکاپو برای تشخیص ویدئوی تقلبی
در بسیاری موارد فهمیدن ویدئوی جعلی از واقعی اصلا ساده نیست. اخیرا یکی از کاربران اینترنت صورت باراک اوباما را با استفاده از نرم‌افزار دیپ‌فیک تغییر داد و سخنان خودش را روی چهره رئیس‌جمهور قبلی آمریکا پیاده کرد. خیلی از مخاطبان این کاربر نفهمیدند این برنامه جعلی است. با وجود این، برنامه‌های جدی برای مقابله با این ویژگی جدید فناوری در حال شکل گرفتن است. یکی از مهم‌ترین برنامه‌ها را وزارت دفاع آمریکا برنامه‌ریزی کرده تا بتواند فیلم‌های دستکاری شده را شناسایی کند. نگرانی‌ها از احتمال تأثیر ویدئوهای جعلی در زمان انتخابات2020 ریاست‌جمهوری این کشور است. یکی از کارشناسان وابسته به وزارت دفاع اخیرا گفته: سیستم‌هایی طراحی کرده‌اند که می‌توانند از روی مقایسه حالت‌های فیزیولوژیک و طبیعی بدن با تصاویر ساختگی، ویدئوهای تقلبی را شناسایی کنند. ازجمله این ویژگی‌هایی که برای مقایسه استفاده می‌شود، میزان پلک زدن سوژه‌های ساختگی با «دیپ‌فیک» و نمونه‌های واقعی است. در تصاویر «دیپ‌فیک» معمولا فاصله بین پلک زدن بسیار طولانی‌تر از وضعیت طبیعی است. در کنار پیشرفت فناوری برای مقابله با کلاهبرداری، برخی کشورها نیز از در قانونگذاری برای مقابله برآمده‌اند. «دیلی‌چاینا» اخیرا به نقل از مقامات چین گفته، استفاده از صدا یا میمیک و حالت صورت شخصی به جای دیگری، با استفاده از برنامه‌ها و دستگاه‌های دیجیتال ممنوع است.

مزایا و معایب

عیب‌های بزرگ یک فناوری

باز بودن کدهای این برنامه‌ها هرچند راه خلاقیت را باز می‌کند اما در عین حال می‌تواند خطرناک هم باشد. کارشناسان توسعه نرم‌افزار هشدار می‌دهند، در مواقع حساسی مثل انتخابات می‌توان از این سیستم‌های ماشینی برای تأثیرگذاری بر مخاطب استفاده کرد. به جز این، در مواردی مثل کلاهبرداری نیز می‌توان از همین سیستم‌ها استفاده کرد.

یک برنامه مفید
این برنامه‌ها در عین‌حال موارد مثبتی هم دارند؛ از جمله، دیپ‌فیک در بعضی فیلم‌های سینمایی برای جایگزین کردن چهره بازیگران و شبیه‌سازی حرکات صورت‌شان استفاده می‌شود. به جز این، با منطق و الگوریتمی که این برنامه‌ها براساس آن شکل گرفته‌اند، می‌توان صدای بیمارانی را که قادر به تکلم نیستند شبیه‌سازی کرد و از این تصویر در موارد مختلفی ازجمله فیلم‌ها یا چت‌های تصویری استفاده کرد.
 

این خبر را به اشتراک بگذارید