• دو شنبه 11 مهر 1401
  • الإثْنَيْن 7 ربیع الاول 1444
  • 2022 Oct 03
یکشنبه 29 اردیبهشت 1398
کد مطلب : 56313
+
-

به صداهای آشنا هم نمی‌توان اطمینان کرد

به صداهای آشنا هم نمی‌توان اطمینان کرد

نگرانی‌ها از استفاده از هوش مصنوعی برای ساخت تصاویر ویدئویی جعلی حالا به حوزه صدا هم رسیده است.
یک شرکت فعال در حوزه هوش مصنوعی به نام دسا نرم‌افزاری ساخته که می‌تواند به راحتی صدای افراد را در زمانی کوتاه تقلید کند. این نرم‌افزار به نام Real Talk اکنون بیشتر در تقلید صدای افراد مشهور تمرکز دارد اما به گزارش دیلی‌میل، احتمالا به‌زودی می‌تواند با شنیدن تنها چند ثانیه از یک فایل صوتی یک نسخه جعلی از صدای فرد مثلا برای گفتن جمله‌ای که او هرگز نگفته بسازد. این نرم‌افزار نگرانی‌های بسیاری را به‌خاطر امکان سوءاستفاده از ماجرا ایجاد کرده است. در حوزه تصاویر ویدئویی فناوری مشابهی به نام دیپ فیک وجود دارد. دیپ‌فیک با کمک هوش مصنوعی و الگوریتم‌های ویژه‌، حالات و حرکات چهره اشخاص را در حالـت‌ها و وضعیت‌های مختلف پیش‌بینی کرده و آنها را روی مدلی که از قبل دریافت کرده، پیاده می‌کند. مدلی که حالات چهره روی آن پیاده می‌شود، می‌تواند هرکسی باشد، از چهره‌های مشهور سیاسی و ورزشی گرفته تا آدم‌های معمولی کوچه و بازار. برای اینکه حالت چهره و حرکات آنها در زمان ادای کلمات درست باشد، سیستم هوش مصنوعی از داده‌هایی که قبلا دریافت کرده و عموما مربوط به حرکات بازیگران سینماست، کمک می‌گیرد. برای بهتر شدن نتیجه می‌توان فیلم وعکس‌های بیشتری از سوژه به سیستم نشان داد تا نتیجه واقعی‌تر بشود.
 

این خبر را به اشتراک بگذارید