هوش مصنوعی Deep fake، جذاب، کاربردی و البته ترسناک

تصویر کیمیا تقدیری

کیمیا تقدیری

هوش مصنوعی عمیق چیست؟

 

هوش مصنوعی Deep fake نوعی هوش مصنوعی است که برای ایجاد تصاویر متقاعد کننده، فریب های صوتی و تصویری استفاده می شود. این اصطلاح هم فناوری و هم محتوای جعلی ناشی از آن را توصیف می‌کند و یک نمونه از یادگیری عمیق و جعلی است.

 

دیپ‌ فیک‌ها اغلب محتوای منبع موجود را تغییر می‌دهند، جایی که یک نفر با دیگری مبادله می شود.آنها همچنین محتوای کاملاً اصلی را ایجاد می کنند که در آن شخصی در حال انجام  کاری یا گفتن چیزی است که انجام نداده یا هرگز نگفته.

بزرگترین خطری که دیپ فیک ایجاد می کند، توانایی آنها در انتشار اطلاعات نادرست است که به نظر می رسد از منابع قابل اعتماد آمده است. به عنوان مثال، در سال 2022 یک ویدیوی دیپ فیک از ولدیمیر زلنسکی، رئیس جمهور اوکراین منتشر شد که از سربازانش می خواهد تسلیم شوند.

همچنین نگرانی هایی در مورد احتمال دخالت در انتخابات و تبلیغات انتخاباتی مطرح شده است. در حالی که دیپ فیک ها تهدیدهای جدی هستند، کاربردهای قانونی نیز دارند، مانند صدا و سرگرمی بازی های ویدیویی، و برنامه های کاربردی پشتیبانی مشتری و پاسخ به تماس گیرندگان، مانند خدمات ارسال تماس و پذیرش.

دیپ فیک چگونه کار می کند؟

Deep fakes از دو الگوریتم – یک مولد و یک تمایز – برای ایجاد و اصلاح محتوای جعلی استفاده می کند. مولد یک مجموعه داده آموزشی را بر اساس خروجی مورد نظر ایجاد می کند و محتوای دیجیتال جعلی اولیه را ایجاد می کند، در حالی که تمایزکننده تجزیه و تحلیل می کند که نسخه اولیه محتوا چقدر واقعی یا جعلی است. این فرآیند تکرار می‌شود و به تولیدکننده اجازه می‌دهد در ایجاد محتوای واقع‌بینانه بهبود یابد و متمایزکننده در تشخیص نقص‌ها برای اصلاح ژنراتور ماهرتر شود.

ترکیبی از الگوریتم‌های مولد و تفکیک‌کننده، یک شبکه متخاصم مولد ایجاد می‌کند. یک  GAN ((Generative Adversarial Networks)شبکه‌های متخاصم مولد، یا به اختصار GAN، رویکردی برای مدل‌سازی مولد با استفاده از روش‌های یادگیری عمیق، مانند شبکه‌های عصبی کانولوشنال است.)از یادگیری عمیق برای تشخیص الگوها در تصاویر واقعی استفاده می کند و سپس از آن الگوها برای ایجاد جعلی استفاده می کند.

هنگام ایجاد یک عکس عمیق، یک سیستم GAN عکس‌های هدف را از زوایای مختلفی مشاهده می‌کند تا تمام جزئیات و چشم اندازها را ثبت کند. هنگام ایجاد یک ویدیوی دیپ فیک، GAN ویدیو را از زوایای مختلف مشاهده می کند و همچنین رفتار، حرکت و الگوهای گفتار را تجزیه و تحلیل می کند. سپس این اطلاعات چندین بار از طریق تشخیص دهنده اجرا می شود تا واقع گرایی تصویر یا ویدیوی نهایی را تنظیم کند.

ویدیوهای Deep fake به یکی از دو روش ایجاد می شوند. آنها می توانند از یک منبع ویدیویی اصلی از هدف استفاده کنند، جایی که فرد مجبور می شود کارهایی را که هرگز انجام نداده است بگوید و انجام دهد. یا می‌توانند چهره فرد را با ویدیوی فرد دیگری که به عنوان تعویض چهره نیز شناخته می‌شود، عوض کنند.

تاریخچه فناوری هوش مصنوعی عمیق:

هوش مصنوعی Deep fake یک فناوری نسبتا جدید است که منشاء آن دستکاری عکس ها از طریق برنامه هایی مانند Adobe Photoshop است. در اواسط دهه 2010، قدرت محاسباتی ارزان، مجموعه داده‌های بزرگ، هوش مصنوعی و فناوری یادگیری ماشین، همگی برای بهبود پیچیدگی الگوریتم‌های یادگیری عمیق ترکیب شدند.

 

در سال 2014، GAN، فناوری در قلب دیپ فیک ها، توسط محقق دانشگاه مونترال، یان گودفلو، توسعه یافت. در سال 2017، یک کاربر ناشناس Reddit به نام “deep fakes” شروع به انتشار ویدیوهای دیپ فیک از افراد مشهور و همچنین یک ابزار GAN کرد که به کاربران اجازه می داد چهره ها را در ویدیوها عوض کنند. این موارد در اینترنت و شبکه های اجتماعی منتشر شد.

محبوبیت ناگهانی محتوای دیپ‌فیک، شرکت‌های فناوری مانند فیس‌بوک، گوگل و مایکروسافت را بر آن داشت تا روی توسعه ابزارهایی برای شناسایی دیپ‌فیک سرمایه‌گذاری کنند. علی‌رغم تلاش‌های شرکت‌های فناوری و دولت‌ها برای مبارزه با دیپ‌فیک و مقابله با چالش تشخیص دیپ‌فیک، این فناوری همچنان به پیشرفت خود ادامه می‌دهد و تصاویر و ویدیوهای دیپ‌فیک متقاعدکننده‌ای را تولید می‌کند.

هوش مصنوعی Deep fake یک تهدید فزاینده برای شرکت است. بیاموزید که چرا رهبران امنیت سایبری باید برای حملات فیشینگ عمیق در شرکت آماده شوند

 

در ادامه چند رویکرد خاص برای ایجاد دیپ فیک وجود دارد:

منبع دیپ فیک ویدیو: هنگام کار از یک ویدیوی منبع، یک رمزگذار خودکار عمیق مبتنی بر شبکه عصبی، محتوا را برای درک ویژگی‌های مرتبط هدف، مانند حالات چهره و زبان بدن، تجزیه و تحلیل می‌کند. سپس این ویژگی ها را به ویدیوی اصلی تحمیل می کند. این رمزگذار خودکار شامل یک رمزگذار است که ویژگی های مربوطه را رمزگذاری می کند. و یک رمزگشا، که این ویژگی ها را به ویدیوی مورد نظر تحمیل می کند.

دیپ فیک های صوتی برای دیپ‌فیک‌های صوتی: یک GAN  صدای یک فرد را شبیه‌سازی می‌کند، مدلی را بر اساس الگوهای صوتی ایجاد می‌کند و از آن مدل استفاده می‌کند تا صدا را هر چیزی که سازنده می‌خواهد بگوید. این تکنیک معمولا توسط توسعه دهندگان بازی های ویدیویی استفاده می شود.

همگام سازی لب: همگام سازی لب یکی دیگر از روش های رایج مورد استفاده در دیپ فیک است. در اینجا، دیپ فیک صدای ضبط شده را به ویدیو نگاشت می کند و به نظر می رسد که شخص در ویدیو در حال صحبت کردن کلمات ضبط شده است. اگر صدا به خودی خود یک دیپ فیک باشد، پس ویدیو لایه دیگری از فریب را اضافه می کند. این تکنیک توسط شبکه های عصبی مکرر پشتیبانی می شود.

فناوری مورد نیاز برای توسعه دیپ فیک :

با توسعه و پیشرفت فناوری‌های زیر، توسعه دیپ‌فیک آسان‌تر، دقیق‌تر و رایج‌تر می‌شود:

 

فناوری شبکه عصبی GAN در توسعه تمام محتوای دیپ فیک با استفاده از الگوریتم های مولد و تمایز استفاده می شود.

شبکه های عصبی کانولوشنال الگوها را در داده های بصری تجزیه و تحلیل می کنند. CNN ها برای تشخیص چهره و ردیابی حرکت استفاده می شوند.

رمزگذار خودکار یک فناوری شبکه عصبی است که ویژگی‌های مربوط به یک هدف مانند حالات صورت و حرکات بدن را شناسایی می‌کند و سپس این ویژگی‌ها را به ویدیوی منبع تحمیل می‌کند.

پردازش زبان طبیعی برای ایجاد صدای دیپ فیک استفاده می شود. الگوریتم‌های NLP ویژگی‌های گفتار هدف را تجزیه و تحلیل می‌کنند و سپس متن اصلی را با استفاده از آن ویژگی‌ها تولید می‌کنند.

محاسبات با کارایی بالا نوعی از محاسبات است که توان محاسباتی لازم قابل توجه مورد نیاز دیپ فیک را فراهم می کند.

 

بر اساس گزارش وزارت امنیت داخلی ایالات متحده “تهدید فزاینده هویت های عمیق”، چندین ابزار معمولاً برای تولید دیپ فیک در عرض چند ثانیه استفاده می شوند. این ابزارها عبارتند از Deep Art Effects، Deepswap، Deep Video Portraits، FaceApp، Face Magic، MyHeritage، Wav2Lip، Wombo و Zao.

 

دیپ فیک معمولا چگونه استفاده می شود؟

استفاده از دیپ فیک به طور قابل توجهی متفاوت است. کاربردهای اصلی شامل موارد زیر است:

هنر: دیپ فیک برای تولید موسیقی جدید با استفاده از بدنه های موجود آثار یک هنرمند استفاده می شود.

باج گیری و آسیب به شهرت: نمونه هایی از این موارد زمانی است که یک تصویر هدف در موقعیتی غیرقانونی، نامناسب یا به گونه ای دیگر مانند دروغ گفتن به عموم، درگیر شدن در اعمال جنسی آشکار یا مصرف مواد مخدر قرار می گیرد. این ویدئوها برای اخاذی از یک قربانی، خراب کردن شهرت یک فرد، انتقام گرفتن یا صرفاً زورگویی سایبری به آنها استفاده می شود.

خدمات پاسخگویی به تماس گیرندگان: این سرویس‌ها از دیپ فیک برای ارائه پاسخ‌های شخصی به درخواست‌های تماس‌گیرنده استفاده می‌کنند که شامل ارسال تماس و سایر خدمات پذیرش می‌شود.

پشتیبانی تلفنی مشتری: این سرویس ها از صداهای جعلی برای کارهای ساده ای مانند بررسی موجودی حساب یا ثبت شکایت استفاده می کنند.

سرگرمی: فیلم‌های هالیوودی و بازی‌های ویدیویی صدای بازیگران را برای صحنه‌های خاصی شبیه‌سازی و دستکاری می‌کنند. رسانه‌های سرگرمی از این ویژگی زمانی استفاده می‌کنند که صحنه‌ای به سختی فیلم‌برداری می‌شود، در پس‌تولید زمانی که یک بازیگر دیگر برای ضبط صدای خود در صحنه نیست، یا برای صرفه‌جویی در وقت بازیگر و تیم سازنده. دیپ فیک همچنین برای محتوای طنز و تقلید استفاده می شود که در آن مخاطب متوجه می شود ویدیو واقعی نیست اما از موقعیت طنز آمیزی که دیپ فیک ایجاد می کند لذت می برد. به عنوان مثال می توان به دیپ فیک سال 2023 دواین «راک» جانسون در نقش دورا کاوشگر اشاره کرد.

شواهد نادرست  :این شامل ساختن تصاویر یا صداهای نادرست است که می تواند به عنوان مدرکی دال بر گناه یا بی گناهی در یک پرونده قانونی استفاده شود.

تقلب: دیپ فیک برای جعل هویت یک فرد برای به دست آوردن اطلاعات شناسایی شخصی (PII) مانند شماره حساب بانکی و کارت اعتباری استفاده می شود. این ممکن است گاهی اوقات شامل جعل هویت مدیران شرکت ها یا سایر کارمندان با اعتبار برای دسترسی به اطلاعات حساس باشد که یک تهدید بزرگ امنیت سایبری است.

اطلاعات غلط و دستکاری سیاسی: ویدئوهای دیپ فیک سیاستمداران یا منابع مورد اعتماد برای تحت تاثیر قرار دادن افکار عمومی استفاده می شود و در مورد دیپ فیک رئیس جمهور اوکراین ولودومیر زلنسکی، سردرگمی در جنگ ایجاد می کند. گاهی اوقات از آن به عنوان انتشار اخبار جعلی یاد می شود.

دستکاری سهام  :مواد جعلی عمیق برای تأثیرگذاری بر قیمت سهام شرکت استفاده می شود. به عنوان مثال، یک ویدیوی جعلی از یک مدیر اجرایی که اظهارات مخربی درباره شرکت خود می کند، می تواند قیمت سهام آن را کاهش دهد. یک ویدیوی جعلی درباره یک پیشرفت تکنولوژیکی یا عرضه محصول می تواند سهام یک شرکت را افزایش دهد.

پیامک:در گزارش وزارت امنیت داخلی ایالات متحده با عنوان “تهدید فزاینده هویت های عمیق جعلی” از پیام های متنی به عنوان استفاده آینده از فناوری دیپ فیک یاد شده است. بر اساس این گزارش، بازیگران تهدید می‌توانند از تکنیک‌های دیپ‌فیک برای تکرار سبک پیام‌رسانی کاربر استفاده کنند.

آیا دیپ فیک قانونی است؟

دیپ فیک ها عموما قانونی هستند و علیرغم تهدیدهای جدی که ایجاد می کنند، مجریان قانون نمی توانند در مورد آنها انجام دهند. دیپ فیک تنها در صورتی غیرقانونی است که قوانین موجود مانند پورنوگرافی کودکان، افترا یا سخنان مشوق نفرت را نقض کند.

سه ایالت قوانینی در مورد دیپ فیک دارند. به گفته مجله رئیس پلیس، تگزاس دیپ‌فیک‌هایی را که هدفشان تاثیرگذاری بر انتخابات است، ممنوع می‌کند، ویرجینیا انتشار هرزه‌نگاری دیپ‌فیک را ممنوع می‌کند، و کالیفرنیا قوانینی علیه استفاده از دیپ‌فیک‌های سیاسی ظرف 60 روز پس از انتخابات و هرزه‌نگاری عمیق غیراجماعی دارد.

فقدان قوانین علیه دیپ فیک به این دلیل است که اکثر مردم از فناوری جدید، کاربردها و خطرات آن بی اطلاع هستند. به همین دلیل، قربانیان در اکثر موارد دیپ فیک تحت حمایت قانون قرار نمی گیرند.

 

 دیپ فیک چگونه خطرناک است؟

دیپ فیک ها علیرغم قانونی بودن، خطرات قابل توجهی دارند، از جمله موارد زیر:

  • باج خواهی و آسیب به شهرت که اهداف را در موقعیت های قانونی به خطر انداخته است.
  • اطلاعات نادرست سیاسی مانند عوامل تهدید کننده دولت‌های ملت که از آن برای اهداف پلید استفاده می‌کنند.
  • تداخل در انتخابات، مانند ایجاد ویدئوهای جعلی از نامزدها.
  • دستکاری سهام در جایی که محتوای جعلی برای تأثیرگذاری بر قیمت سهام ایجاد می شود.
  • کلاهبرداری که در آن فردی جعل هویت می شود تا حساب مالی و سایر PII را سرقت کند.

روش های تشخیص دیپ فیک:

چندین روش برتر برای شناسایی حملات دیپ فیک وجود دارد. موارد زیر نشانه‌هایی از محتوای دیپ‌فیک احتمالی هستند:

  • وضعیت غیرمعمول یا نامناسب صورت.
  • حرکت غیر طبیعی صورت یا بدن.
  • رنگ آمیزی غیر طبیعی
  • ویدیوهایی که با بزرگنمایی یا بزرگنمایی عجیب به نظر می رسند.
  • صدای ناسازگار
  • افرادی که پلک نمی زنند

 

در دیپ فیک متنی، چند شاخص وجود دارد:

  • غلط املایی
  • جملاتی که به طور طبیعی جریان ندارند.
  • آدرس ایمیل منبع مشکوک
  • عبارتی که با فرستنده فرضی مطابقت ندارد.
  • پیام‌های خارج از متن که به هیچ بحث، رویداد یا موضوعی مرتبط نیستند

با این حال، هوش مصنوعی به طور پیوسته بر برخی از این شاخص ها غلبه می کند، مانند ابزارهایی که از چشمک زدن طبیعی پشتیبانی می کنند.

 

نحوه دفاع در برابر دیپ فیک:

شرکت‌ها، سازمان‌ها و سازمان‌های دولتی، مانند آژانس پروژه‌های تحقیقاتی پیشرفته دفاعی وزارت دفاع ایالات متحده، در حال توسعه فناوری برای شناسایی و مسدود کردن دیپ‌فیک هستند. برخی از شرکت‌های رسانه‌های اجتماعی از فناوری بلاک چین برای تأیید منبع ویدیوها و تصاویر قبل از ورود آنها به پلتفرم‌هایشان استفاده می‌کنند. به این ترتیب، منابع قابل اعتماد ایجاد می شود و از جعلی ها جلوگیری می شود. در همین راستا، فیس بوک و توییتر هر دو دیپ فیک های مخرب را ممنوع کرده اند.

 

 

 

 

نرم افزار حفاظت Deep fake از شرکت های زیر موجود است:

 

Adobe سیستمی دارد که به سازندگان اجازه می‌دهد امضایی را به ویدیوها و عکس‌ها با جزئیات مربوط به ساخت آنها اضافه کنند.

مایکروسافت دارای نرم‌افزار تشخیص عمیق جعلی مبتنی بر هوش مصنوعی است که فیلم‌ها و عکس‌ها را تجزیه و تحلیل می‌کند تا یک امتیاز اطمینان ارائه کند که نشان می‌دهد آیا رسانه دستکاری شده است یا خیر.

عملیات Minerva از کاتالوگ‌های دیپ‌فیک‌هایی که قبلاً کشف شده‌اند استفاده می‌کند تا تشخیص دهد که آیا یک ویدیوی جدید صرفاً اصلاح یک جعلی موجود است که کشف شده و اثر انگشت دیجیتالی به آن داده شده است.

Sensity یک پلت فرم تشخیص ارائه می دهد که از یادگیری عمیق برای شناسایی نشانه های رسانه های دیپ فیک استفاده می کند، به همان روشی که ابزارهای ضد بدافزار به دنبال امضاهای ویروس و بدافزار هستند. هنگامی که کاربران یک دیپ فیک را مشاهده می کنند، از طریق ایمیل هشدار داده می شود.

 

نمونه های قابل توجه دیپ فیک:

چندین نمونه قابل توجه از دیپ فیک وجود دارد، از جمله موارد زیر:

 

مارک زاکربرگ، بنیانگذار فیس بوک، قربانی یک دیپ فیک شد که نشان می داد فیس بوک چگونه کاربران خود را “مالک” می کند. این ویدئو برای نشان دادن اینکه چگونه مردم می توانند از پلتفرم های رسانه های اجتماعی مانند فیس بوک برای فریب مردم استفاده کنند طراحی شده است.

جو بایدن، رئیس‌جمهور ایالات متحده در سال ۲۰۲۰ قربانی دیپ‌فیک‌های متعددی شد که او را در حالات اغراق‌آمیز زوال شناختی نشان می‌داد تا بر انتخابات ریاست‌جمهوری تأثیر بگذارد. رؤسای جمهور باراک اوباما و دونالد ترامپ نیز قربانی ویدیوهای دیپ فیک شده اند که برخی برای انتشار اطلاعات نادرست و برخی به عنوان طنز و سرگرمی هستند.

در طول تهاجم روسیه به اوکراین در سال 2022، رئیس جمهور اوکراین ولودومیر زلنسکی به تصویر کشیده شد که به سربازانش می گوید تسلیم روس ها شوند.

 

 

.

 

معرفی 10 اپلیکیشن برتر برای استفاده از تکنولوژی Deep Fake

در ادامه ده اپلیکیشنی که در زمینه دیپ فیک موفق بوده‌اند را برای استفاده شما معرفی خواهیم کرد. در نظر داشته باشید که هر کدام از این برنامه ها ممکن است در زمینه خاصی از تکنولوژی دیپ فیک کمک گرفته باشد. با ما در پردازش رایان پژواک همراه باشید.

  1. وبسایت Deep fakes Web

دیپفیک وب، اولین سرویسی است که به کاربران اجازه می‌دهد تا از طریق یک برنامه وب، ویدیوهای دیپفیک را ایجاد کنند. این ابزار از یادگیری عمیق برای جذب مختلف پیچیدگی‌های داده‌های چهره استفاده می‌کند و با استفاده از این داده‌ها نتیجه‌ی مورد نظر را تولید می‌کند. زمانی که این ابزار از ویدیو یا تصویر ورودی یاد می‌گیرد و آموزش می‌بیند، حدود ۴ ساعت طول می‌کشد.

Deep fakes Web قابلیت تغییر چهره افراد در ویدئوها را دارد. برای استفاده از این ابزار باید مدل آموزش دیده را به کار بگیرید که تقریبا 15 دقیقه زمان می‌برد. سپس تعویض چهره افراد نیز نیاز به ۳۰ دقیقه دیگر با استفاده از مدل آموزش دیده دارد. این ابزار دارای نسخه رایگان و نسخه پولی است. نسخه رایگان تقریبا به ۵ ساعت زمان برای تولید ویدئو نیاز دارد، در حالی که نسخه پولی که هر ساعت آن ۳ دلار هزینه دارد، ویدیو را در یک ساعت تولید می‌کند.

این وبسایت از GPU های قدرتمند در سرور ابری استفاده می‌کند اما هنوز برای رندر کردن همه دیتاها به طور کامل، به زمان زیادی نیاز دارد. این سایت یکی از دقیق‌ترین برنامه ها برای ایجاد دیپ فیک های نزدیک به واقعیت است که هر کسی آن را باور می‌کند.

  1. اپلیکیشن Reface

Reface احتمالا قدیمی‌ترین برنامه تولید دیپ فیک در جهان است. این برنامه با انتخاب چهره شما و قرار دادن آن روی هر تصویر دیگری که می‌خواهید یک ویدیو جدید می‌سازد. این اپ از هوش مصنوعی تعویض چهره برای ساخت تصاویر نهایی استفاده می‌کند.

نسخه های قدیمی تر این برنامه دقت کمتری داشتند و فرآیند آن ها نیز کندتر بود، اما نسخه جدید بسیار سریعتر است و با استفاده از هوش مصنوعی، دقت بیشتری دارد. در حال حاضر می‌توانید در عرض چند دقیقه تصاویر مصنوعی را ایجاد کنید و هر کسی را شگفت زده کنید.

  1. اپلیکیشن Wombo Deepfake

اپلیکیشن Wombo به شما اجازه می‌دهد تا خودتان را به یک خواننده تبدیل کنید که با انتخاب یکی از آهنگ‌های موجود، فرایند lip-syncing روی تصاویر اجرا می‌شوند. فیلم‌هایی که با این اپلیکیشن ساخته می‌شود، معمولا برای ساخت ویدیوهای خنده‌دار یا برای شوخی با دوستان استفاده می‌شود.

  1. اپلیکیشن MyHeritage AI

MyHeritage AI یک برنامه‌ی قدرتمند است که به شدت محبوب شده است. با قابلیت‌های این برنامه میتوانید عکس‌های قدیمی خود را به حرکت درآورید. با اینکه هنوز این برنامه کامل نیست، اما شما می‌توانید عکس‌هایتان را آپلود کنید، دکمه انیمیشن را بزنید و نسخه‌های متحرک عکس‌های خود را دریافت کنید.

  1. اپلیکیشن FaceApp

اپلیکیشن FaceApp تصاویری با کیفیت بالا و تقریبا غیرقابل تشخیص را با استفاده از هوش مصنوعی ایجاد می‌کند. این برنامه قابلیت‌های مختلفی دارد که به کاربران امکان تغییر زمینه، فیلتر و ایجاد تغییرات مختلف روی تصاویر را می‌دهد. برای ایجاد تصاویر غیرقابل تشخیص، شما باید تصاویر خود را به برنامه بدهید و یا از افکت‌های موجود در برنامه استفاده کنید. سپس، برنامه بر روی چهره شما یک چهره دیگر را اعمال می‌کند تا به سرعت تصاویری با کیفیت بالا ایجاد شوند.

این برنامه امکانات دیگری را برای ویرایش عکس های سلفی شما فراهم می‌کند. ایجاد دیپ فیک یکی از امکانات اضافی این برنامه است که در اصل به عنوان یک ویرایشگر عکس عمل می‌کند.

  1. اپلیکیشن DeepFaceLab

DeepFaceLab یک برنامه برای ویندوز است که برای ایجاد ویدیوهای deepfake طراحی شده است. اصلی‌ترین هدف این برنامه، برای محققان و دانشجویان برای مطالعه تکنولوژی و یادگیری درباره deep fakes است. این ابزار از یادگیری ماشین برای جایگزینی چهره‌ها در ویدیوها استفاده می‌کند.

این برنامه یک ابزار پیشرفته برای محققان و توسعه دهندگان است. به همین دلیل، یک رابط کاربری ساده و کاربرپسند ندارد و برخی افراد ممکن است برای استفاده از آن دچار مشکل شوند.

  1. اپلیکیشن FaceMagic

فیس مجیک یک برنامه‌ی مبتنی بر هوش مصنوعی برای جایگزینی چهره است. با استفاده از این برنامه، می‌توانید از چهره‌هایی که می‌خواهید در ویدیوها و تصاویر استفاده کنید. این برنامه دارای یک رابط کاربری ساده است که پیشنهاداتی برای انجام تعویض چهره ارائه می‌دهد.

این برنامه در ابتدا رایگان است، اما مدتی بعد باید به اشتراک ویژه ارتقا بدهید. پلن پرداختی، تعویض چهره بی نهایت، پردازش با اولویت، آپلود عکس بی نهایت و حذف واترمارک و تبلیغات را در بر خواهد داشت.

  1. اپلیکیشن Jiggy

اپلیکیشن Jiggy امکان تولید گیف دیپفیک (ترکیب چهره‌ی شخص دیگر با یک ویدئو یا تصویر) را با استفاده از یک روش بسیار ساده برای شما فراهم می‌کند. این اپلیکیشن قادر است چهره‌ی شما یا دوستتان را در هر ویدیویی که می‌خواهید در عرض چند لحظه اضافه کند. برای استفاده از این اپلیکیشن، فقط کافی است تصویر و ویدیوی مورد نظر را انتخاب کرده و وارد نرم افزار کنید.

این برنامه به کاربران اندرویدی امکان ساخت ویدئوهای دیپ‌فیک را می‌دهد. در حالی که کاربران آیفون دسترسی محدودتری به این نوع برنامه‌ها دارند، Jiggy این مشکل را برای آن‌ها حل می‌کند.

  1. اپلیکیشن Lensa AI

برنامه Lensa AI که اخیرا محبوبیت زیادی پیدا کرده است، به شما اجازه می‌دهد با استفاده از تعدادی عکس سلفی، پرتره‌های واقعی و شبیه به خودتان ایجاد کنید. برای این کار باید تصاویری از خودتان از زوایای مختلف آپلود کنید.

  1. اپلیکیشن Zao Deep fake

Zao Deep fake یک برنامه چینی است که در سال 2019 معروف شده است. این برنامه قادر است در عرض چند دقیقه فیلم هایی را با چهره شما به صورت کامل مشابه سازی کند. شما میتوانید کلیپ های مشهوری مثل سریال و فیلم سینمایی را انتخاب کرده و سپس با انتخاب تصاویر خود از گالری یا دوربین، چهره خود را جایگزین کنید.

این برنامه در عرض چند لحظه این کار را برای شما انجام میدهد و شما از دقت آن تعجب خواهید کرد. این برنامه برای ایجاد فیلم های دیپ فیک از تکنولوژی GAN به جای پردازش تصاویر با استفاده از GPU استفاده می‌کند.

شرکتی که این برنامه را تولید می‌کند، قبلا اعلام کرده که می‌تواند تصاویر ساخته شده در برنامه را برای هر هدفی استفاده کند. رسانه‌های بزرگ هم هشدار داده‌اند که استفاده از این برنامه ممکن است با خطراتی برای حریم خصوصی همراه باشد. به همین دلیل، این برنامه در فروشگاه Play Store یا App Store موجود نیست و اگر می‌خواهید امتحان کنید، باید آن را از منابع دیگر دانلود کنید.

 

ارسال دیدگاه