(DeepFake | جعل عمیق) بحث داغ این روزای دنیای تکنولوژی است.سیستمهای دیپ فیک (جعل عمیق) مبتنی بر (Deep Learning|یادگیری عمیق) و( Machine Learning|یادگیری ماشین) کار میکنند. دیپ فیک شاید تکنولوژی سرگرم کننده به نظر برسد .اما این تکنولوژی برای جابه جایی چهره افراد و تحریف کردن(Doctoring) ویدیو ها مورد استفاده قرار میگیرد. دیپ فیک تکنولوژی هوشمند در عین حال خطرناک است.قابلیت گول زدن افراد با محتویات جعلی توسط دیپ فیک به جرات میتوان گفت یکی از ترسناک ترین سناریوهای هوش مصنوعی است.البته تمامی تکنولوژی ها قابلیت این را دارند برای مقاصد خصمانه یا مفید مورد استفاده بگیرند. دیپ فیک علاوه بر قابلیت های خصمانه پتانسیل این را دارد که در کارهای مفیدی از جمله تجارت مورد استفاده قرار بگیرد.
منبع : دیپ فیک چیست ؟
معرفی دیپ فیک
اصطلاح دیپ فیک به ویدئوها و صداهای جعلی و تولید شده به وسیله کامپیوتر اطلاق میشود.که تشخیص آنها از محتویات واقعی (Genuine) و بدون تغییر (Unaltered) بسیار سخت است. دیپ فیک جهت تغییر فایلهای ویدئویی، معادل نرمافزار فتوشاپ برای تصاویر دیجیتالی محسوب میشوند.
در سیستمهای دیپ فیک یا جعل عمیق، معمولا از دسته خاصی از الگوریتمهای یادگیری ماشین به نام شبکههای مولد تخاصمی» (Generative Adversarial Networks) جهت «ترکیب کردن» (Combine) و «برهمنهی» (Superimpose) تصاویر و ویدئوهای موجود، روی مجموعهای از تصاویر یا ویدئوهای «منبع» (Source) استفاده میشود.
ویدیو زیر نمونه ای بارز از دیپ فیک است . بر روی چهره رامی ملک بازیگر مشهور سریال مستر ربات پیاده شده است.اگرچه این ویدئو نسبت به دیگر نمونههای دیپفیک از کیفیت پایینتری برخوردار است. اما قطعاً با پیشرفت این فناوری میتوان آیندهای را متصور شد که هرکس طبق علایق خود، بازیگر موردنظرش را برای صحنههای مختلف فیلم درنظر بگیرد.
محتوای دیپ فیک چگونه ساخته میشود؟
ویدئوهای دیپ فیک (جعل عمیق)، با استفاده از دو سیستم یا مدل هوش مصنوعی «رقابت کننده» (Competing) پدید میآیند. دسته اول از چنین مدلها یا سیستمهای هوش مصنوعی رقابت کننده، سیستمهای «مولد» (Generator) نام دارد. دسته دوم، سیستمهای «متمایزگر یا تمایزی» (Discriminator).
روش کار سیستمهای هوشمند تولید کننده محتوای دیپ فیک بدین صورت است که ابتدا مدلهای مولد (Generator)، یک ویدئوی جعلی تولید میکند. سپس، ویدئوی تولید شده به عنوان ورودی مدلهای متمایزگر وارد سیستم میشود. وظیفه مدل متمایزگر این است که تشخیص دهد آیا ویدئوی تولید شده واقعی است یا جعلی.
هر بار که مدل متمایزگر بتواند به درستی، جعلی بودن ویدئوها را تشخیص دهد، باز خورد یا سیگنالی در اختیار مدل مولد قرار میدهد. این سیگنال یا بازخورد، خطاهای مدل مولد در تولید ویدئوهای تقلبی را مشخص میکند. مدل مولد بر اساس «بازخوردهای» (Feedbacks) ایجاد شده، اقدام به تصحیح خطا و تولید ویدئوهای تقلبی جدید میکند.
از در کنار هم قرار گرفتن مدلهای مولد و متمایزگر، شبکههای مولد تخاصمی شکل خواهد گرفت. اولین قدم در پیادهسازی یک مدل شبکههای مولد تخاصمی یا GAN، شناسایی خروجی مطلوب و تولید یک مجموعه داده آموزشی برای مدل مولد است. به محض اینکه عملکرد و دقت مدل مولد در تولید ویدئوهای جعلی به سطح مطلوبی برسد. ویدئوهای تولید شده به عنوان ورودی مدل متمایزگر عمل خواهند کرد.
همانطور که به مرور زمان عملکرد مدل مولد در تولید ویدئوهای جعلی افزایش پیدا میکند، مدل متمایزگر نیز دقت بیشتری در تشخیص ویدئوهای جعلی از خود نشان میدهد. همچنین، با افزایش دقت و عملکرد مدل متمایزگر در تشخیص ویدئوهای جعلی، دقت مدل مولد در تولید ویدئوهای جعلی با کیفیت و نزدیک به واقعیت افزایش پیدا میکند.
استفاده از چهره افراد مشهور برای تبلیغات پوشاک
در این سناریو، افراد مشهور چهرههای مدل شده و کامپیوتری خود را به شرکتهای تولید پوشاک قرض میدهند تا این شرکتها بدون نیاز به فیلمبرداری کلیپهای تبلیغاتی، از چهره آنها برای تبلیغ پوشاک و وسایل جانبی استفاده کنند (قرار دادن چهره افراد معروف روی مانکنهای لباس).
ساخت انسانهای مجازی
انسانهای مجازی دستاورد مهم دیگری در حوزهی تعاملات کاربر دنیای فناوری هستند. آنها با روشی متفاوت از دستیارهای شخصی به سمت بدنهی جامعه حرکت میکنند. مسیر آنها از سمت اینفلوئنسرهای دیجیتال دنبال میشود؛ اینلفوئنسرهایی که در دستهی انسانهای مجازی قابل باور قرار میگیرند. آنها نوعی از ارتباط را ایجاد میکنند که به رفتارهای انسانی عموم جامعه نزدیکتر است.
بهعنوان نمونهای از اینفلوئنسرهای دیجیتال میتوان به Lil Miquela یا Astro در اینستاگرام اشاره کرد .آنها ارتباطی طبیعی و نزدیک با کاربران دارند. البته پاسخ آنها به کاربران و تعاملهای مربوطه، توسط افراد دیگر و انسانهای واقعی نوشته میشود. اما رویکردهای موجود نشان از آیندهای دارند که انسانهای مجازی به پدیدهای رایج در شبکههای مجازی تبدیل شوند.
منبع : تكنولویيست مگ
.: Weblog Themes By Pichak :.