دوشنبه ۲۶ آبان ۱۳۹۹ - ۰۰:۴۱

فناوری «دیپ فیک» از سلاح هسته‌ای خطرناک‌تر است

جعل عمیق و دقیق

دیپ فیک

کم کم وقتش رسیده که «فتوشاپ» را فراموش کنیم. البته آن‌هایی که خدای ناکرده در کار تولید تصاویر جعلی هستند و یا در فضای مجازی قصد سر به سر گذاشتن با مخاطبان را دارند و می‌خواهند آبروی کسی را ببرند، مدت‌هاست «فتوشاپ» را کنار گذاشته و سراغ فناوری‌های تازه رفته‌اند.

قدس آنلاین:کم کم وقتش رسیده که «فتوشاپ» را فراموش کنیم. البته آن‌هایی که خدای ناکرده در کار تولید تصاویر جعلی هستند و یا در فضای مجازی قصد سر به سر گذاشتن با مخاطبان را دارند و می‌خواهند آبروی کسی را ببرند، مدت‌هاست «فتوشاپ» را کنار گذاشته و سراغ فناوری‌های تازه رفته‌اند. این ما هستیم که هنوز در شوخی‌ها و تصوراتمان وقتی قرار است از قلابی بودن یک تصویر حرف بزنیم، واژه فتوشاپ را به کار می‌بریم. این روزها نه فقط اهالی جعل و جاعلی بلکه متخصصان، درباره «دیپ فیک» حرف می‌زنند و حتی از خطراتش می‌گویند که به قول بعضی‌ها کمتر از خطر بمب اتمی نیست!

به چشمانتان اعتماد نکنید

چند سالی است که شاهد ظهور فناوری‌های هوشمند وخطرناکی به نام «دیپ فیک» هستیم که خیلی بیشتر از فتوشاپ، قدرت گول زدن مخاطبان، به‌خصوص کاربران فضای مجازی را دارد. در فتوشاپ اگر فقط چشم بیننده یک تصویر گول می‌خورد، با «دیپ فیک» اما می‌شود چشم و گوش و عقل و هوش مخاطب را گول زد. ساده‌تر اینکه برای مقایسه سطح توانایی‌های این دو فناوری، شما می‌توانید فتوشاپ را چرتکه فرض کنید. در این حالت «دیپ فیک» چیزی است در حد یک ماشین حساب بسیار پیشرفته که می‌تواند معادلات پیچیده ریاضی را هم برای شما حل کرده و تانژانت و کتانژانت و رادیکال و... را حساب کند! بگذارید تعریف علمی اما ساده‌تر این جعل دقیق و عمیق را از قول اهل فن بنویسیم تا بدانید با چه پدیده پیشرفته اما خطرناکی روبه‌رو هستید.

دیپ فیک از دو عبارت «دیپ لرنینگ» و«فیک» تشکیل شده است. دراین تکنولوژی یک هوش مصنوعی نرم‌افزاری با کمک الگوریتم‌های ترکیبی پردازش صدا و تصویر، ویدئویی را تولید می‌کند. هوش مصنوعی می‌تواند صورت یک سوژه (فرد اصلی) را روی چهره سوژه‌ای دیگر (فرد هدف) کپی کند. در حالت پیشرفته‌تر، این تکنولوژی می‌تواند یک مدل جدید بر اساس حرکات صورت شخص اصلی درست کرده و آن را روی شخص هدف قرار دهد. این یعنی اگر این تیغ دودَم، دست آدم نااهلی بیفتد (که افتاده) شما دیگر حتی به چشم خودتان هم نباید اعتماد کنید!

پیدایش

کمتر از یک ماه پیش اگر یادتان باشد خبری با این مضمون در خبرگزاری‌ها منتشر شد: «تصاویر برهنه جعلی بیش از ۱۰۰ هزار زن در فضای مجازی انتشار یافته است. این تصاویر با سوءاستفاده از عکس‌های منتشر شده کاربران در شبکه‌های اجتماعی ایجاد شده است... گفته می‌شود تصاویر کاربران با استفاده از هوش مصنوعی مخصوص دستکاری و سپس لباس آن‌ها حذف و در تلگرام منتشر می‌شود». اما این خبر نقطه پیدایش «دیپ فیک» نیست. یعنی اگر ردّ این فناوری را بزنید به عالم سینما و بازیگری می‌رسید. نخستین بار به سر یک آدم علاقه‌مند به سینما (اما احتمالاً مریض) زد که از این فناوری، استفاده خلاف و ناجور کند. اوایل سال 2017 میلادی یک کاربر سایت «ردیت» ویدئوهای ناجوری از حضور بازیگران مطرح سینما در فیلم‌های «پورن» را به اشتراک گذاشت. فیلم‌هایی که درواقع با بعضی از نرم‌افزارهای دم دستی ساخته شده و باوجود جعلی بودن کاملاً واقعی و قانع‌کننده به نظرمی‌رسید. یعنی تصاویر و ویدئوهایی از آن هنرپیشه از اینترنت جمع‌آوری شده و سپس همه تصاویر با فرایندی با عنوان «یادگیری عمیق» با استفاده از یک شبکه عصبی مصنوعی و الگوریتمی که دقیقاً با چهره آن بازیگرمطابقت داشت، روی‌هم سوار شده بود و به‌ این‌ ترتیب چهره بازیگر موجه و آبرومند سینما روی چهره یکی از بازیگران فیلم‌های مستهجن قرار گرفته بود. شاید الان فکر کنید با فرایندی خیلی پیچیده و فنی روبه‌رو شده‌ایم اما واقعیت این است که این آقای کاربر با نام کاربری «دیپ فیک» به رایانه‌اش یاد داد چطور می‌شود با جمع‌آوری عکس و فیلم‌های مختلف از بازیگران، چهره آن‌ها را تکرار کرده و این تصاویر تکرار شده را روی چهره یک فرد دیگر در فیلمی دیگر سوار کرد. همه خطرناکی «دیپ فیک» این است که در یک فرایند تقریباً ساده شکل می‌گیرد، به سخت‌افزار خاصی نیاز ندارد و می‌تواند توسط هر کس بدون نیاز به دانش برنامه‌نویسی انجام شود. پس از این ماجرا بود که سروکله نرم‌افزاری به نام «دیپ اَپ» هم در اینترنت پیدا شد که به همه کاربران اجازه می‌داد بدون نیاز به ابزارخاصی، فیلم جعلی مورد نظر خودشان را تولید کنند.

بی‌نظیر اما ترسناک

البته آنچه بالاتر گفتیم، نقش و اثر منفی این فناوری بود وگرنه شاید شما هم تا همین جای مطلب به ذهنتان رسیده باشد که با استفاده درست از «دیپ فیک» در سینما می‌توان اتفاقات بسیار خوبی را رقم زد. مثلاً کاری را که گروه جلوه‌های بصری یک پروژه سینمایی با صرف هزینه بسیار بالا در طول چند ماه انجام می‌دهند با این فناوری می‌توان در یک روز و بدون هزینه انجام داد. برای درک فرصت‌های بی‌نظیری که دیپ فیک می‌تواند در اختیار صنعت فیلم‌سازی قرار دهد، تصور کنید فیلمی با یک بازیگر ناشناخته ساخته می‌شود و شما می‌توانید در حین تماشا آن را با هر ستاره‌ای که دوست دارید جایگزین کنید یا حتی اگر دوست داشته باشید خودتان ستاره فیلم باشید. بنابراین شما می‌توانید بدون هزینه‌های سرسام‌آور، بسیاری از ستارگان سینما را از جهان مردگان برگردانید و دوباره در فیلم‌های محبوبتان به تماشای آن‌ها بنشینید.

آینده دیپ فیک هم هیجان‌انگیز و هم ترسناک است.اگر بشر بخواهد از آن به‌عنوان ابزاری برای تخریب سیاسی و گمراه کردن افکار عمومی استفاده کند، به‌زودی محدود شده و به تاریخ می‌پیوندد. اما اگر بخواهد از آن در هنرهای تجسمی استفاده کند، تجربه‌های بی‌نظیری خلق خواهد شد.

در حال حاضر خود آمریکایی هم بیشتر از مایی که ممکن است تا امروز عنوان «دیپ فیک» به گوشمان نخورده باشد درباره خطرات این تکنولوژی سروصدا می‌کنند. مثلاً نماینده حزب جمهوری‌خواه آمریکا چند سال پیش قدرت فناوری دیپ فیک را با سلاح هسته‌ای مقایسه کرد و گفت: «اگر کسی می‌خواست در گذشته آمریکا را تهدید کند تنها به چند سلاح هسته‌ای و موشک نیاز داشت. امروزه تنها کافی است کشوری به سیستم اینترنتی آمریکا دسترسی پیدا کند. تنها چیزی که برای آسیب زدن به ما نیاز دارد، امکان تولید محتواهای غیرواقعی و ویدئوهای تقلبی بسیار واقع‌گرایانه است». البته آقای نماینده کمی هم غلو و مظلوم‌نمایی کرده است. چون جاعلان اینترنتی و طرفداران این فناوری در بدترین حالت ممکن، دنبال بی آبرو کردن افراد خاص یا باج گرفتن از آن‌ها هستند و هیچ‌وقت علیه منافع سیاسی و اقتصادی یک کشور فعالیت نمی‌کنند در حالی که سازمان‌هایی مانند «سیا» هستند که می‌توانند از این ترفند برای گول زدن مردم کشورهای مختلف، به راه انداختن نارضایتی عمومی و شورش، براندازی و... استفاده کنند.

کمی تأمل کنید

می‌توان گفت تشخیص ویدئوهای دیپ فیک که با کیفیت بالا طراحی شده‌اند بسیار دشوار است. از طرف دیگر ویدئوهای دیپ فیک که توسط کاربران و با برنامه‌های اینترنتی ساخته می‌شوند به راحتی قابل تشخیص هستند چرا که زمان زیادی صرف ساخت آن‌ها نمی‌شود. اما ویدئوهایی که توسط فرآاند «گَن» تولید می‌شود از کیفیت و دقت برخوردارند و بیشتر مواقع کاربران برای تشخیص آن‌ها نیاز به یک هوش مصنوعی دیگر دارند. در حال حاضر شرکت‌های تحقیقاتی بسیاری سعی دارند روش‌های قابل اعتمادتری را برای تشخیص ویدئوهای دیپ فیک قوی پیدا کنند.

باشگاه خبرنگاران جوان، دیروز در گزارشی نوشت: «در حالی که فناوری دیپ فیک پیش از این تنها در دستان سازمان‌های بزرگ مانند «سیا» بود اما امروزه هر کاربری می‌تواند با دانلود برنامه‌های تولید ویدئوی دیپ فیک به این فناوری دست پیدا کرده و از آن برای اهداف غیراخلاقی استفاده کند. خوشبختانه تا امروز نمونه دیپ فیک قرار گرفته در دست کاربران از کیفیت بالایی برخوردار نبوده و از این رو تشخیص آن‌ها ساده است».

مشکل اما اینجاست که در بسیاری از کشورها و از جمله کشور خودمان، همه کاربران فضای مجازی، سواد رسانه‌ای بالا ندارند و از ترفندهای مختلف صوتی و تصویری مثل «دیپ فیک» با خبر نیستند در نتیجه هر فیلمی که با این تکنولوژی تولید و منتشر شده به‌راحتی می‌تواند آن‌ها را گول بزند و ماجرایی را که وجود نداشته به عنوان یک واقعیت در جهان انتشار دهد. در این حالت آبروی افراد چه در عالم سیاست، چه در اجتماع و چه در زندگی خصوصی همواره بازیچه دست جاعل‌هایی است که برای اهداف زشت خود از این ترفند استفاده می‌کنند. پس اگر در اینترنت ویدئویی را از یک شخصیت معروف دیدید که حرف‌های عجیب و غیرمعقول می‌زند، رفتار غیرقابل باور از او سر می‌زند، در محافل و یا موقعیت‌های خاص دیده می‌شود و... به جای متأثر شدن فوری، کمی تأمل کرده و احتمال بدهید شاید با یک دیپ فیک سروکار دارید.

ارسال نظر

شما در حال ارسال پاسخ به نظر « » می‌باشید.