دستکاری کردن عکس و فیلم و ساختن تصاویری خنده‌دار یا سرگرم‌کننده نخستین بار در قرن ۱۹ باب شد. هدفش هم سر کار گذاشتن مردم یا حقه‌بازی و جا زدن دروغ به جای واقعیت نبود.

سیاست گاهی پدر و مادر دارد!

بالاخره سیاست با همه بی‌پدر و مادری، نامردی، کثیف بودن و با وجود همه حرف‌هایی که پشت سرش می‌زنند، لابد خوبی‌هایی هم دارد. حداقلش این است که گاهی ممکن است برای مصالح جامعه بشری یکی دو قدم بردارد! یک نمونه‌ آن، ماجرای «جعل عمیق» یا همان دیپ‌فیک که ظاهراً آشش جوری شور شده که اهالی دنیای صنعت و فناوری، علم اخلاق، جامعه‌شناسان و حتی سیاست‌بازان و سیاست‌ورزان هم صدایشان بابت این دسته‌گل هوش مصنوعی و قرن۲۱ درآمده است.

زلف این، دُم آن
اگر فکر می‌کنید داریم بی‌دلیل زلف ماجرایی مثل «جعل عمیق» و هوش مصنوعی را به دُمِ سیاست گره می‌زنیم، سخت در اشتباهید. منتها حرف زدن از دلیل این کار بماند برای اواخر مطلب! اول باید ببینیم اصل ماجرا چیست و چه اتفاقی افتاده که ماست جعل عمیق را توی قیمه سیاست ریخته‌ایم و زلف این یکی و دُم و یال آن یکی دیگر را کشیده و آورده‌ایم وسط این صفحه؟
 دستکاری کردن عکس و فیلم و ساختن تصاویری خنده‌دار یا سرگرم‌کننده نخستین بار در قرن ۱۹ باب شد. هدفش هم سر کار گذاشتن مردم یا حقه‌بازی و جا زدن دروغ به جای واقعیت نبود. توسعه این نوع دستکاری هم همزمان و همراه با گسترش  و پیشرفت عکاسی و فیلم‌برداری ادامه پیدا کرد تا کار به خلق جلوه‌های ویژه و ترفندهای سینمایی رسید. اما سوءاستفاده از این فناوری جذاب همزمان توسعه پیدا کرد و از چند دهه پیش به عرصه‌های خیلی اخلاقی هم کشیده شد. البته این ذات علم و فناوری و خیلی از داشته‌های انسانی است که وقتی فراگیر می‌شوند مثل دریا همه چیز با خودشان دارند.
از ماهی و مروارید و این جور چیزها بگیرید تا آلودگی و خطر و... . مثال عینی‌تر، جناب «فتوشاپ» است که برای اهل فن و کاربرهای اهل و متخصصش، بهترین ابزار ویرایش تصویر به حساب می‌آمد و می‌آید و برای خیلی از نااهلان تا همین یکی دو دهه پیش ابزار هزارجور خلاف‌کاری بود. من و شما هم که هنوز توی شوخی‌ها و جوک ساختن‌ و سر به سر گذاشتن با این و آن، گاه و بیگاه دست‌کم از اصطلاح فتوشاپ استفاده می‌کنیم مگر اینکه خیلی به روز و دیجیتال باشیم و یادمان باشد که چند سالی است به دلیل پیشرفت و توسعه هوش مصنوعی، دیگر کمتر کسی چه به شوخی و چه جدی از فتوشاپ استفاده می‌کند.
این روزها بازار «جعل عمیق» گرم و بلکه داغ است و می‌تواند سر، صورت، هیبت و هیئت شما را روی فیلم و تصویر یک نفر دیگر جوری مونتاژ کند که خودتان هم نتوانید جعلی بودن آن را متوجه شوید. بدیهی است در این صورت شما و مردم می‌توانید خودتان را در جایی که هرگز نبوده‌اید، درحال زدن حرف‌هایی که هرگز نزده‌اید، خوردن چیزهایی که اهل خوردنش نیستید و رویمان به دیوار انجام کارهایی که عمراً اهل انجامش نیستید، مشاهده کنید! 

مُشت آخر را چه کسی می‌زند؟
هشدارها درباره جنبه‌های ضداخلاقی سوءاستفاده از «جعل عمیق» از همان روزهای ابتدای رواج این فناوری شروع شد. با وجود این چون هنوز اغلب متخصصان داغ بوده و شگفتی‌های هوش مصنوعی و توانایی‌هایش همه را ذوق‌زده کرده بود کسی خیلی به آن‌ها توجه نکرد. اما به مرور افزایش تعداد ویدئوهایی که آدم‌ها و به‌خصوص بازیگران سرشناس را در حالت‌هایی که نباید باشند، نشان می‌داد، موجب شد اعتراض‌ها و هشدارها بالا بگیرد.
لابد تلاش متخصصان و دانشمندان برای درافتادن با جنبه‌های منفی جعل عمیق از همین روزها آغاز شد. شما اگر خبرهای این حوزه در سه یا چهار سال گذشته را مرور کنید به عناوینی از این دست برمی‌خورید: «حقیقت‌های ترسناک درباره تکامل فناوری جعل عمیق... در جنگ میان حقیقت و دروغ ضربه آخر را چه کسی می‌زند؟... چگونه می‌توان جامعه و علم را از شر جعل عمیق نجات داد؟...» عمر هشدارها و تیترهایی از این قبیل که نشانه دلواپسی‌های اهل فن و اندیشمندان مختلف بود از سه یا چهار سال نگذشته بود که اخبار مربوط به اقدام‌های عملی برای رفتن به جنگ «جعل عمیق» سروکله شان پیدا شد.
سال گذشته همین موقع‌ها بود که خبر رسید چینی‌ها عزمشان را برای مقابله با این پدیده جزم کرده‌اند. گویا آن‌ها مجموعه مقررات سفت و سختی را برای کنترل محتواهای اینترنتی تصویری جعلی تدوین و منتشر کرده بودند. تشکیلات قدرتمندی که قرار بود در چین این مقررات را اعمال کند، برای انتشار محتوای ساخته شده با این فناوری شرط و شروط خاصی گذاشته بود که طبق آن منتشرکننده نباید از این محتواها به عنوان خبر جعلی استفاده کند، استفاده از تصویر اشخاص و کاربران باید با رضایت آن‌ها صورت بگیرد، محتوا باید همراه با اطلاع‌رسانی در زمینه جعلی بودن منتشر شوند و... .
این قوانین اگرچه خوب و لازم بودند، اما کافی به نظر نمی‌رسیدند. چه اینکه وقتی فیلمی با این فناوری ساخته شده و نه با هدف گول زدن دیگران و مثلاً به عنوان یک تبلیغ تجاری، با رعایت همه قواعد و قوانین منتشر می‌شد، هیچ تضمینی وجود نداشت که آن طرف دنیا افرادی این فیلم را کپی نکرده و در فرصت مناسب آن را با هدف سوءاستفاده و آسیب رساندن به افراد منتشر نکنند.

واگعیه یا کیکه؟
دقیقاً، زلف «جعل عمیق» از همین جای ماجرا به دُم سیاست گره خورد! از دیدگاه سیاست، فناوری عمیق و گول زننده جدید تا وقتی فقط آبروی سلبریتی‌ها یا برخی ستارگان سینما را می‌برد، با حیثیت فلان ورزشکار شوخی می‌کرد یا جای مردم کوچه و بازار را با افراد سرشناس عوض می‌کرد قابل تحمل و زیرسبیلی در کردن بود، اما از وقتی سیاست‌بازان متوجه شدند در بزنگاه‌های خاص سیاسی، انتخابات و... جعل عمیق تا چه حد می‌تواند منافع آن‌ها را به خطر بیندازد و آبروریزی درست کند، این فناوری دیگر واقعاً غیرقابل تحمل و خطرناک قلمداد شد! شاید این همزمانی که می‌خواهیم بگوییم یک اتفاق باشد اما به هر حال یک حقیقت هم هست.
همه اخبار درباره تلاش برای در افتادن با جعل عمیق از همین زمانی که گفتیم شروع می‌شود. طی همین یک سال اخیر در هند، نخست‌وزیر خبر از ضرورت مبارزه با دیپ فیک را می‌دهد. شرکت‌های بزرگ اعلام می‌کنند نگران تأثیرات ناجور جعل عمیق بر انتخابات در کشورهای مختلف به‌خصوص آمریکا هستند. مشاور هوش مصنوعی در سازمان ملل به‌شدت درباره جعل عمیق هشدار داد چون معتقد بود در حال حاضر سیاست‌گذاران در زمینه آموزش مردم در مورد خطرات فراوان جعل عمیق و نحوه تشخیص آن‌ها به اندازه کافی تلاش نمی‌کنند. 
تازه‌ترین خبر را هم دیروز خبرگزاری‌های خودمان منتشر کردند که شرکت‌های کانن، نیکون و سونی دارند کاری می‌کنند که تمامی تصاویر تولیدشده توسط دوربین‌هایشان با یک امضای دیجیتال همراه باشند. یعنی این امضای دیجیتال به کمک یک نرم‌افزار به همگان امکان می‌دهد واقعی یا جعلی بودن فیلم و عکس را به‌سرعت متوجه شوند. گوگل نیز به این مبارزه با جعل عمیق پیوسته و فعلاً همه امیدوارند به‌زودی شاهد مرگ «جعل عمیق» باشند... اگر فردا به کمک هوش مصنوعی به شکلی دیگر زنده نشود! 

خبرنگار: مجید تربت‌زاده
منبع: قدس آنلاین

برچسب‌ها

پخش زنده

نظر شما

شما در حال پاسخ به نظر «» هستید.