برگزیده های سردبیریادگیری عمیق

چالش های خطرناک مبتنی بر دیپ فیک ؛ DeepFake چیست ؟

جعل عمیق یا Deepfake یک تکنیک مبتنی بر AI است که کاربران را قادر می کنه تصاویر یک شخص رو بر روی شخص دیگر منطبق کنه .این شبیه سازی از طریق یک سیستم یادگیری ماشین به نام شبکه تولید انطباق (GANs ) انجام میشه .به عنوان مثال کاربر YouTuber در یوتیوب برای ساختن ویدیوهای سرگرم کننده, چهره بازیگران معروف و ستارگان فیلم ها رو با استفاده از این تکنولوژی پیشرفته تغییر می داد که البته این حساب توسط یوتیوب فعلا معلق شده.

امروزه در اینترنت؛ ویدئوهای زیادی وجود دارد که در آن کارهایی رو نشان می‌ده که مردم هرگز اونا رو انجام ندادند. انسان‌های واقعی، چهره‌های واقعی و فیلم‌های واقعی! اما کارهای غیر واقعی و دروغین. این ویدئوها deepfakes نام دارند؛ که از دو واژه deep یا همان deep learning (یادگیری عمیق) و fake همان فیک و دروغین تشکیل شده . البته این تکنولوژی در ابتدا به صورت تفریحی و سرگرمی وارد میدان شد. اما در ادامه خصوصا از سال ۲۰۱۷ که یک کاربر ناشناس سرویس Reddit تصاویر غیر اخلاقی از بازیگران منتشر کرده که غیر واقعی بودند نگرانی ها آغاز شد و اکنون سیاست مداران و افراد ستاره بشدن نگران تشویش اذهان عمومی با بوسیله دیپ فیک هستند. هنگامی که محققان دانشگاه واشنگتن یک ویدئوی جعل عمیق از باراک اوباما رئیس جمهور آمریکا تولید و سپس اونو در اینترنت منتشر کردند، مشخص شد که چگونه چنین فن آوری میتونه مورد سوء استفاده قرار بگیره. محققان توانستند ویدیوی پرزیدنت اوباما را بگونه ای بسازند که هر چیزی که مایل بودند از زبان اوباما بیان بشه .تصور کنین اگر با استفاده از این فناوری رفتار نامناسبی به یک رهبر جهانی منتسب بشه ,میتونه تهدیدی برای امنیت جهانی بوجود بیاره .

البته این تکنولوژی فرصت هایی رو هم بوجود اورده و به عنوان یکی دیگر از مصارف دیپ فیک، میتونیم به ساخت فیلم‌ها اشاره کرد. دیگر نیازی نیست از بازیگران مشهور و گران قیمت استفاده بشه ؛ کافیه که بازیگران معمولی این نقش‌ها رو ایفا کنند و در نهایت با فناوری دیپ فیک؛ تصاویر بازیگران معروف بر روی آنها قرار بگیره.

فناوری جعل عمیق به سرعت بهبود می یابد

متاسفانه ماهیت شبکه های اجتماعی به گونه ای مورد سوء استفاده ابزار های هوش مصنوعی و برنامه نویسان شده تا به عنوان محتوای اولیه آموزش این فناوری مورد استفاده قرار بگیره و دقت این فناوری رو بالا ببره.چرا که مردم بدون توجه به حریم خصوصی تصاویر زیادی از خودشون رو در قالب شبکه های اجتماعی منتشر میکنند و یا دراپلیکیشن های هدفمند (همچون Face app) که مثلا عمل تبدیل حالت های مختلف چهره (مانند جوانی و پیری) رو انجام میده اقدام به انتشار تصاویرشون بدون توجه به مالک این اپلیکیشن ها و نیت مالک از دریافت این حجم از تصاویر در قالب یک چالش بین المللی نمیکنند. ظهور deepfakes پس از بیش از یک دهه اشتراک گذاری تصاویر شخصی در شبکه های آنلاین آغاز شده تا جایی که دیگه، تقریبا تصاویر تمام چهره ها روی اینترنت هست؛ حتی دور ماندن از دید عموم، مانع از تلفیق جعل عمیق نخواهد شد. همچنین شما در تصاویر و فیلم های دوستانتان قرار دارین ، موبایل هاتون با قفل تشخیص چهره کار می کنن ، تماس های تصویری برقرار میکنین ، ویدئو کنفرانس می گذارین و بوسیله روش های مختلف به طور ناخواسته تصویر چهره تون رو در اینترنت به اشتراک می گذارید. هانی فرید یکی از محققان دارتموث فعال در زمینه دعاوی حقوقی رسانه ای ، در خصوص ریشه کن کردن مواردی همانند deepfakes گفته :

”همه تصاویری که از خودتان در اینترنت قرار داده اید، به دلخواه خودتان بوده و شما آزادانه این کار را انجام داده اید. هیچ شخصی شما را وادار به انجام آن نکرده ، حتی تصاویری که از شما به سرقت رفته – خود شما موجب آن شده اید.”

صاحبان هر دو این تصاویر وجود خارجی ندارند و توسط برنامه هوش مصنوعی تولید شدند!

از آنجاییکه Deepfake با روش یادگیری ماشین کار میکنه ، جهت جعل عمیق ، به داشتن چندین عکس از حالات مختلف چهره شما نیازه که قطعا در یک تکه کلیپ ویئویی و یا مجموعه تصاویر شبکه های اجتماعی و … قابل دسترس خواهد بود. این یکی از دلایلیه که ستارگان اجتماعی و سیاستمداران بیشتر در خطر هستند .

بررسی پلک زدن به عنوان روشی برای تشخیص جعل عمیق

هنوز در این نوع الگوریتم جدید نقص هایی وجود داره. یکی از اونها مربوط میشه به چگونگی چشمک زدن که ایا شبیه سازی شده یا خیر. انسان سالم در هر ۲ تا ۱۰ ثانیه پلک میزنه و طول پلک زدن از ۰.۱ تا ۰.۴ ثانیه طول می کشه. این چیزیه که در ویدیوی شخصی وجود داره که طبیعی هست در جالی که در بسیاری از فیلمهای عمیق این الگو وجود نداره .

هنگامی که یک الگوریتم عمیق برای جعل تصویر چهره یک فرد آموزش دیده شده، برنامه وابسته به عکس هایی هست که در اینترنت موجودند ومی توانن به عنوان داده های آموزشی استفاده بشن . حتی برای افرادی که اغلب در معرض عکسبرداری هستند، تعداد کمی از تصاویر به صورت آنلاین در دسترس هستند که چشمشون بسته است.

بنابراین بدون آموزش الگوریتم با استفاده از تصویری از مردم در حال چشمک زدن هستند ، الگوریتم های عمیق به احتمال زیاد قادر به ایجاد چهره هایی که به طور معمول چشمک می زنند , نخواهند بود.

در مطالعاتم در مجله daily science به مقالات متعددی درباره پژوهش های صورت گرفته برای تشخیص جعل عمیق برخورد کردم .مثلا یکی از این مقالات با عنوان ” This deep neural network fights deepfakes Artificial intelligence to accurately detect altered photos is getting smarter. ” , با استفاده از آنالیز شبکه های عصبی عمیق قادر بود جعل عمیق رو در تصاویر استاتیک تشخیص بده و در مرحله بعد در نظر داشتند این برنامه رو روی تصاویر پویا هم امتحان کنند.

محققان تصاویری دستکاری نشده و نیز پیکسلهای مربوطه رو در نقاط مرزی تصاویر دستکاری شده در مجموعه ای بذرگ از تصاویر عکاسی برچسب گذاری کردند. هدف این بود که دانش عمومی شبکه عصبی رو درباره مناطق دستکاری شده و طبیعی عکس ها آموزش بدند. اونها شبکه عصبی رو با مجموعه ای از تصاویری که قبلا در اموزش استفاده نشده بود آزمایش کردند و اغلب اوقات تصاویر دستکاری شده رو تشخیص دادند. حتی بعضا منطقه دستکاری شده تصاویر رو هم تشخیص میداد.

وضعیت حقوقی و چالش های قضایی

اگر چه تکنولوژی جعل عمیق به سرعت در حال پیشرفته اما هنوز در نقطه ای نیست که فیلم های جعلی و واقعی کاملا غیر قابل تشخیص باشند. با این حال، تصور اینکه تکنولوژی بزودی از این مرحله آموزشی عبور کنه و همچون سایر داستان های تخیلی که به وقوع پیوستند , جعل عمیق هم تبدیل به یک ابزار رایج در دسترس بشه , زیاد هم دور از ذهن نیست. قطعا تولید کنندگان این ویدئو ها و تصاویر باید از یک واترمارک برای توضیح جعلی بودن تولیدشون استفاده کنند. چیزی که ما در محصولات تراریخته از تولید کنندگان انتظار داریم. اما به هر حال افرادی که به مقاصد شوم مانند انتقام و … قصد تخریب کسی رو دارند قطعا تن به این داستان ها نخواهند داد که باید براشون فکری کرد.

متاسفانه هنوز سیستم های قضایی به طور صریح دست به اصلاح قوانین نزدند اما به هر حال در صورت تقویت سیستم کارشناسی در سیستم های قضایی مقابله با این جرم ها قطعا میسر خواهد بود. تهدید ها همیشه وجود داشته اما با پیدایش فناوری شکلشون تغییر کرده و سرعت و وسعت بیشتری پیدا کردند. در هر صورت قطع به یقین نمی تونیم با تمام تهدیدها مقابله کنیم اما باید حداقل در همگام ورود فناوری های جدید با نگاه فرصت و تهدید بهشون بپردازیم و با ارتقای سواد رسانه ای و آگاهی عمومی فرهنگ استفاده رو تقویت کنیم و مانع از بروز آسیب های اون بشیم /.

امیر حسین اکبری – کارشناس داده کاوی و هوش مصنوعی

برچسب ها

نوشته های مشابه

پاسخی بگذارید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *

دکمه بازگشت به بالا
بستن