stat counter
دوشنبه, ۱۰ آذر , ۱۳۹۹ Monday, 30 November , 2020

تیتر خبرها

افزایش ۱۴۳ درصدی قیمت برنج وارداتی ورود سلاح از اسرائیل برای ترور شهید فخری زاده ویروس کرونا همچنان در کمین است ۹۳ درصد جرایم مربوط به سرقت است هشدارهواشناسی نسبت به تشدید بارش باران برخی مناطق اهواز همچنان آب‌گرفتگی دارند تلاش برای یافتن خاص ترین خودنگاره ون‌گوگ چرا با تعطیلی ۲هفته‌ای بانک‌ها موافقت نشد؟ داستان‌های بهزاد فراهانی منتشر شد اتحاد هواداران جانی دپ برای خریدن عطر دپ رضا شیری از ایران مهاجرت کرد/عکس دفترچه‌های بیمه درمانی حذف می‌شوند تفتیش خانه پزشک متهم به قتل مارادونا/تصاویر آتش زدن عکس بایدن خلاف منافع کشور است کرونا در ایران از ۱۰ آبان تا ۱۰ آذر/اینفوگرافیک هازارد داربی مادرید را از دست داد آذر محبی‌تهرانی «رامش»، خواننده قدیمی درگذشت خواسته بانک مرکزی شدنی نیست واردات ۱۰ میلیون دلاری ایران از سوریه اثرگذاری کاهش قیمت مرغ بر بازار گوشت قرمز تذکر اتاق اصناف به فروشگاه‌های زنجیره‌ای و واحدهای صنفی کرکره نیمه باز گزارش باورنکردنی از زایمان لاکچری در تاریخ رُند مادورو شماره تلفنش را به همه گفت! تاکید اون بهبود وضع اقتصادی کشورش علاوه بر نمایندگان، هیات دولت نیز واکسن گرفتند بازار پرندگان فریدونکنار تعطیل شود/آخرین وضعیت آنفلوانزای فوق حاد پرندگان در مازندران آمار کرونا کرمان ۱۰ آذر؛ ۲۵ فوتی و ۱۱۲ ابتلای جدید آمار کرونا استان فارس ۱۰ آذر؛ ۲۵ فوتی و ۱۲۱۰ ابتلای جدید آمار کرونا کرمانشاه ۱۰ آذر؛ ۹ فوتی و ۱۹۴ ابتلای جدید عکس روز/ کپی برابر اصل اجرای طرحی برای حمایت از ایده‌های زمین شناسی و ژئوتوریسم کیفیت خودروهای سنگین از سواری‌ها جلو زد بررسی اصلاح قانون بازار سرمایه در کمیسیون اقتصادی نوبخت با جذب ۳۰ هزار نیروی انسانی واحدهای بهداشتی موافقت کرد یک امر بی سابقه در تاریخ آمریکا

  • کد خبر : 191322
  • ۲۶ آبان ۱۳۹۹ - ۲:۲۹
0

دیپ فیک؛ خطرناک مثل بمب هسته‌ای

دیپ فیک؛ خطرناک مثل بمب هسته‌ای

اولین بار از این فناوری در شبکه اجتماعی ردیت رونمایی شد؛ زمانی که فردی با نام کاربری دیپ فیک ویدئویی تقلبی را در این برنامه به اشتراک گذاشت. در این ویدئو‌ها صورت بازیگران معروف با یکدیگر جابه‌جا شده بود و این مسئله توجه بسیاری را به خود جلب کرد.

قلم | qalamna.ir :
دیپ فیک؛خطرناک مثل بمب هسته‌ای
 
امین وصالی| پیشرفت فناوری نوین دیپ فیک، کاربران این روز‌ها بیش از همیشه در فضای مجازی احساس خطر می‌کنند. دیپ فیک اصطلاحی است که طی سال‌های اخیر بسیار در فضای مجازی مورد استفاده قرار گرفته است.
 
دیپ فیک در واقع نام فرآیندی است که طی آن یک یا چند کاربر محتوایی غیر واقعی را در فضای مجازی منتشر می‌کنند تا کاربران را گمراه کنند و ویدئو یا دیگر محتوا‌های درست شده را در قالب مدرکی اصل به افراد ارائه دهند.

در حالی که فناوری دیپ فیک پیش از این تنها در دستان سازمان‌های اطلاعاتی مانند CIA بود، امروزه هر کاربری می‌تواند با دانلود برنامه‌های تولید ویدئوی دیپ فیک به این فناوری دست پیدا کند و از آن برای اهداف غیراخلاقی استفاده کند.

 
با این وجود، یک ویدئوی دیپ فیک می‌تواند اشخاصی را که آگاهی کامل ندارند گمراه کند و یا در مواردی زندگی آن فرد را از بین ببرد. تا به امروز ویدئو‌های بسیاری ساخته و منتشر شده‌اند که ذهن کاربران را مشغول خود کرده بودند.
 
کاربران با استفاده از فناوری دیپ فیک ویدئویی ساخته بودند که در آن مارک زاکربرگ، مدیرعامل فیسبوک، ادعا می‌کرد بر روی اطلاعات خصوصی میلیارد‌ها انسان کنترل کامل دارد.

آیا دیپ فیک تنها شامل ویدئو‌های تقلبی می‌شود؟
خیر. دیپ فیک یک فناوری است که می‌توان با استفاده از آن تصاویری طبیعی را بدون وجود هیچ عکس دیگری تولید کرد. برای مثال مدتی پیش محققان متوجه شدند یکی از خبرنگاران بلومبرگ که با نام میسی کینزلی در شبکه‌های اجتماعی لینکدین و توئیتر نیز حساب کاربری داشت کاملاً شخصیتی غیر واقعی و ساخته شده توسط فناوری دیپ فیک بوده است.

 
یک فرد دیگر در این شبکه‌های اجتماعی با نام کیتی جنز حضور داشت که بعد‌ها مشخص شد با استفاده از فناوری دیپ فیک برای به دام انداختن جاسوس‌های خارجی ساخته شده است. در ادامه باید گفت فایل‌های صوتی نیز امکان ساخته شدن توسط دیپ فیک را دارند.

قویترین ویدئو‌های دیپ فیک
به عنوان مثال چند ماه پیش یکی از رؤسای انگلیسی یک شرکت آلمانی ۲۰۰ هزار یورو را به حساب بانکی فردی در مجارستان فرستاد چرا که کلاهبردار مورد نظر توانسته بود صدای مدیرعامل شرکت آلمانی را توسط فناوری دیپ فیک بازسازی کند.

 
با وجود آن که مسئولان شرکت مورد نظر و همچنین مدیرعامل این مجموعه اظهار داشتند تماس صوتی صورت گرفته تقلبی است، اما هیچ مدرکی برای اثبات چنین مسئله‌ای در دسترس قرار ندارد. گفتنی است؛ چنین اتفاقاتی طی سال‌های گذشته به مراتب رخ داده و بسیاری از آن‌ها نیز از طریق برنامه واتساپ صورت گرفته‌اند.
 
دیپ فیک؛خطرناک مثل بمب هسته‌ای
نحوه ساخت ویدئو‌های دیپ فیک
محققان بسیاری طی سال‌های گذشته سعی داشتند با استفاده از فناوری‌های مختلف و نرم افزار‌های ساخت ویدئو امکان تولید محتوای غیر واقعی را مورد بررسی قرار دهند. اما فناوری دیپ فیک به خودی خود در سال ۲۰۱۷ پا به جهان گشود.
 
اولین بار از این فناوری در شبکه اجتماعی ردیت رونمایی شد؛ زمانی که فردی با نام کاربری دیپ فیک ویدئویی تقلبی را در این برنامه به اشتراک گذاشت. در این ویدئو‌ها صورت بازیگران معروف با یکدیگر جابه‌جا شده بود و این مسئله توجه بسیاری را به خود جلب کرد.

تعویض صورت دو فرد در ویدئو به صورت دستی کار بسیار دشواری است چرا که فرد نیاز دارد ابتدا از صورت افراد در تمامی فریم‌های ویدئو عکس جداگانه بگیرد و سپس مراحل دیگر را انجام دهد، اما با استفاده از دیپ فیک این اتفاق به راحتی صورت می‌گیرد.

 
در این فرآیند هوش مصنوعی هزاران تصویر را از صورت فرد مورد نظر ثبت می‌کند که با عنوان رمزگذار شناخته می‌شود. این رمزگذار شباهت‌های بین صورت دو فرد را تشخیص می‌دهد و با توجه به آن‌ها تصاویری دریافت شده را جایگذاری می‌کند.

در مرحله دوم فرآیندی به نام رمزگشا شروع می‌شود که با توجه به تفاوت‌های هر صورت سعی می‌کند تعویض چهره‌ها را طبیعی‌تر جلوه دهد. در واقع تصاویر رمزگذاری شده فرد الف به فرآیند رمزگشایی فرد ب ارسال می‌شود تا تغییر تصاویر صورت گیرد. این فرآیند برای تمامی فریم‌های یک ویدئو صورت می‌گیرد که ممکن است از هزاران تا میلیون‌ها نمونه باشد.

در نوع دیگر ساخت ویدئو‌های دیپ فیک دو هوش مصنوعی با الگوریتم‌های مختلف با هم همکاری می‌کنند تا تصویر‌ها ساخته شوند. طی این فرآیند یک ژنراتور و یک تفکیک کننده وجود دارد.

 
همان‌طور که از نام این دو پیدا است، ژنراتور وظیفه تولید تصاویر را دارد و تفکیک کننده تشخیص می‌دهد که کدام عکس‌ها برای استفاده مناسب هستند. تصاویر تولید شده در مرحله اول کاملا خام هستند، اما با گذر زمان کاربر شاهد تشکیل یک تصویر و یا ویدئوی فوق حرفه‌ای خواهد بود.
 
چه کسانی ویدئوی دیپ فیک تولید می‌کنند؟
تمامی افراد از کاربران ساده تا محققان دنیای فناوری و سازندگان فیلم‌های سینمایی از چنین فناوری نوینی استفاده می‌کنند. همچنین گفته می‌شود دولت‌های کشور‌های بسیاری نیز برای برخی اقدامات خود این فناوری را مورد استفاده قرار می‌دهند. گفتنی است؛ بیشترین میزان استفاده از این فناوری متعلق به کلاهبرداران و سوءاستفاده‌گران اینترنتی است.
 
دیپ فیک؛خطرناک مثل بمب هسته‌ای
دیپ فیک چقدر خطرناک است؟
از زمان پیدایش فناوری دیپ فیک نگرانی بسیاری از کاربران فضای مجازی افزایش یافته است. این نگرانی به قدری است که نماینده حزب جمهوری‌خواه آمریکا در سال ۲۰۱۶ قدرت فناوری دیپ فیک را با سلاح هسته‌ای مقایسه کرد. وی طی صحبت‌های خود گفت: “اگر کسی می‌خواست در گذشته آمریکا را تهدید کند تنها به چند سلاح هسته‌ای و موشک نیاز داشت.
 
امروزه تنها کافی است که کشوری به سیستم اینترنتی آمریکا دسترسی پیدا کند. تنها چیزی که برای آسیب زدن به ما نیاز می‌شود امکان تولید محتوا‌های غیر واقعی و ویدئو‌های تقلبی بسیار واقع‌گرایانه است”.

تصاویر ساخته شده توسط دیپ فیک
با وجود این سخنان تیم هاونگ، مدیر اجرایی تحقیقات هوش مصنوعی دولت آمریکا سرسختانه مخالفت خود را نشان داده و در واکنش به صحبت‌های این نماینده سیاسی گفت که بعید می‌داند این فناوری به قدرتمندی بمب اتم باشد.

 
وی اظهار داشت: “من فکر می‌کنم از این فناوری استفاده‌های غیر اخلاقی بسیاری می‌شود و معتقد هستم این رفتار‌ها نگرانی اشخاص را افزایش می‌دهد، با این وجود شک دارم فناوری دیپ فیک چندان تغییر عظیمی در دنیا به وجود بیاورد و آسیب‌های گسترده‌ای را وارد کند”.

در مجموع باید گفت دیپ فیک نمی‌تواند در مقیاس بالا آسیبی را به یک کشور وارد کند، اما افراد سوءاستفاده‌گر می‌توانند از این فناوری برای باج‌گیری و یا آسیب زدن به کاربران عادی استفاده کنند.

فناوری شلو فیک که از قدرت کمتری نسبت به دیپ فیک برخوردار است نیز می‌تواند آسیب‌های مشابه‌ای را به جامعه برساند. برای مثال مدتی پیش طی یکی از جلسات سخنرانی دونالد ترامپ، رئیس جمهور آمریکا، جیم آکستا که از طرف شبکه CNN فرستاده شد سوالاتی پرسید و ترامپ را به چالش کشید.

به دنبال این عمل یکی از کارمندان کاخ سفید تصمیم گرفت میکروفن را از دست او بکشد و به صحبت‌های او پایان دهد.

 
در حالی که ویدئوی اصلی این اتفاق در فضای مجازی وجود دارد، اما نمونه‌ای دستکاری شده از آن نیز منتشر شده که نشان می‌دهد خبرنگار مذکور به کارمند کاخ سفید حمله می‌کند. انتشار چنین ویدئویی باعث شد ترس کاربران از فناوری دیپ فیک و شلو فیک بیشتر شود چرا که با وجود چنین ابزار‌هایی تمامی ویدئو‌ها به ساده‌ترین شکل ممکن قابل دستکاری هستند.

می‌توان گفت تشخیص ویدئو‌های دیپ فیک که با کیفیت بالا طراحی شده‌اند بسیار دشوار است. از طرف دیگر ویدئو‌های دیپ فیک که توسط کاربران و با برنامه‌های اینترنتی ساخته می‌شوند به راحتی قابل تشخیص هستند چرا که زمان زیادی صرف ساخت آن‌ها نمی‌شوند.

 
دیپ فیک؛خطرناک مثل بمب هسته‌ای
 
ویدئو‌هایی که توسط فرآیند GAN، دومین مدل ساخت دیپ فیک‌ها، ساخته می‌شوند معمولا از کیفیت بالاتری برخوردار هستند و بیشتر مواقع کاربران برای تشخیص آن‌ها نیاز به یک هوش مصنوعی دیگر دارند.

در حال حاضر شرکت‌های تحقیقاتی بسیاری سعی دارند روش‌های قابل اعتماد‌تری را برای تشخیص ویدئو‌های دیپ فیک قوی پیدا کنند.

 
با این حال از آن جایی که فرآیند GAN از دو هوش مصنوعی برای تولید ویدئو‌ها بهره می‌برد امکان تشخیص ویدئو‌های آن‌ها همواره در حال سخت‌تر شدن است. همان‌طور که بسیاری از کاربران مطلع هستند، هوش‌های مصنوعی می‌توانند مسائل جدید را یاد بگیرند و ایرادات خود را در طی زمان برطرف کنند.

در واقع اگر یک فرد تمامی اطلاعات مربوط به تشخیص ویدئو‌های دیپ فیک را در اختیار هوش‌های مصنوعی GAN قرار دهد دیگر هیچ راهی برای تشخیص صحت آن‌ها وجود نخواهد داشت. چنین مسئله‌ای باعث از بین رفتن اعتماد به محتوای قرار گرفته شده در اینترنت و رسانه‌ها می‌شود. با تمامی این مسائل محققان همچنان باور دارند راهی برای تشخیص صحت ویدئو‌ها پیدا خواهد شد.

به دنبال این مسائل کاربران فضای مجازی باید مراقب تصاویری که در شبکه‌های اجتماعی قرار می‌دهند باشند. همان‌طور که مدتی پیش ربات‌هایی در تلگرام برای ساخت محتوای غیر اخلاقی توسط تصویر کاربران ساخته شده بود و افراد زیادی مورد سوءاستفاده قرار گرفتند، هر شخصی که افراد ناشناس را در صفحات خود راه می‌دهد ممکن است در معرض چنین خطر‌هایی قرار گیرد.

هشتگ: , , , , , , , , , , , , , , , , , , ,

دیدگاه

مجموع دیدگاهها : 0در انتظار بررسی : 0انتشار یافته : ۰
قوانین ارسال دیدگاه
  • نظراتی كه به تعميق و گسترش بحث كمك كنند، پس از مدت كوتاهی در معرض ملاحظه و قضاوت ديگر بينندگان قرار مي گيرد.
  •  نظرات حاوی توهين، افترا، تهمت و نيش به ديگران منتشر نمی شود.
  • نظراتی که به غیر از زبان فارسی یا غیر مرتبط باشد منتشر نخواهد شد.
 

استفاده از اخبار با ذکر منبع وبگاه خبری قلم مجاز است.

2011 - 2020 ©
Qalam News Agency qalamna.ir . All rights reserved