ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۱۲ مطلب با کلمه‌ی کلیدی «دیپ فیک» ثبت شده است

تحلیل


شناسایی ویدئوهای جعل عمیق با ترفند ساده

يكشنبه, ۲۳ مرداد ۱۴۰۱، ۰۳:۳۶ ب.ظ | ۰ نظر

محققان یک روش ساده برای شناسایی تماس‌های ویدئویی مبتنی بر جعل عمیق یافته‌اند. در این روش تنها باید از تماس گیرنده بخواهید تا سرش را 90 درجه بچرخاند.

به گزارش فارس به نقل از نکست وب، پژوهشگران یک راه ساده و شگفت‌آور برای شناسایی تماس‌های ویدیویی جعل عمیق کشف کرده‌اند. تنها کافی است از فرد مظنون بخواهید سرش را به طرفین بچرخاند.

این ترفند طی هفته جاری توسط Metaphysic.ai، ابداع شد که یک استارت‌آپ مستقر در لندن است و قصد داشت با سوءاستفاده از شخصیت تام کروز برای تولید ویدئوهای جعل عمیق مقابله کند.

این شرکت از DeepFaceLive استفاده کرد که یک برنامه محبوب برای تولید تصاویر جعل عمیق ویدیویی و تبدیل یک داوطلب به افراد مشهور است.

بسیاری از چهره ها زمانی که مستقیم به جلو نگاه می کردند، دقیق و مشابه با افراد مورد تقلید بودند. اما هنگامی که چهره ها 90 درجه کامل چرخیدند، تصاویر مخدوش شدند و شناسایی کلاهبرداری با استفاده از نرم افزار جعل عمیق شد. به نظر می رسد کمبود داده برای تولید تصاویر افراد از دو طرف و نه روبرو عامل این مساله باشد. لذا ممکن است این روش مقابله با ویدئوهای جعل عمیق در آینده موثر نباشد.

با رشد سریع فناوری جعل عمیق یا «دیپ فیک» در جهان و ساخت ویدئوهای مختلف با کمک این فناوری، اکنون کارشناسان ابراز نگرانی کرده‌اند که این محتواها ممکن است زندگی افراد را به خطر بیندازد.

به گزارش فارس به نقل از البلد، بسیاری از کارشناسان نسبت به رشد سریع ویدئوهای جعل عمیق یا «دیپ فیک» هشدار می دهند. آنچه به عنوان فناوری جعل عمیق شناخته می شود، کپی های جعلی از چهره افراد است که کاملا طبیعی به نظر می رسد. در این ویدئوها از تکنیک های هوش مصنوعی برای تغییر چهره افراد استفاده می شود تا علاوه بر چهره، صدا نیز شبیه به واقعیت باشد.

سایت کانورزیشن درباره این فناوری نوشته که ویدئوهای دیپ فیک به طرز وحشتناکی در شبکه های اجتماعی، به ویژه تیک تاک در حال پخش شدن هستند. از جمله ویدئوهای افراد مشهوری مانند تام کروز، بازیگر و سران کشورها مانند اوباما، رئیس جمهور سابق ایالات متحده که تاکنون میلیون ها بازدید داشته است.

ساخت این ویدئوها ممکن است از جعل چهره شخصیت‌های معروف به افراد عادی برسد. کارشناسان نگرانند سازندگان این ویدئوها از آنها در کمپین‌های گمراه‌کننده، کلاهبرداری هویتی و افترا به افراد دیگر استفاده کنند. استفاده از این ویدئوها با چهره افراد عادی و سلبریتی‌ها منجر به اختلالات امنیتی و اجتماعی می شود.

اگرچه فناوری به کار رفته در این ویدئوها بسیار دقیق است و استفاده از آنها به قابلیت ها و ابزارهای بالایی نیاز دارد، اما به مرور زمان دسترسی به آن ها آسان شده و از سوی دیگر، برنامه هایی وجود دارند که می توان با آنها این نوع ویدئوها را ساخت.

این فناوری مشکلات بسیاری را به همراه دارد. استفاده از آن به‌عنوان اخبار جعلی و اطلاعات نادرست ، بی اعتبار کردن افراد مشهور یا حتی ساخت پورنوگرافی جعلی از کاربردهای خطرناک دیپ فیک است.

البته خطرناک ترین استفاده دیپ فیک، بدنام کردن افراد است. در سال 2019، یک شرکت نرم افزاری به این نتیجه رسید که 96 درصد از 14 هزار ویدئوی دیپ فیک دارای محتوای مستهجن بوده و برای ساخت آنها از برنامه های رایگان استفاده شده و انگیزه ساختشان نیز انتقام و باج گیری بوده است.

این فناوری همچنین برای کلاهبرداری مورد استفاده قرار می گیرد. در این مورد، پیام های ویدئویی به منظور درخواست پول از طرف یک همکار یا آشنای مورد اعتماد به دیگر کاربران ارسال می شود. در یک مطالعه تحقیقاتی مشخص شد که در سال 2020 کلاهبرداری هویت با استفاده از دیپ فیک 20 دلار هزینه برای موسسات مالی آمریکا در پی داشته است.

در سال 2019، فیس‌بوک به دلیل عدم حذف ویدئوی جعلی نانسی پلوسی، سیاستمدار و رئیس مجلس نمایندگان آمریکا مورد انتقاد قرار گرفت و در سال 2020، توییتر اشتراک‌گذاری این محتواها را که می‌توانست مردم را فریب دهد، گیج کند یا به آنها آسیب برساند، ممنوع کرد. البته تیک تاک نیز همین تصمیم را گرفته است.

دستورالعمل جدید اروپا برای مهار «دیپ فیک»

سه شنبه, ۲۴ خرداد ۱۴۰۱، ۰۲:۵۷ ب.ظ | ۰ نظر

طبق آپدیت آیین نامه اجرایی اتحادیه اروپا،گوگل، فیس بوک، توئیتر و دیگر شرکت های فناوری باید اقداماتی برای مقابله با دیپ فیلک و حساب های کاربری جعلی در پلتفرم شان انجام دهند.

به گزارش خبرگزاری مهر به نقل از رویترز، پیش بینی می شود کمیسیون اتحادیه اروپا آیین نامه به روزرسانی شده درباره اخبار جعلی را به عنوان بخشی از اقدامات خود برای مقابله با این پدیده، روز پنج شنبه اعلام کند.

این اقدام در سال ۲۰۱۸ میلادی به عنوان یک رویه داوطلبانه اعلام شد و اکنون به یک قانون تبدیل می شود و مسئولیت اجرای آن بر عهده رگولاتورها و امضا کنندگان قانون است.

قانون به روزرسانی شده مواردی مانند دیپ فیک و حساب های جعلی را کنترل می کند.

در سند مربوط به این دستورالعمل آمده است: امضا کنندگان باید با توجه به جدیدترین شواهد در مورد رفتارها و تاکتیک ها، تکنیک ها و رویه های (TTP) عوامل مخرب در خصوص هر فعالیتی برای دستکاری واقعیت در سرویس های شان سیاست های شفافی در پیش بگیرند و اجرا کنند.

محتواهای دیپ فیک در حقیقت نوعی جعل محتوای فراواقعی است که با روش های کامپیوتری ایجاد می شود و به خصوص هنگام استفاده در بستر سیاسی، نگرانی های زیادی را به وجود می آورد.

این دستورالعمل همچنین به قوانین سختگیرانه جدید اتحادیه اروپا به نام «قانون سرویس های دیجیتال» مرتبط است که در اوایل سال جاری مورد توافق ۲۷ کشور عضو اتحادیه اروپا قرار گرفت و بخشی از آن به مقابله با اخبار جعلی پرداخته است.

براساس قانون سرویس های دیجیتال، شرکت هایی که نتوانند مسئولیت های خود براساس این قوانین را انجام دهند با جریمه هایی تا ۶ درصد درآمد سالانه شان در سراسر جهان روبرو می شوند. شرکت ها پس از امضای دستورالعمل ۶ ماه فرصت دارند تا اقدامات لازم را اجرا کنند.

امضاکنندگان قانون باید اقداماتی برای مقابله با تبلیغاتی در پیش گیرند که حاوی اخبار جعلی هستند و شفافیت بیشتری درباره تبلیغات سیاسی فراهم کنند.

تیری برتون کمیسیونر اروپا در امور داخلی در این باره می گوید: قانون سرویس های دیجیتال زیرساخت حقوقی برای دستورالعمل مقابله با اخبار جعلی فراهم می کند که شامل تحریم هایی بازدارنده است.

فناوری «دیپ‌فیک» ترکیبی است از یادگیری عمیق و جعل که مرز بین حقیقت و دروغ در آن نامشخص است.

به گزارش آنا، هوش مصنوعی به‌سرعت در حال پیشرفت است و از این تکنولوژی در زمینه‌های مختلف برای اهداف بی‌شماری استفاده می‌شود. کیفیت و کارایی بسیاری از صنایع با استفاده از هوش مصنوعی بهبود پیدا کرده است. هوش مصنوعی دارای مزایا و معایب زیادی است. این طور نیست که همیشه تأثیر مثبت بر جامعه داشته باشد. گاهی‌ اوقات فناوری‌هایی ایجاد می‌شود که در مراحل بعد توسط مجرمان می‌تواند مورد سوءاستفاده قرار بگیرد.

فناوری دیپ‌فیک از آن دسته فناوری‌هایی است که بر جامعه می‌تواند اثرات مخربی داشته باشد. این برنامه‌های مبتنی‌ بر هوش مصنوعی به‌گونه‌ای آموزش داده می‌شود که چهره یک فرد را با چهره دیگری در تصویر یا ویدئو جایگزین می‌کنند. اغلب افراد مشهور و سیاستمدار قربانیان این فناوری هستند. در این گزارش توضیح می‌دهیم که این فناوری بر چه اساسی است و چه روش‌هایی برای تشخیص آن وجود دارد.

 

فناوری «دیپ‌فیک» چیست؟
کلمه دیپ‌فیک ترکیبی از دو کلمه عمیق و جعلی است. کلمه «دیپ» به فناوری هوش مصنوعی اشاره می‌کند که به‌عنوان یادگیری عمیق شناخته می‌شود. فناوری دیپ‌فیک در رسانه‌های مصنوعی برای ایجاد محتوای جعلی، جایگزینی یا ترکیب چهره‌ها، گفتار و دستکاری احساسات استفاده می‌شود. این کار برای تقلید دیجیتالی از عملی توسط شخص استفاده می‌شود که او مرتکب جرم نشده است. اولین کسانی‌که شروع به ایجاد این فناوری کردند در دهه ۹۰ توسط موسسات دانشگاهی انجام شد و بعدها توسط مخاطبان گسترده‌تری استفاده شد. این فناوری در فضای رسانه‌ای سر و صدای زیادی ایجاد کرده است.

نرم‌افزار دیپ‌فیک با استفاده از الگوریتم‌های یادگیری ماشینی ایجاد می‌شود. در واقع این فناوری از الگوریتم‌هایی استفاده می‌کند که می‌تواند محتوا را بر اساس ورودی داده تولید کند. در ابتدا این برنامه مقدار زیادی داده دریافت می‌کند که سپس از آن‌ها برای یادگیری ایجاد داده‌های جدید خود استفاده می‌کند.


«دیپ‌فیک» می‌تواند خطرناک باشد
دیپ‌فیک به‌عنوان یکی از خطرناک‌ترین کاربردهای هوش مصنوعی در سراسر جهان شناخته شده است. از این فناوری در دنیای واقعی بیش‌تر برای هدف کلاهبرداری و بی‌اعتبار کردن افراد استفاده می‌شود. برای اولین بار در بریتانیا از این فناوری در جهت منفی استفاده کردند. کلاهبرداران با مدیرعامل یک شرکت انرژی مستقر در بریتانیا تماس برقرار کردند و با استفاده از این فناوری صدای رئیس آلمان را نیز جعل کرده و به او دستور دادند که مبلغ ۲۲۰ هزار یورو به حساب بانکی شخص ثالث منتقل کند.

این فناوری به اندازه‌ای دقیق است که امکان دارد افراد نتوانند نتیجه نهایی جعلی را از واقعیت تشخیص دهند. این فناوری می‌تواند اعتبار یک فرد را به‌شدت تضعیف کند. کلاهبردان از این فناوری به عنوان یک سلاح عالی استفاده می‌کنند. دانشمندان در تلاش هستند تا سیستمی ایجاد کنند و بتوانند واقعیت را از دروغ تشخیص دهند، اما متأسفانه ایجاد چنین سیستمی کمی زمان‌بر است. استفاده از این برنامه نیاز به آموزش دارد و افراد بدون آگاهی اولیه نمی‌توانند از آن استفاده کنند.

 

تأثیر فناوری وحشتناک بر جامعه چیست؟
از فناوری همان‌طور که می‌توان برای پیشرفت جامعه و ترقی کشور استفاده کرد، در زمینه‌های منفی نیز کاربرد دارد. این فناوری اگر به دست افراد نادرست بیفتد موجب هرج‌ومرج در جامعه می‌شود و اطمینان به‌طور کامل در میان مردم از بین می‌رود. همچنین در موارد متعدد ویدئوهای مستهجن دیپ‌فیک با با حضور افراد مشهور در اینترنت پدیدار شد. این فناوری چندین رئیس‌جمهور ایالات متحده را نیز گرفتار کرده است. اخبار جعلی منتشر شده در اینترنت می‌تواند اعتبار یک کشور را زیر سوال ببرد و منجر به بی‌اعتمادی در جامعه شود.

فناوری دیپ‌فیک در چند سال اخیر بسیار گسترش پیدا کرده است، اما قوانین مرتبط با این فناوری هنوز چندان مشخص نیست. در بسیاری از کشورها هنوز هیچ قانونی مبنی‌ بر غیرقانونی بودن آن وجود ندارد. تنها کشوری که برای استفاده از این فناوری قانون خاصی دارد، کشور چین است. اداره فضای مجازی کشور چین اعلام کرده است؛ افرادی که اخبار جعلی با استفاده از این فناوری ایجاد کنند، کاری غیر قانونی انجام دادند و با توجه به قانون با آن‌ها برخورد می‌شود. همچنین محتوای دیپ جعلی برای نامزدهای شرکت‌کننده در مناصب دولتی ممنوع شده است. بسیاری از سلبریتی‌های زن قربانی این فناوری دروغین شده‌اند. در واقع گسترش دیپ‌فیک با فیلم‌های مستهجن آغاز شد.

فناوری دیپ‌فیک هنوز سابقه‌ای در سراسر جهان ندارد و بسیار امیدوارکننده است. بشریت هنوز در حال آشنایی با این فناوری است. کاربرد کامل آن هنوز در جامعه به‌طور کامل مشخص نشده است. این فناوری نیز مانند فناوری‌های دیگر دارای مزایا و معایب هستند. همچنین می‌تواند موجب پیشرفت و آسیب به جامعه باشد. این فناوری نیز به مرور زمان توسعه پیدا می‌کند و با گذشت زمان راه‌های کنترل برای آن به‌ وجود خواهد آمد. افراد باید به‌طور کامل با این فناوری آشنایی پیدا کنند تا قربانی این فناوری نشوند.

تهدید امنیت کشورها با تصاویر ماهواره‌ای «دیپ فیک»

چهارشنبه, ۸ ارديبهشت ۱۴۰۰، ۰۳:۴۰ ب.ظ | ۰ نظر

محققان دانشگاه واشنگتن هشدار داده‌اند تهیه تصاویر ماهواره‌ای جعلی با استفاده از فناوری جعل عمیق یا دیپ فیک می‌تواند امنیت ملی کشورها را به خطر بیندازد.

به گزارش خبرگزاری مهر به نقل از انگجت، پیش از این نگرانی از تهیه محتوای ویدئویی یا تصویری جعلی و قلابی از اشخاص مشهور با استفاده از فناوری جعل عمیق موجب نگرانی‌های امنیتی شده بود. اما حالا دامنه این تهدید به تهیه تصاویر ماهواره‌ای جعلی کشیده شده است.

این پژوهشگران می‌گویند با استفاده از الگوریتم‌های هوش مصنوعی و از طریق تغذیه این الگوریتم‌ها با استفاده از عکس‌ها و نقشه‌های ماهواره‌ای مختلف، می‌توان تصاویر ماهواره‌ای جعل عمیق تهیه کرد که حاوی جاده‌ها، ساختمان‌ها، عوارض جغرافیایی و غیره غیر واقعی باشند یا ابعاد و ارتفاع و موقعیت ساختمان‌ها، جاده‌ها و غیره در آنها با اهداف مغرضانه جابجا شده باشند.

اگر چه از فناوری جعل عمیق می‌توان برای شبیه سازی تغییرات مناطق مختلف جغرافیایی با هدف تحقیق در مورد گرمایش زمین، گسترش شهرنشینی، پیش بینی تحولات آتی و غیره استفاده کرد، اما فناوری یادشده می‌تواند کارکردهای خطرناکی نیز داشته باشد. به عنوان مثال یک کشور متخاصم می‌تواند تصاویر دروغین ماهواره‌ای را برای کشورهای هدف ارسال کند تا استراتژیست‌های نظامی آنها را گمراه کند.

در چنین نقشه‌هایی ممکن است ساختمان‌ها و پل‌هایی که اهداف نظامی ارزشمندی هستند، حذف شوند. همچنین ممکن است از تصاویر ماهواره‌ای جعل عمیق برای پیشبرد اهداف سیاسی، مانند پنهان کردن شواهد جنایات یا مخفی کردن نشانه‌های تغییرات مخرب آب و هوایی استفاده شود. از همین رو باید روشی اطمینان آور برای شناسایی این نوع تصاویر ماهواره‌ای جعلی ابداع شود.

«جعل عمیق» خطرناک‌ترین فناوری قرن شد

يكشنبه, ۲۴ اسفند ۱۳۹۹، ۰۲:۴۸ ب.ظ | ۰ نظر

میثم لطفی - برای کسانی که از آینده می‌ترسند و همواره نگران هستند بخش های دلهره‌آور فیلم‌های تخیلی روزی به حقیقت بپیوندد باید گفت فناوری «جعل عمیق» این نگرانی را تا حدودی به حقیقت بدل کرده است.

به گزارش روزنامه نیویورک تایمز، در حالی که میلیون‌ها کاربر این هفته ویدیوی «تام کروز» بازیگر مشهور را در شبکه‌های اجتماعی مشاهده می‌کردند مشخص شد این تصاویر با فناوری هوش مصنوعی و به روش جعل عمیق ساخته شده است.
ویدیویی که در تیک‌تاک، توئیتر و سایر شبکه‌های اجتماعی بین میلیون‌ها کاربر دست به دست شد توسط یک هنرمند جلوه‌های تصویری و با شبیه‌سازی یکی از برنامه‌های «بیل هیدر» بازیگر هالیوودی ساخته شد. در این برنامه که اصل آن متعلق به یک گفت‌وگوی تلویزیونی در سال ۲۰۰۸ است، «بیل هیدر» در حال تعریف کردن خاطره از اولین ملاقات خود با «تام کروز» در جلسه سناریوخوانی دیده می‌شود.
گفته می‌شود در این ویدیو هر زمان «هیدر» مطلبی را از تام کروز نقل می‌کند، ناگهان اجزای صورت و حالاتش به شکل او درمی‌آید. یک حساب کاربری در یوتیوب که نخستین بار این تصویر ویدیویی را منتشر کرد پیش از این با استفاده از جعل عمیق، تصویر ویدیویی «آرنولد شوارتزنگر» بازیگر دیگر سینما را پخش کرده بود. فریب میلیون‌ها کاربر جهانی با ویدیویی که جعلی بودن آن به هیچ وجه قابل تشخیص نبود باعث شد تا نیویورک تایمز از «جعل عمیق» به‌عنوان «خطرناک‌ترین فناوری قرن» یاد کند.


جعلی یا واقعی؟
براساس سنت سالانه انگلستان ساعت سه بعد ازظهر روز کریسمس سخنرانی ملکه الیزابت دوم از طریق تلویزیون ملی این کشور پخش شد و طبق روال معمول شبکه چهار تلویزیون هم به‌صورت همزمان ویدیوی فرد دیگری را برای مخاطبان خود ارائه کرد. پیش‌تر در چنین روزی سخنرانی افراد مشهوری از جمله «ادوارد اسنودن»، پیمانکار سابق آژانس امنیت ملی امریکا و... به‌صورت همزمان با صحبت‌های ملکه پخش شده بود و مخاطبان شبکه چهار امسال ملکه و خانواده سلطنتی انگلستان را مشاهده کردند که در حال رقص و پایکوبی بودند و به نظر می‌رسید تصاویر ویدیویی را برای شبکه اجتماعی تیک‌تاک ضبط کرده‌اند. طولی نکشید که رسانه‌های خبری توضیح دادند که مردم در حال تماشای نسخه دستکاری شده دیجیتالی ملکه بودند که با استفاده از فناوری جعل عمیق ساخته و صدای او هم توسط «دبرا استیونسون» بازیگر و کمدین مشهور تقلید شده بود.
به گفته شبکه چهار تلویزیون ملی انگلستان، این برنامه به‌عنوان یک هشدار کاملاً جدی در مورد تهدیدهای بالقوه و خطرناک فناوری جعل عمیق و اخبار جعلی پخش شد و «ایان کاتز»، مدیر برنامه‌های این شبکه، ویدیوی مذکور را «یادآوری قدرتمندی توصیف کرد که با آن حتی نمی‌توانیم به چشمان خود هم اعتماد کنیم.»
«جعل عمیق» یا «دیپ فِیک» نوع ویژه‌ای از فناوری هوش مصنوعی است که بواسطه کارکرد خود برای نامگذاری آن دو اصطلاح «یادگیری عمیق» و «جعلی» باهم ترکیب شده‌اند. این فناوری تکنیک ویژه‌ای برای ترکیب تصویر انسان مبتنی بر هوش مصنوعی است که در آن تصاویر و فیلم‌های موجود روی تصاویر یا فیلم‌های منبع قرار می‌گیرد و از قابلیت ویژه فناوری یادگیری ماشینی موسوم به «شبکه مولد تخاصمی» (GAN) استفاده می‌شود. ویدیوی جعلی که از این طریق ساخته می‌شود ترکیب فیلم‌های موجود و منبع است که فرد یا افرادی را درحال انجام یک کار در موقعیت ویژه نشان می‌دهد که هرگز در واقعیت اتفاق نیفتاده است.
این فیلم‌های تقلبی می‌توانند فرد را در حال انجام اقداماتی نشان دهند که هرگز در آن حضور نداشتند و همچنین از آن برای تغییر کلمات یا حرکات یک سیاستمدار استفاده کنند تا به نظر برسد آن فرد چیزی را گفته که هرگز به زبان نیاورده ‌است. به‌عنوان مثال، اکتبر گذشته زمانی که کاخ سفید خبر ابتلای «دونالد ترامپ» به کرونا را منتشر کرد، حساب توئیتری رئیس‌جمهوری سابق امریکا ویدیوی کوتاهی را از او منتشر کرد که به نظر می‌رسید دقایقی پیش از سوار شدن ترامپ به هلی‌کوپتر برای انتقال به بیمارستان ضبط شده بود. ترامپ در این ویدیو از حمایت‌ها و پیام‌های محبت‌آمیزی که در ساعات گذشته دریافت کرده بود تشکر کرد و توضیح داد که حال عمومی او خوب است ولی طولی نکشید که خبرگزاری‌ها با تحلیل‌های دقیق‌تر توضیح دادند این ویدیو به احتمال قوی توسط فناوری جعل عمیق ساخته شده است و در اصل «دونالد ترامپ» واقعی در این ویدیو حضور نداشته است.
پیش از این خبرگزاری چینی شینهوا و موتور جست‌وجوی اینترنتی Sogou در یک پروژه مشترک با استفاده از فناوری جعل عمیق مجری تلویزیونی را طراحی کردند که شکل ظاهری شبیه یک مرد دارد و با ایجاد صدا و حرکات چهره انسان، اخبار را به‌صورت کاملاً حرفه‌ای می‌خواند و بیننده تصور می‌کند گوینده واقعی در مقابل چشمان او قرار گرفته است. این خبرگزاری چینی کارمند جدید خود را که در اصل وجود خارجی ندارد یک گوینده حرفه‌ای و خستگی‌ناپذیر معرفی کرد که تمامی اخبار روز را به‌صورت ۲۴ ساعته گزارش می‌دهد.


مفید یا مضر؟
فناوری جعل عمیق برای برخی کاربران شاید در ابتدا سرگرم کننده به نظر برسد تا با اپلیکیشن‌های موبایلی و ساخت این گونه تصاویر ویدیویی بتوانند توجه بیشتری از مخاطبان شبکه‌های اجتماعی را به خود جلب کنند ولی برای کارشناسان این طور به نظر نمی‌رسد.
«متئو کالدوِل» از محققان دانشگاه سلطنتی لندن در این خصوص گفت: «مردم این روزها بخش‌های زیادی از زندگی روزمره خود را به دنیای مجازی سپرده‌اند و فعالیت آنلاین آنها روی تمام بخش‌های زندگی‌شان تأثیر می‌گذارد. محیط‌های آنلاین که در آن داده‌ها از قدرت و اثرگذاری بالایی برخوردار هستند، با استفاده از فناوری هوش مصنوعی برای بهره‌ برداری‌های مجرمانه هم به کار گرفته می‌شوند.»
او همچنین توضیح داد:‌ «جرایم حوزه دیجیتال برخلاف بسیاری از جرایم سنتی براحتی قابل تکرار نیستند و این اتفاق به مجرمان امکان می‌دهد تکنیک‌های جنایی خود را به‌صورت انحصاری به بازار عرضه کنند و کاربران را مورد سوءاستفاده قرار دهند. این مسأله به آن معنی است که مجرمان سایبری ممکن است جنبه‌های چالش برانگیز جنایت مبتنی بر هوش مصنوعی را برون سپاری کنند تا از این طریق بتوانند به‌صورت حرفه‌ای‌تر پروژه‌های خود را پیش ببرند.»
دانشگاه سلطنتی لندن در بررسی‌های خود به این نتیجه رسید که فناوری جعل عمیق این روزها به‌صورت ویژه برای ساخت فیلم‌های مستهجن مورد استفاده قرار می‌گیرد. تحقیقات این مرکز در ژوئن ۲۰۲۰ نشان داد ۹۶ درصد تصاویر جعل عمیق در حوزه فیلم‌های مستهجن ساخته شده است و تقریباً نزدیک به ۱۰۰ درصد این فیلم‌ها با هدف ضربه زدن به زنان پخش شده‌اند. با این حال بسیاری از مردم استفاده از اطلاعات نادرست آنلاین را پیش شرط اصلی برای توسعه تصاویر جعل عمیق می‌دانند.
در سال ۲۰۱۹ میلادی حزب محافظه کار انگلیس ویدیویی از «کایر استارمر» رهبر فعلی حزب کارگر این کشور منتشر کرد تا نشان دهد او در مصاحبه مطبوعاتی نسبت به گذشته عملکرد بدتری دارد. در این زمینه اقدام مشابه توسط طرفداران حزب جمهوریخواه امریکا صورت گرفت و این اتفاق در نهایت باعث شد نسخه ویرایش شده تصاویر ویدیویی «نانسی پلوسی» رئیس دموکرات مجلس نمایندگان امریکا بین کاربران منتشر شود و حتی «دونالد ترامپ» هم آن را به اشتراک بگذارد.
اگرچه این ویدیوها با فناوری جعل عمیق ساخته نشده بودند و در عوض به‌صورت زیرکانه ویرایش شدند، ولی این مسأله نشان داد برای محتوای ویدیویی دستکاری شده بازار پرمخاطبی وجود دارد که مخالفان سیاسی می‌توانند از آن سوءاستفاده کنند.
محققان علاوه بر محتوای جعل عمیق، پنج فناوری دیگر را هم مورد توجه قرار داده‌اند که با استفاده از هوش مصنوعی توسعه پیدا می‌کنند و در آینده نزدیک می‌توانند نگرانی‌های زیادی برای مردم ایجاد کنند. استفاده از اتومبیل‌های بدون راننده به‌عنوان سلاح، استفاده از فناوری یادگیری ماشینی برای هدایت پیام‌های مخصوص کلاهبرداری، ایجاد اختلال در سیستم‌های کنترل ماشینی، نشر اخبار جعلی و جمع‌آوری اطلاعات آنلاین برای باجگیری پنج فناوری مذکور هستند و باید دید شرکت‌های توسعه دهنده سیستم‌های امنیت سایبری تا چه اندازه می‌توانند با این مشکلات مقابله کنند. (منبع:ایران)

شیوع کرونا و در پیش بودن انتخابات ریاست جمهوری آمریکا نگرانی در مورد انتشار ویدئوهای جعل عمیق را افزایش داده و از همین رو مایکروسافت ابزاری برای شناسایی این ویدئوها عرضه کرده است.

به گزارش خبرگزاری مهر به نقل از انگجت، ابزار جدید مایکروسافت شناسایی کننده اصالت ویدئوها نام دارد و با تحلیل ویدئوها و عکس‌های موجود در اینترنت تشخیص خواهد داد که آیا این نوع محتواها واقعی هستند یا دستکاری شده و فاقد سندیت هستند.

در نهایت ابزار مذکور بعد از بررسی عکس‌ها و فیلم‌های ارسالی به آنها امتیاز اعتماد می‌دهد یا شانس واقعی بودن آنها را بر مبنای درصد نمایش می‌دهد. مایکروسافت تحلیل ویدئوها را با استفاده از ابزار خود به صورت فریم به فریم انجام می‌دهد.

مایکروسافت مدعی است ابزار یادشده عناصر ظریفی را در عکس‌ها و ویدئوها مورد بررسی و توجه قرار می‌دهد که معمولاً انسان با چشم خود قادر به تشخیص آنها نیست.

تولیدکنندگان محتوا و فعالان حوزه رسانه و خبر هم می‌توانند برای صدور تاییدیه اصالت تولیدات خود از این ابزار استفاده کنند تا برچسب واقعی بودن عکس‌ها و ویدئوهای آنها به محتوای ارسالی آنها اضافه شود. از این طریق کاربران اینترنت هم راحت تر می‌توانند به محتوای یادشده اعتماد کنند.

نحوه مبارزه توئیتر با «دیپ فیک» مشخص شد

سه شنبه, ۲۱ آبان ۱۳۹۸، ۰۲:۱۰ ب.ظ | ۰ نظر

توئیتر که از برنامه های خود برای مقابله با ویدئوهای جعل عمیق خبر داده بود، امروز جزئیاتی را در مورد تبعات شناسایی و شرایط حذف این ویدئوها اعلام کرده است.

به گزارش خبرگزاری مهر به نقل از انگجت، توئیتر پیش نویس دستورالعملی را در وبلاگ خود منتشر کرده که نشان می دهد این شرکت چگونه می خواهد با ویدئوهای دیپ فیک یا جعل عمیق را شناسایی کند و به حذف آنها کمک کند. دستورالعمل یادشده سیاست های توئیتر را هم در این زمینه مشخص کرده است.

در سند یادشده ویدئوهای جعل عمیق یک ابزار رسانه ای مصنوعی و دستکاری شده توصیف شده اند که می توانند در قالب عکس، فایل های صوتی یا ویدئویی با هدف گمراه کردن افراد و تغییر معنای واقعی فایل های اصلی منتشر شوند.

در ادامه این سند آمده است در صورتی که توئیتر عکس، صدا یا فایل ویدئویی جعل عمیق را شناسایی کند، یک پیام هشدار به توئیت هایی که این محتوا را منتشر کنند، اضافه می کند. همچنین به افراد در مورد به اشتراک گذاری و لایک زدن تویئت های حاوی این محتوا از قبل هشدار می دهد.

همچنین توئیتر به طور خودکار لینک به یک خبر را به چنین توئیتی اضافه می کند تا افراد بتوانند مطالب دست اولی را در مورد محتوای جعل شده دریافتکنند.

در دستورالعمل یادشده تصریح شده اگر توئیتر به این نتیجه برسد که توئیتی به علت انتشار چنین محتوای دروغینی می تواند امنیت فیزیکی فردی را به خطر بیندازد یا موجب آسیب جدی شخص یا اشخاصی شود، آن را به طور کامل پاک می کند. این شرکت سال گذشته اعلام کرده بود که اجازه انتشار هیچ ویدئوی جعل عمیق هرزه نگارانه ای را نخواهد داد.

این دستورالعمل ها هنوز قطعی نشده و احتمالا ظرف سی روز آینده در مورد آنها جمع بندی خواهد شد. این شرکت در مورد نحوه شناسایی توئیت های حاوی محتوای جعل عمیق نیز توضیحات فنی چندانی ارائه نکرده است.

در جهانی که سرعت تبادل اطلاعات اصالت منبع داده‌ها را به فراموشی سپرده، معضل تازه‌ای به نام «دیپ فیک» مبنا قرار دادن فیلم را هم به چالش کشیده‌ است؛ همین موضوع، مدیران شبکه‌های مجازی مانند توئیتر را به واکنش وادار کرده‌ و آنها ...

آیا "دیپ‌فیک" دودمان شبکه‌های اجتماعی را به باد می‌دهد؟!

به گزارش تسنیم؛ سالهاست که با افزایش سرعت در تبادل اطلاعات، صحت و سندیت داده‌های تبادل شده زیر سؤال می‌رود و اگر در این وانفسای شتابزده هنوز رسانه‌های معتبر، عرض اندام می‌کنند به دلیل ارتباطشان با صحت اخبار است چرا که شبکه‌های اجتماعی به گونه‌ای پیشرفت کرده‌اند که صفحات مجازی هر شخصیت حقیق و حقوقی می‌تواند به مثابه رسانه آنها عمل کند و اطلاعات لازم را بدون واسطه در اختیار گروه هدفشان قرار دهد؛ استناد این گفته هم منبع قرار دادن این صفحات مجازی در رسانه‌های معتبر است.

اما با پیشرفت هوش مصنوعی و جریان تکنولوژی، حالا اصالت گفته‌ها و سندیت‌ داده‌ها به شدت در معرض خطر جعل قرار دارد؛ نمونه تازه این جعل هم نرم‌افزاری به نام «دیپ فیک» است که حالا بلای جان شبکه‌های اجتماعی و حتی رسانه‌های معتبر شده است!

این نرم افزار با استفاده از هوش مصنوعی، ویدئوهای واقه‌گرایانه اما جعلی درست می‌کند که با استفاده از شبیه‌سازی صورت افراد می‌تواند سخنانی را با تصویر به آنها منصوب کند و حضورشان را در جایی که اصلا وجود نداشته به نمایش بگذارد! بنابراین مخاطب می‌تواند شاهد شنیدن سخنانی از بزرگان و سیاستمداران باشد که اصلاً این سخنان از جانب آنها گفته نشده‌است، از حرفهای جعلی ترامپ و اوباما گرفته تا حضور جعلی بازیگران هالیوودی در فیلمهای مستهجن.

فضای مجازی , رسانه , شبکه‌های اجتماعی ,

فضای مجازی , رسانه , شبکه‌های اجتماعی ,

با گذشت زمان و پیشرفت این تکنولوژی تشخیص جعلی بودن آنها هم روز به روز سختتر می‌شود؛ فناوری دیپ فیک  Deepfake با شناسایی شکل و حالات نقاط مختلف چهره انسان، چهره همان شخص را جعل می‌کند و هر حالت صورتش را به آن الصاق می‌کند.

حقیقتی که قربانی «دیپ فیک» می‌شود

همین موضوع، مدیران شبکه‌های مجازی مانند توئیتر را به واکنش وادار کرده‌ است و آنها به دنبال سیاست‌های تازه‌ای هستند که به واسطه آن مانع از گسترش کلیپ‌های ایجاد شده توسط دیپ فیک باشند؛ این نرم‌افزار بیشتر بخش‌های حقوقی شبکه‌های اجتماعی و رسانه‌ها را درگیر کرده‌ است چرا که می‌تواند تبعات زیادی به همراه داشته باشد و آنچه در این وانفسا قربانی می‌شود، حقیقت است.

شاید همین موضوع تحول تازه‌ای را در دنیای رسانه و انتقال پیام باعث شود، پیش از این مخاطبان به هر آنچه می‌شنیدند و می‌خواندند اعتماد نمی‌کردند و از این به بعد باید به دیده‌های خود هم شک کنند و البته همین موضوع می‌تواند بر اعتبار رسانه‌های شناخته شده اضافه کرده و بر صحت مطالب منتشر شده در فضای مجازی شبهه ایجاد کند؛ این یعنی فرصتی تازه به رسانه‌های برای جذب مخاطب.

با نزدیک شدن به پدیده انتخاباتی 2020 امریکا، فیس‌بوک هم به واکنش نسبت به این پدیده نوظهور وادار شده و از تلاش تکنیسین‌هایش برای یافتن راه‌حل می‌گوید؛ چرا که تحلیل‌گران جامعه اطلاعاتی جهان از خطر دیپ‌فیک برای انتخابات و بحران‌های سیاسی جهان خبر داده است؛ راه‌حلهایی که تا الان برای مقابله با این پدیده پیشنهاد شده‌، حذف آنها از خروجی شبکه‌های اجتماعی یا برچسب زدن به آنهاست.

کلاهبرداری موفق با کمک فناوری دیپ فیک

شنبه, ۱۶ شهریور ۱۳۹۸، ۰۳:۳۳ ب.ظ | ۰ نظر

مجرم سایبری با تقلید صدای مدیر و با استفاده از فناوری «دیپ فیک» توانست ۲۴۳ هزار دلار کند.
 یک کلاهبردار با استفاده از فناوری«دیپ فیک» و نرم افزار هوش مصنوعی، صدای مدیر یک شرکت آلمانی را تقلید و از زیرمجموعه آن در انگلیس ۲۴۳ هزار دلار سرقت کرد.
این فرد با استفاده از نرم افزارهای هوش مصنوعی تولید صوت، صدای مدیر ارشد اجرایی شرکت مادر این موسسه را تقلید کرده است. کلاهبردار از مدیر زیرمجموعه در انگلیس خواست تا طی یک ساعت مبلغی را به یک شرکت تهیه کننده بلغارستانی انتقال دهد و همچنین تضمین کرده بود این مبلغ بازپرداخت می شود.
مدیر زیرمجموعه انگلیسی که با لهجه آلمانی و ویژگی های سخن گفتن رئیس خود آشنا بوده نیز درباره این تماس تردید نمی کند. اما نه فقط مبلغ ارسالی بازگشت داده نشد، بلکه کلاهبردار خواهان انتقال مبلغ دیگری نیز شد اما این بار مدیر انگلیسی از انجام آن سرباز زد.
سرانجام مشخص شد مبلغی که به بلغارستان منتقل شده، درنهایت به مکزیک و نقاط دیگر ارسال شده است. مقامات قضایی هنوز مشغول بررسی این عملیات کلاهبرداری سایبری هستند. البته این زیرمجموعه انگلیسی بیمه است و شرکت بیمه نیز تمام مبلغ سرقت شده را بازپرداخت می کند.
طبق نوشته وال استریت ژورنال، این حادثه در ماه مارس اتفاق افتاده و نام شرکت و اطلاعات دیگر نیز فاش نشده است. اکنون به نظر می رسد فناوری دیپ فیک مجالی جدید برای گسترش فعالیت های مجرمانه سایبری فراهم کرده است.
مرجع : خبرگزاری مهر

دیپ فیک مشکل فناوری نیست، مساله قدرت است

سه شنبه, ۴ تیر ۱۳۹۸، ۰۷:۱۷ ب.ظ | ۰ نظر

فناوران - اسکار شوارتز*- در بحبوحه انتخابات ریاست جمهوری سال 2016 ایالات متحده، کمتر کسی پیش بینی می کرد که اطلاعات نادرست (misinformation) تا این حد می تواند بر روند دموکراسی تاثیر منفی بگذارد. اما حالا در آستانه انتخابات 2020 حساسیت ویژه ای درباره تهدیدات جدیدی که اکوسیستم اطلاعات را شکننده کرده است، وجود دارد.
امروز دیگر بات های روسی در صدر سیاهه نگرانی ها نیستند؛ بلکه جعل عمیق یا دیپ فیک جای آنها را گرفته است. جعل عمیق استفاده از هوش مصنوعی برای دستکاری چند رسانه ای هاست؛ به نحوی که با استفاده از تصویر یا صدای افراد، آنها را در حال اظهار مطالبی نشان می دهند که در واقع چنین حرفی نزده اند.
اکنون این تهدید جدی گرفته شده است. پنج شنبه گذشته، نخستین جلسه ارایه گزارش کمیته اطلاعات کنگره آمریکا دراین باره برگزار شد و آدام شیف، رییس این کمیته در سخنرانی خود، با بیان اینکه جامعه در معرض یک انقلاب فناورانه است، گفت: این انقلاب به طور موثر شیوه تولید اخبار جعلی را متحول می کند.
او از نوآوری ها در هوش مصنوعی گفت که در کارزارهای انتخاباتی به کار گرفته خواهد شد و با الگوریتم های بهبود یافته اش، تشخیص اصالت تصاویر، ویدیوها، متون و صوت را بسیار دشوار خواهد کرد.
به طور خلاصه، او مشکل محتواهای رسانه ای دستکاری شده را تهدید جدیدی عنوان کرد که فناوری های پیچیده در حال رشد منجر به ظهور آن شده است.
البته شیف در این نظر تنها نیست. گفتمان گسترده تری درباره محتوای جعلی با تمرکز بر محتواهای تولید شده با هوش مصنوعی ایجاد شده است؛ یعنی درباره استفاده از تکنیک های پیشرفته یادگیری ماشینی به منظور ایجاد کپی های غیر واقعی از چهره، صدا یا دستخط افراد. اگرچه این دستاوردهای فناورانه بسیار جذاب هستند؛ این نگرانی وجود دارد که شیفته جذابیت این فناوری شویم و از درک مشکل عمیقی که ایجاد می کند، غافل بمانیم.
برای درک بهتر موضوع، آخرین نمونه از دستکاری رسانه ای که از یک فرد سطح بالا در فضای آنلاین منتشر شده را به یاد بیاورید: ویدیویی ساختگی از نانسی پلوسی، سخنگوی کنگره که او را مشغول صحبت کردن در حال مستی نشان می دهد. تازه این ویدیو به دست متخصصان هوش مصنوعی و به عنوان بخشی از آن انقلاب فناورانه ساخته نشده، بلکه صرفا حاصل ویرایش و کند کردن ویدیوی صحبت های پلوسی به دست یک بلاگر طرفدار ترامپ به نام شان بروکس است.
دلیل اینکه این ویدیو تا این حد گسترده بازنشر شده، این نیست که از نظر فناوری کار پیشرفته ای بوده یا از نظر بصری گمراه کننده بوده است؛ بلکه این اتفاق در نتیجه طبیعت شبکه های اجتماعی رخ داده است. وقتی مدل کسب وکار یک پلتفرم به حداکثر رساندن زمان درگیری مخاطب با محتوا به منظور کسب درآمد از نمایش آگهی باشد، محتوای تفرقه انگیز، شوک آور و توطئه آمیز در صدر خوراک های خبری این رسانه ها قرار می گیرد. هنر بروکس نیز مانند بقیه ترول های اینترنتی، درک و استفاده از این ویژگی بوده است.
در واقع ویدیوی پلوسی نشان می دهد که اخبار جعلی و پلتفرم های اجتماعی ارتباطی دوجانبه پیداکرده و به هم وابسته شده اند. فیس بوک به حذف این ویدیوی دستکاری شده تن نداد و اعلام کرد که بر اساس سیاست های محتوایی اش، واقعی بودن ویدیوها ضروری نیست. (البته این شبکه اجتماعی در تلاش برای به حداقل رساندن آسیب ها، سطح انتشار این ویدیو را در فیدهای خبری اش محدود کرد.) واقعیت این است که محتواهای تفرقه انگیز از جنبه مالی برای پلتفرم های شبکه اجتماعی برد محسوب می شوند و تا زمانی که این منطق کسب وکار حاکم بر حیات آنلاین ما باشد، جاعلان محتواهای بدبینانه به جعل و انتشار این محتواهای تفرقه انگیز ادامه می دهند، حال چه با استفاده از یادگیری ماشین و چه بدون آن.
مشکل نیز همین جا نهفته است: با معرفی کردن جعل عمیق به عنوان یک مشکل فناورانه، به پلتفرم های شبکه اجتماعی اجازه می دهیم که به ارایه و تبلیغ راهکارهای فناورانه خود برای این مشکل بپردازند و با هوشمندی، توجه عموم را از این واقعیت دور کنند که مشکلات اصلی و پایه ای، قدرت بیش از حد پلتفرم های فناوری سیلیکون ولی است.
قبلا هم این اتفاق افتاده است. پارسال، زمانی که کنگره مارک زاکربرگ را برای پاسخگویی درباره مشکلات حریم خصوصی و دخالت داشتن فیس بوک در انتشار اخبار جعلی فراخواند، زاکربرگ به جای پرداختن به مشکلات ساختاری موجود در شرکت اش، سعی کرد به کنگره اطمینان بدهد که راهکارهای فناورانه در آینده ای که مشخص نیست کی فرامی رسد، برای همه مشکلات راهکار ارایه خواهد داد. زاکربرگ در آن جلسه بیش از 30 بار از هوش مصنوعی، به عنوان حلال مشکلات، نام برد.
با توجه به همه اینهاست که یوگنی موروزوف، پدیده راهکارگرایی فناورانه (technological solutionism) را مطرح می کند. منظور او ایدئولوژی حاکم بر سیلیکون ولی است که سعی دارد مسایل پیچیده اجتماعی را به صورت مسایلی شسته و رفته با راهکارهای عملیاتی و قطعی مطرح کند که در آنها هر مشکلی در صورت داشتن یک الگوریتم مناسب، قابل حل است. این طرز تفکر به شدت روش مند، قراردادی و در عین حال از نظر اجتماعی کوته نظرانه، آنچنان درون صنعت فناوری پرطرفدار و فراگیر است که به نوعی خصلت ژنتیک این صنعت تبدیل شده و هر سوالی را با آن پاسخ می دهند: «چطور مشکل نابرابری ثروت را حل کنیم؟ با بلاک چین»؛ «چطور مشکل دوقطبی ها را در سیاست حل کنیم؟ با هوش مصنوعی» یا «چطور مشکل تغییرات آب وهوایی را حل کنیم؟ با بلاک چین مبتنی بر هوش مصنوعی» ...
این اشتیاق و انتظار دایمی برای راهکارهای فناورانه که قرار است در آینده نزدیک ارایه شود، ما را از توجه به واقعیت های تلخی که هم اکنون با آنها درگیریم، باز می دارد. زاکربرگ سال گذشته در برابر کنگره، به ما وعده مدیریت بهتر محتوا را با استفاده از هوش مصنوعی داد، اما از آن پس گزارش های متعدد حاکی از این است که مدیریت محتوا در این شرکت همچنان متکی به نیروی انسانی است که هر روزه با محتواهای خشونت بار، شوکه کننده و نفرت انگیز مواجهند و شرایط کاری بسیار سختی دارند و فیس بوک با صحبت کردن بی وقفه درباره مدیریت محتوا با هوش مصنوعی، عملا ذهن ها را از شرایط سخت این انسان های واقعی منحرف می کند. ایدیولوژی راهکارگرایی فناورانه، بر گفتمان مربوط به شیوه مواجهه با محتواهای رسانه ای دستکاری شده نیز اثر می گذارد. راهکارهایی که ارایه می شود، عمدتا ماهیت فناورانه دارند؛ از واترمارک های دیجیتال گرفته تا تکنیک های جدید بازرسی مبتنی بر یادگیری ماشین. مطمئنا کارشناسان متعددی به تحقیقات امنیتی با اهمیتی برای شناسایی محتواهای جعلی درآینده مشغولند. این کاری ضروری است، اما لزوما به حل مشکل عمیق اجتماعی فروپاشی حقیقت و قطبی سازی که پلتفرم های رسانه های اجتماعی سودهای کلانی از آن می برند و در آن نقش دارند، نمی انجامد. بزرگ ترین نقطه ضعف راهکارگرایی فناورانه، یکی این است که می توان از آن برای پنهان کردن مشکلات عمیق ساختاری در صنعت فناوری استفاده کرد. همچنین این ایدئولوژی می تواند مانعی جدی در برابر کنشگرانی باشد که با تمرکز قدرت در دست شرکت هایی که شیوه دسترسی ما به اطلاعات را کنترل می کنند، مخالف هستند.
اگر ما همچنان دیپ فیک را به جای یک مفسده اساسی در قلب اقتصاد توجه (attention economy)، به عنوان یک مشکل فناورانه جا بزنیم، خودمان را در انتخابات 2020 نیز در معرض بلای اطلاعات نادرست قرار داده ایم؛ همان بلایی که در سال 2016 سرمان آمد.
 منبع: گاردین
* اسکار شوارتز نویسنده مستقل و محقق ساکن نیویورک آمریکاست

فناوری «دیپ‌فیک» با وجود شکایت‌ها و محدودیت‌هایی که در استفاده آن وجود دارد، همچنان رشد می‌کند و به راحتی می‌تواند با شبیه‌سازی چهره، ویدئوهایی از افراد را تولید کند که اساسا وجود ندارند!

تصور کنید در خانه نشسته‌اید و با گوشی‌تان کار می‌کنید، در همین لحظه دوستتان یک ویدئو برای‌تان ارسال می‌کند که در آن با شبیه‌سازی، چهره شما رو صورت خودش، درباره موضوعات مختلف حرف می‌زند و اظهار نظر می‌کند. شما به حرف‌هایی که از دهان کسی مشابه خودتان خارج می‌شود، می‌خندید و احتمالاً ویدئو را در گوشی ذخیره می‌کنید و باز هم از دیدن آن لذت می‌برید!

اما همین تکنولوژی عجیب که برای شما خنده‌دار و بامزه است، می‌تواند برای آن‌هایی که شخصیت‌های شناخته شده‌ای هستند، دردسرساز شوند.

طعم این دردسر را اسکارلت جوهانسون و باراک اوباما چشیده‌اند! وقتی از اوباما یک سخنرانی جعلی منتشر و ویدئویی غیراخلاقی از جوهانسون در فضای مجازی دیده شد، با شکایت‌های متعدد، استفاده از این برنامه در برخی از وب‌سایت‌هایی که پیشتر جابجایی چهره برای سرگرمی به کار می‌رفت، ممنوع شد.

اما این پایان ماجرا نیست، وقتی «دیپ‌فیک» روز به روز پیشرفته‌تر می‌شود و می‌تواند شبیه‌سازی را بهتر و کامل‌تر انجام دهد، فراگیرتر شده و در نهایت مقابله با آن سخت‌تر می‌شود. حالا این تکنولوژی نه‌تنها چهره بلکه شکل اندام را هم می‌تواند شبیه‌سازی کند.

وقتی دیگر به ویدئو هم نمی‌توان اعتماد کرد

روزگار گذشته وقتی خبری از صحبت‌های یک مقام مهم منتشر می‌شد، در ابتدا صدا مُهر تایید و بعدتر تصویر شخص مدرکی بر واقعی بودن آن بود، اما حالا و با بروز تکنولوژی‌هایی چون «دیپ فیک» دیگر حتی به ویدئوها هم نمی‌توان اعتماد کرد، حالا با یک عکس و صدا می‌توان چهره هر فردی را بازسای کرد و حرف‌ها و کارهایی را از او خواست انجام دهد که فرد در زندگی شخصی‌اش هرگز مرتکب آن‌ها نمی‌شود.

دیپ‌فیک دقیقاً چیست؟

فناوری دیپ فیک Deepfake ، شکل و حالات نقاط مختلف چهره انسان را از طریق دوربین‌ها کشف کرده و به طرز کاملاً باورپذیری چهره همان انسان را جعل می‌کند و می‌تواند او را در حال حرکت، سخنرانی و هر حالتی که فکر کنید قرار دهد. این برنامه در حقیقت یک عروسک خیمه شب بازی دیجیتالی که در محیط‌های دیگر، بازتولید می‌شود.

متأسفانه ظهور deepfakes پس از بیشتر از یک دهه اشتراک گذاری تصاویر شخصی در شبکه‌های آنلاین آغاز شده تا جایی‌که حالا تقریباً تصاویر تمام چهره‌ها را در اینترنت می‌توان پیدا کرد. حتی دور ماندن از دید عموم، مانع از تلفیق Deepfake نخواهد شد ؛ امروزه این امری اجتناب ناپذیر است و هر کسی در جهان در معرض آن قرار دارد، به هر حال حتی اگر کسی اهل انتشار عکس در پروفایل و حساب‌های کاربری شخصی نباشد، هرکسی در تصاویر و فیلم‌های دوستانش دیده می‌شود، خیلی‌ها موبایل‌هایشان با قفل تشخیص چهره کار می‌کند، تماس‌های تصویری یا ویدئو کنفرانس‌های آنلاین، همه و همه باعث می‌شود که شکل‌های مختلف و در مورادی به طور ناخواسته تصویر چهره هر فردی در اینترنت به اشتراک گذاشته شود.

دیپ‌فیک چطور کار می‌کند؟

این برنامه با روش یادگیری ماشین کار می‌کند و برای جعل چهره، به چند صد تصویر از حالات مختلف چهره هدف نیاز دارد. در این میان افراد شناخته شده و معروف که به سادگی و با یک سرچ اینترنتی تصویر و ویدئوهای مختلف از آن‌ها موجود است، بیشتر در معرض خطر هستند.

این تکنولوژی توسط تیمی با رهبری دانشمندان دانشگاه استنفورد ساخته شده است، آنها یک هوش مصنوعی ایجاد کردند که می‌تواند با استفاده از الگوریتم‌ها حرکات صورت شخص را مورد بررسی قرار دهد و با ایجاد یک ماسک دیجیتالی با کمترین مشکل و با بیشترین انطباق چهره فرد دیگری را شبیه‌سازی می‌کند.

هوش مصنوعی ابتدا تمام چهره را تجزیه و تحلیل کرده و تمام بخش‌های صورت را با دقت اسکن می‌کند، تمام حرکات از جمله چرخش سر، حرکت چشم و جزیئات حرکات دهان مورد بررسی قرار می‌گیرد. پس از آن نرم‌افزار تمام داده‌ها را در حافظه خود ذخیره و روی ویدئوی هدف بارگزاری می‌کند.(خبرگزاری مهر)