ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۲ مطلب با کلمه‌ی کلیدی «دیپ فیک» ثبت شده است

تحلیل


دیپ فیک مشکل فناوری نیست، مساله قدرت است

سه شنبه, ۴ تیر ۱۳۹۸، ۰۷:۱۷ ب.ظ | ۰ نظر

فناوران - اسکار شوارتز*- در بحبوحه انتخابات ریاست جمهوری سال 2016 ایالات متحده، کمتر کسی پیش بینی می کرد که اطلاعات نادرست (misinformation) تا این حد می تواند بر روند دموکراسی تاثیر منفی بگذارد. اما حالا در آستانه انتخابات 2020 حساسیت ویژه ای درباره تهدیدات جدیدی که اکوسیستم اطلاعات را شکننده کرده است، وجود دارد.
امروز دیگر بات های روسی در صدر سیاهه نگرانی ها نیستند؛ بلکه جعل عمیق یا دیپ فیک جای آنها را گرفته است. جعل عمیق استفاده از هوش مصنوعی برای دستکاری چند رسانه ای هاست؛ به نحوی که با استفاده از تصویر یا صدای افراد، آنها را در حال اظهار مطالبی نشان می دهند که در واقع چنین حرفی نزده اند.
اکنون این تهدید جدی گرفته شده است. پنج شنبه گذشته، نخستین جلسه ارایه گزارش کمیته اطلاعات کنگره آمریکا دراین باره برگزار شد و آدام شیف، رییس این کمیته در سخنرانی خود، با بیان اینکه جامعه در معرض یک انقلاب فناورانه است، گفت: این انقلاب به طور موثر شیوه تولید اخبار جعلی را متحول می کند.
او از نوآوری ها در هوش مصنوعی گفت که در کارزارهای انتخاباتی به کار گرفته خواهد شد و با الگوریتم های بهبود یافته اش، تشخیص اصالت تصاویر، ویدیوها، متون و صوت را بسیار دشوار خواهد کرد.
به طور خلاصه، او مشکل محتواهای رسانه ای دستکاری شده را تهدید جدیدی عنوان کرد که فناوری های پیچیده در حال رشد منجر به ظهور آن شده است.
البته شیف در این نظر تنها نیست. گفتمان گسترده تری درباره محتوای جعلی با تمرکز بر محتواهای تولید شده با هوش مصنوعی ایجاد شده است؛ یعنی درباره استفاده از تکنیک های پیشرفته یادگیری ماشینی به منظور ایجاد کپی های غیر واقعی از چهره، صدا یا دستخط افراد. اگرچه این دستاوردهای فناورانه بسیار جذاب هستند؛ این نگرانی وجود دارد که شیفته جذابیت این فناوری شویم و از درک مشکل عمیقی که ایجاد می کند، غافل بمانیم.
برای درک بهتر موضوع، آخرین نمونه از دستکاری رسانه ای که از یک فرد سطح بالا در فضای آنلاین منتشر شده را به یاد بیاورید: ویدیویی ساختگی از نانسی پلوسی، سخنگوی کنگره که او را مشغول صحبت کردن در حال مستی نشان می دهد. تازه این ویدیو به دست متخصصان هوش مصنوعی و به عنوان بخشی از آن انقلاب فناورانه ساخته نشده، بلکه صرفا حاصل ویرایش و کند کردن ویدیوی صحبت های پلوسی به دست یک بلاگر طرفدار ترامپ به نام شان بروکس است.
دلیل اینکه این ویدیو تا این حد گسترده بازنشر شده، این نیست که از نظر فناوری کار پیشرفته ای بوده یا از نظر بصری گمراه کننده بوده است؛ بلکه این اتفاق در نتیجه طبیعت شبکه های اجتماعی رخ داده است. وقتی مدل کسب وکار یک پلتفرم به حداکثر رساندن زمان درگیری مخاطب با محتوا به منظور کسب درآمد از نمایش آگهی باشد، محتوای تفرقه انگیز، شوک آور و توطئه آمیز در صدر خوراک های خبری این رسانه ها قرار می گیرد. هنر بروکس نیز مانند بقیه ترول های اینترنتی، درک و استفاده از این ویژگی بوده است.
در واقع ویدیوی پلوسی نشان می دهد که اخبار جعلی و پلتفرم های اجتماعی ارتباطی دوجانبه پیداکرده و به هم وابسته شده اند. فیس بوک به حذف این ویدیوی دستکاری شده تن نداد و اعلام کرد که بر اساس سیاست های محتوایی اش، واقعی بودن ویدیوها ضروری نیست. (البته این شبکه اجتماعی در تلاش برای به حداقل رساندن آسیب ها، سطح انتشار این ویدیو را در فیدهای خبری اش محدود کرد.) واقعیت این است که محتواهای تفرقه انگیز از جنبه مالی برای پلتفرم های شبکه اجتماعی برد محسوب می شوند و تا زمانی که این منطق کسب وکار حاکم بر حیات آنلاین ما باشد، جاعلان محتواهای بدبینانه به جعل و انتشار این محتواهای تفرقه انگیز ادامه می دهند، حال چه با استفاده از یادگیری ماشین و چه بدون آن.
مشکل نیز همین جا نهفته است: با معرفی کردن جعل عمیق به عنوان یک مشکل فناورانه، به پلتفرم های شبکه اجتماعی اجازه می دهیم که به ارایه و تبلیغ راهکارهای فناورانه خود برای این مشکل بپردازند و با هوشمندی، توجه عموم را از این واقعیت دور کنند که مشکلات اصلی و پایه ای، قدرت بیش از حد پلتفرم های فناوری سیلیکون ولی است.
قبلا هم این اتفاق افتاده است. پارسال، زمانی که کنگره مارک زاکربرگ را برای پاسخگویی درباره مشکلات حریم خصوصی و دخالت داشتن فیس بوک در انتشار اخبار جعلی فراخواند، زاکربرگ به جای پرداختن به مشکلات ساختاری موجود در شرکت اش، سعی کرد به کنگره اطمینان بدهد که راهکارهای فناورانه در آینده ای که مشخص نیست کی فرامی رسد، برای همه مشکلات راهکار ارایه خواهد داد. زاکربرگ در آن جلسه بیش از 30 بار از هوش مصنوعی، به عنوان حلال مشکلات، نام برد.
با توجه به همه اینهاست که یوگنی موروزوف، پدیده راهکارگرایی فناورانه (technological solutionism) را مطرح می کند. منظور او ایدئولوژی حاکم بر سیلیکون ولی است که سعی دارد مسایل پیچیده اجتماعی را به صورت مسایلی شسته و رفته با راهکارهای عملیاتی و قطعی مطرح کند که در آنها هر مشکلی در صورت داشتن یک الگوریتم مناسب، قابل حل است. این طرز تفکر به شدت روش مند، قراردادی و در عین حال از نظر اجتماعی کوته نظرانه، آنچنان درون صنعت فناوری پرطرفدار و فراگیر است که به نوعی خصلت ژنتیک این صنعت تبدیل شده و هر سوالی را با آن پاسخ می دهند: «چطور مشکل نابرابری ثروت را حل کنیم؟ با بلاک چین»؛ «چطور مشکل دوقطبی ها را در سیاست حل کنیم؟ با هوش مصنوعی» یا «چطور مشکل تغییرات آب وهوایی را حل کنیم؟ با بلاک چین مبتنی بر هوش مصنوعی» ...
این اشتیاق و انتظار دایمی برای راهکارهای فناورانه که قرار است در آینده نزدیک ارایه شود، ما را از توجه به واقعیت های تلخی که هم اکنون با آنها درگیریم، باز می دارد. زاکربرگ سال گذشته در برابر کنگره، به ما وعده مدیریت بهتر محتوا را با استفاده از هوش مصنوعی داد، اما از آن پس گزارش های متعدد حاکی از این است که مدیریت محتوا در این شرکت همچنان متکی به نیروی انسانی است که هر روزه با محتواهای خشونت بار، شوکه کننده و نفرت انگیز مواجهند و شرایط کاری بسیار سختی دارند و فیس بوک با صحبت کردن بی وقفه درباره مدیریت محتوا با هوش مصنوعی، عملا ذهن ها را از شرایط سخت این انسان های واقعی منحرف می کند. ایدیولوژی راهکارگرایی فناورانه، بر گفتمان مربوط به شیوه مواجهه با محتواهای رسانه ای دستکاری شده نیز اثر می گذارد. راهکارهایی که ارایه می شود، عمدتا ماهیت فناورانه دارند؛ از واترمارک های دیجیتال گرفته تا تکنیک های جدید بازرسی مبتنی بر یادگیری ماشین. مطمئنا کارشناسان متعددی به تحقیقات امنیتی با اهمیتی برای شناسایی محتواهای جعلی درآینده مشغولند. این کاری ضروری است، اما لزوما به حل مشکل عمیق اجتماعی فروپاشی حقیقت و قطبی سازی که پلتفرم های رسانه های اجتماعی سودهای کلانی از آن می برند و در آن نقش دارند، نمی انجامد. بزرگ ترین نقطه ضعف راهکارگرایی فناورانه، یکی این است که می توان از آن برای پنهان کردن مشکلات عمیق ساختاری در صنعت فناوری استفاده کرد. همچنین این ایدئولوژی می تواند مانعی جدی در برابر کنشگرانی باشد که با تمرکز قدرت در دست شرکت هایی که شیوه دسترسی ما به اطلاعات را کنترل می کنند، مخالف هستند.
اگر ما همچنان دیپ فیک را به جای یک مفسده اساسی در قلب اقتصاد توجه (attention economy)، به عنوان یک مشکل فناورانه جا بزنیم، خودمان را در انتخابات 2020 نیز در معرض بلای اطلاعات نادرست قرار داده ایم؛ همان بلایی که در سال 2016 سرمان آمد.
 منبع: گاردین
* اسکار شوارتز نویسنده مستقل و محقق ساکن نیویورک آمریکاست

فناوری «دیپ‌فیک» با وجود شکایت‌ها و محدودیت‌هایی که در استفاده آن وجود دارد، همچنان رشد می‌کند و به راحتی می‌تواند با شبیه‌سازی چهره، ویدئوهایی از افراد را تولید کند که اساسا وجود ندارند!

تصور کنید در خانه نشسته‌اید و با گوشی‌تان کار می‌کنید، در همین لحظه دوستتان یک ویدئو برای‌تان ارسال می‌کند که در آن با شبیه‌سازی، چهره شما رو صورت خودش، درباره موضوعات مختلف حرف می‌زند و اظهار نظر می‌کند. شما به حرف‌هایی که از دهان کسی مشابه خودتان خارج می‌شود، می‌خندید و احتمالاً ویدئو را در گوشی ذخیره می‌کنید و باز هم از دیدن آن لذت می‌برید!

اما همین تکنولوژی عجیب که برای شما خنده‌دار و بامزه است، می‌تواند برای آن‌هایی که شخصیت‌های شناخته شده‌ای هستند، دردسرساز شوند.

طعم این دردسر را اسکارلت جوهانسون و باراک اوباما چشیده‌اند! وقتی از اوباما یک سخنرانی جعلی منتشر و ویدئویی غیراخلاقی از جوهانسون در فضای مجازی دیده شد، با شکایت‌های متعدد، استفاده از این برنامه در برخی از وب‌سایت‌هایی که پیشتر جابجایی چهره برای سرگرمی به کار می‌رفت، ممنوع شد.

اما این پایان ماجرا نیست، وقتی «دیپ‌فیک» روز به روز پیشرفته‌تر می‌شود و می‌تواند شبیه‌سازی را بهتر و کامل‌تر انجام دهد، فراگیرتر شده و در نهایت مقابله با آن سخت‌تر می‌شود. حالا این تکنولوژی نه‌تنها چهره بلکه شکل اندام را هم می‌تواند شبیه‌سازی کند.

وقتی دیگر به ویدئو هم نمی‌توان اعتماد کرد

روزگار گذشته وقتی خبری از صحبت‌های یک مقام مهم منتشر می‌شد، در ابتدا صدا مُهر تایید و بعدتر تصویر شخص مدرکی بر واقعی بودن آن بود، اما حالا و با بروز تکنولوژی‌هایی چون «دیپ فیک» دیگر حتی به ویدئوها هم نمی‌توان اعتماد کرد، حالا با یک عکس و صدا می‌توان چهره هر فردی را بازسای کرد و حرف‌ها و کارهایی را از او خواست انجام دهد که فرد در زندگی شخصی‌اش هرگز مرتکب آن‌ها نمی‌شود.

دیپ‌فیک دقیقاً چیست؟

فناوری دیپ فیک Deepfake ، شکل و حالات نقاط مختلف چهره انسان را از طریق دوربین‌ها کشف کرده و به طرز کاملاً باورپذیری چهره همان انسان را جعل می‌کند و می‌تواند او را در حال حرکت، سخنرانی و هر حالتی که فکر کنید قرار دهد. این برنامه در حقیقت یک عروسک خیمه شب بازی دیجیتالی که در محیط‌های دیگر، بازتولید می‌شود.

متأسفانه ظهور deepfakes پس از بیشتر از یک دهه اشتراک گذاری تصاویر شخصی در شبکه‌های آنلاین آغاز شده تا جایی‌که حالا تقریباً تصاویر تمام چهره‌ها را در اینترنت می‌توان پیدا کرد. حتی دور ماندن از دید عموم، مانع از تلفیق Deepfake نخواهد شد ؛ امروزه این امری اجتناب ناپذیر است و هر کسی در جهان در معرض آن قرار دارد، به هر حال حتی اگر کسی اهل انتشار عکس در پروفایل و حساب‌های کاربری شخصی نباشد، هرکسی در تصاویر و فیلم‌های دوستانش دیده می‌شود، خیلی‌ها موبایل‌هایشان با قفل تشخیص چهره کار می‌کند، تماس‌های تصویری یا ویدئو کنفرانس‌های آنلاین، همه و همه باعث می‌شود که شکل‌های مختلف و در مورادی به طور ناخواسته تصویر چهره هر فردی در اینترنت به اشتراک گذاشته شود.

دیپ‌فیک چطور کار می‌کند؟

این برنامه با روش یادگیری ماشین کار می‌کند و برای جعل چهره، به چند صد تصویر از حالات مختلف چهره هدف نیاز دارد. در این میان افراد شناخته شده و معروف که به سادگی و با یک سرچ اینترنتی تصویر و ویدئوهای مختلف از آن‌ها موجود است، بیشتر در معرض خطر هستند.

این تکنولوژی توسط تیمی با رهبری دانشمندان دانشگاه استنفورد ساخته شده است، آنها یک هوش مصنوعی ایجاد کردند که می‌تواند با استفاده از الگوریتم‌ها حرکات صورت شخص را مورد بررسی قرار دهد و با ایجاد یک ماسک دیجیتالی با کمترین مشکل و با بیشترین انطباق چهره فرد دیگری را شبیه‌سازی می‌کند.

هوش مصنوعی ابتدا تمام چهره را تجزیه و تحلیل کرده و تمام بخش‌های صورت را با دقت اسکن می‌کند، تمام حرکات از جمله چرخش سر، حرکت چشم و جزیئات حرکات دهان مورد بررسی قرار می‌گیرد. پس از آن نرم‌افزار تمام داده‌ها را در حافظه خود ذخیره و روی ویدئوی هدف بارگزاری می‌کند.(خبرگزاری مهر)