فاجعه «مرگ حقیقت» تا سال 2020
نادر نینوایی / علی شمیرانی - «هفته بعد ویدیویی 20 دقیقهای با عنوان «بزرگترین افشاگری در تاریخ ایران» از سخنرانی یک مقام کاملا شناختهشده و معتبر سیاسی در یک جمع بزرگ به دستتان خواهد رسید که در آن بسیاری از رویدادها، حوادث و اخباری که سالها تصور میکردیم همانگونه که در اخبار و تاریخ روایت شده رخ دادهاند، به یکباره تغییر کرده و روایت کاملا معکوس از آنها بیان میشود.
این کلیپ که حاوی فیلمی کاملا شفاف و از نزدیک از چهره و صدای این مقام است، هر مخاطبی را با شوکی عمیق مواجه میکند؛ چون تمام باورهای مردم را زیر و رو کرده و در نتیجه به علت اهمیت و حرفهای تکاندهندهای که در آن مطرح میشود، ظرف کمتر از یک ساعت به دست نزدیک به 50 میلیون ایرانی در داخل و خارج کشور میرسد.
سخنران در بخشهایی از این فیلم مردم را نیز با الفاظ زشت و زنندهای مورد خطاب قرار میدهد که سالهاست بهراحتی فریبخورده و بازیچه شدهاند، در نتیجه خشم و انزجار کل جامعه را دربر میگیرد و عدهای از مردم حتی به خیابانها ریخته و کشور ظرف چند ساعت از یک زندگی آرام و روزمره، تبدیل به کشوری ملتهب شده و در آستانه یک درگیری تمامعیار قرار میگیرد.
پلیس و نیروهای ضدشورش وارد عمل میشوند، مقامات عالی و امنیتی کشور جلسه اضطراری تشکیل میدهند تا به بررسی دقیق ماجرای کلیپ بپردازند. چند ساعت بعد نتیجه معلوم میشود. شبکههای خبری صداوسیما اطلاعیه شورایعالی امنیت ملی را با این مضمون پخش میکنند: «به اطلاع میرساند نتیجه بررسیهای بهعملآمده گویای دروغ و ساختگیبودن این کلیپ است.»
متعاقب آن انبوهی از کارشناسان و مسوولان راهی شبکههای تلویزیونی میشوند تا به مردم نشان دهند این کلیپ چگونه و با استفاده از چه فناوریهایی ساخته شده است.
بخشهایی از مردم این توضیحات را باور کرده و بخشهایی از مردم آن را باور نمیکنند و در نتیجه التهابات و هزینههای سیاسی، اجتماعی، اقتصادی ناشی از آن کلیپ 20 دقیقهای ادامه مییابد...
سطوری که تا کنون میخواندید، صرفا یک فرضیه فانتزی نیست. «فاجعه مرگ حقیقت» و تحقق آنچه میگوید «چیزی که چشمهایت هم میبینند باور نکن» بسیار به ما نزدیک است؛ چراکه اکنون هوش مصنوعی و فناوری ساخت بشر، توانسته پدیده شوم و خطرناک «اخبار جعلی» را از مرحله جعل کلمات و اخبار به مرحلهای بسیار خطرناکتر، پیچیدهتر و عمیقتر، یعنی جعل صدا و تصویر ببرد که از آن با نام DEEPFAKE یا «جعل عمیق» یاد میشود؛ موضوعی که دنیای غرب یعنی محل تولد این فناوریهای پیچیده را عمیقا با خود درگیر کرده و حالا درصدد آموزشهای گسترده و عمیق به مردم و روزنامهنگاران هستند تا امکان و مهارت تشخیص DEEPFAKEها را پیدا کنند.
اما اینکه چه میزان در این مورد موفق باشند بسیار محل بحث و ابهام است؛ چراکه به موازات این تلاشها، فناوریهای ساخت جعلیات نیز با سرعتی باورنکردنی روز به روز پیشرفتهتر میشوند، تا جایی که چهبسا امکان تشخیص آن برای کسی وجود نداشته باشد. شاید راهحل اولیه، رفتن سراغ فرد زندهای باشد که فیلم مذکور به او منتسب شده است، اما سوال اینجاست که از کجا میتوان تشخیص داد که او راست میگوید، یا اگر این فیلمها به فردی که در قید حیات نیست منتسب شده باشد، تکلیف چیست؟
اگر مایلید بدانید DEEPFAKE چیست و چگونه عمل میکند و دنیا با چه چالشهایی برای مهار آن مواجه است، ادامه متن حاضر را که برگرفته از یک دوره آموزشی از سوی روزنامه والاستریتژورنال و برای روزنامهنگاران شاغل در این رسانه است بخوانید. مطالعه این گزارش بهویژه برای مسوولان توصیه میشود.
مقدمه
فناوری با سرعتی باورنکردنی در حال پیشرفت است و ساخت و انتشار اخبار جعلی نیز هر روز ابعاد تازهتری مییابد. ساخت اخبار جعلی اما قدمتی به اندازه تاریخ دارد. اما حالا اخبار جعلی به کمک فناوری با سرعت و پیچیدگیهای بیسابقهای مرزهای سایبری را درنوردیده و میتوانند سرنوشت و آینده یک کشور و ملت را با خطراتی بیسابقه مواجه کنند. اما سوال این است که آیا روند فعلی تا ابد ادامه مییابد یا سرانجام این مسابقه برای ساخت اخبار جعلی از یکسو و کشف آنها از دیگر سو متوقف میشود؟
این روزها فناوری هوش مصنوعی وضعیت انتشار اطلاعات جعلی و غلط را وارد فازی جدید و پیچیده کرده است. اخبار جعلی که به کمک هوش مصنوعی ساخته و ارایه میشوند حتی باعث شده چالش عمیقی برای اتاقهای خبر رسانهها و تحریریههای روزنامهها به وجود آید.
تصویر زیر از روی دو فایل ویدیویی ثبت شده که یکی اصلی است و دیگری از طریق هوش مصنوعی شبیهسازی شده است. آیا میتوانید تشخیص دهید کدامیک اصلی و کدامیک جعلی است؟
تصویر شماره1
والاستریتژورنال برای بررسی صحت ویدیوها و جلوگیری از گمراه شدن تحریریه خود با DEEPFAKEها (جعل عمیق) یک نیروی کاری حرفهای برای تشخیص آنها پرورش داده که با استانداردهای خاصی به بررسی صحت اخبار پرداخته و حتی در زمینه DEEPFAKE پروژههای تحقیق و توسعه را به انجام میرسانند.
این گروه از کارشناسان والاستریتژورنال به منظور تشخیص «جعل عمیق» در فایلهای ویدیویی، تصاویر، تحقیقها و پلتفرمها آموزش دیدهاند.
فراتر از این اما امروز رسانههای معتبر جهان برای آموزش تحریریههای خود در خصوص اخبار جعلی عمیق با موسسات آموزشی شناختهشدهای همچون Cornell Tech برای آموزش روشهای شناخت این اخبار به خبرنگاران همکاری میکنند تا بتوانند مانع نفوذ خبرهای جعلی به سرخط رسانههای خود شوند و با پدیده جدید اخبار جعلی عمیق مقابله کنند.
کریستین گلنسی، معاون سردبیر تیم نظارت بر استانداردهای اخبار جعلی عمیق در والاستریتژورنال معتقد است که **میبایست هشدارهای بیشتری در زمینه پدیده «جعل عمیق» به اتاقهای خبری داده شود، زیرا از آنجا که نمیدانیم دقیقا چه زمانی و پیرامون چه موضوعی اخبار جعلی عمیق منتشر میشوند، باید همیشه با چشمان باز تمام اخباری را که منتشر میشود رصد کنیم.**
اخبار جعلی عمیق چگونه ساخته شدهاند؟
تولید بیشتر اخبار جعلی بر اساس یک تکنیک ماشینی که با عنوان «شبکههای اخبار تبلیغی مولد» یا GAN شناخته میشود، انجام میگیرد. با این شیوه میتوان چهره یک سیاستمدار یا هنرپیشه مشهور را جعل کرد و وی را در حال صحبت کردن در خصوص هر مطلبی که مورد نظر باشد، نشان داد. به این ترتیب یک بار فردی درحالیکه از او فیلمبرداری میشود مطالبی را بیان میکند و در مرحله بعد به کمک فناوری ساخت جعل عمیق، الگوریتم به دنبال موقعیتهایی میگردد که چهره فرد مشهور موقعیتی مشابه صحبتکننده داشته باشد یا عبارات مشابهی را به کار برده باشد؛ در پسزمینه هم هوش مصنوعی بهترین ترکیب ممکن برای کنار هم قرار گرفتن این تکهها را انتخاب میکند.
از آنجا که تحقیقات صورتگرفته در خصوص دیپفیکها عرضه عمومی شده و در اختیار همه قرار دارد، امکان ساخت اخبار جعلی عمیق توسط هرکسی حتی اشخاص عادی هر لحظه افزایش مییابد. در حال حاضر هر فردی که یکسری اطلاعات کلی تکنیکال داشته باشد و یک کارت گرافیک قدرتمند نیز در اختیار داشته باشد میتواند از طریق برنامههای متنباز اقدام به ساخت اخبار جعلی عمیق یا همان دیپفیک کند.
برخی از موسسات دانشگاهی مثل دانشگاه نیویورک، روشهای منحصر بهفردی برای آموزش و ارتقای سواد رسانهای در نظر گرفتهاند.
یکی از کلاسهای آنلاین این موسسه قصد دارد به دانشجویان آموزش دهد که چگونه اخبار جعلی عمیق بسازند تا از این طریق آنها را با خطرات اخبار جعلی عمیق کاملا آشنا کنند.
کولمارتین که این کلاسها را اداره میکند، بر این نظر است که این شیوه برخورد باعث میشود که نهتنها دانشجویان با قابلیتهای اخبار جعلی عمیق آشنا شوند، بلکه حتی محدودیتهای این حوزه و راههای شناسایی آنها را نیز بشناسند.
تکنیکهای ساخت جعل عمیق
اخبار جعلی عمیق میتوانند از طرق بسیار مختلف و گوناگونی ساخته شوند که در ادامه شما را با برخی از این شیوهها آشنا میکنیم:
عوض کردن صورت:
یک الگوریتم میتواند یکپارچگی صورت فرد را در یک ویدیو هدف قرار دهد. از این تکنیک میتوان برای قرار دادن سر یک فرد ناشناخته بر بدن یک چهره مشهور مثل یک بازیگر استفاده کرد و فرد را در موقعیتی قرار داد که هرگز در آن حضور نداشته است.
هماهنگی لبها:
در این تکنیک از فردی که لب و دهانش شبیه به چهره فرد مشهور باشد خواسته میشود جملاتی را که مورد نظر است بگوید و از او فیلمبرداری میشود. در مرحله بعد فیلم چهره مشهور با لبهای جعلی جایگذاری میشود. در نهایت صداگذاری صورت میگیرد و نتیجه آن است که اینطور به نظر میرسد که آن چهره مشهور این صحبتها را مطرح کرده است.
بازسازی صورت:
جاعلان همچنین میتوانند حالات صورت یک فرد را روی تصویر یا ویدیوی فردی دیگر جایگذاری کنند؛ با استفاده از این تکنیک این امکان وجود دارد که حالت صورت فرد عصبانی، نگران، خوشحال یا در هر حالت دیگری نشان داده شود.
انتقال حرکت:
محققان همچنین تکنیکی خلق کردهاند که به کمک آن میتوانند حرکات بدن فرد را در یک ویدیو منبع به یک فرد در یک ویدیو هدف منتقل کنند. برای مثال، آنها میتوانند حرکات یک رقصنده را گرفته و بازیگر هدف را که میتواند هر چهره شناختهشدهای باشد همانند آن حرکت دهند. در همکاری با محققان دانشگاه کالیفرنیا، یک روزنامهنگار توانست این روش را برای خودش انجام دهد و بدون آنکه ژیمناستیک یا رقص بلد باشد در یک ویدیو اینطور نشان دهد که همچون یک ژیمناست حرفهای حرکت میکند.
روش شناسایی اخبار جعلی
در حال حاضر محققان در حال ساختن و کار کردن روی ابزاری هستند که بتواند جعلیات عمیق را تشخیص داده و شناسایی کند. منابع رسانهای میتوانند از کارشناسان فناوریهای مرتبط برای بررسی اخبار جعلی کمک بگیرند و استانداردهایی را به منظور تایید یک ویدیو یا تصویر منتشرشده در نظر بگیرند.
آنطور که در آموزشهای والاستریتژورنال برای روزنامهنگاران این رسانه آمده است، یکی از راههای کشف اخبار جعلی عمیق، بررسی فریم به فریم ویدیو از طریق برنامههای ویرایش فایلهای ویدیویی است. در این روش باید دنبال هرگونه عنصر غیرطبیعی یا اضافهشده بگردید.
اخبار جعلی عمیق عموما از روی نسخهای از صحبت کردن یا سخنرانی چهرهای که تصویرش جعل شده ارایه میشوند، بنابراین سعی کنید در گوگل به دنبال تصاویر و ویدیوهای قدیمیتری بگردید که با فیلم یا تصویری که به دستتان رسیده شباهت دارد. عموما سازندگان اخبار جعلی عمیق ویدیوی خود را از روی یکی از تصاویر یا ویدیوهایی که از چهره مشهور مورد نظر پیش از این به صورت آنلاین منتشر شده میسازند.
همچنین برنامههای ویرایشی مانند Final Cut روزنامهنگاران را قادر میسازند تا فیلمها را آهسته نگه دارند، تصویر را بزرگنمایی کنند و چند بار آنها را به فریم بکشند یا مکث کنند. این امر کمک میکند که ناهماهنگیهای احتمالی اطراف دهان قابل تشخیص باشد، یا اگر بین رنگ پوست دست و صورت فرد تفاوت هست، یا به لحاظ نور و حالت پوست تفاوتهایی در بخشهای مختلف پوست فرد وجود دارد بتوان آنها را تشخیص داد و فهمید که خبر مورد نظر جعل عمیق است.
شکل دندانها، حرکات غیرطبیعی چانه و گردن و تغییر یا مشکلی که در شکل پسزمینه ایجاد شده باشد، همگی از نشانههای اخبار جعلی عمیق هستند.
اگرچه فناوری ساخت اخبار جعلی عمیق پیچیده و قدرتمند است اما همواره احتمال اختلال در صدا وجود دارد، پس اگر ویدیویی که به دستتان رسیده صدا دارد، به صداهای روباتیک و غیرطبیعی مثل تنفسهای نامنظم توجه کنید؛ چراکه این مورد نیز از دیگر نشانههای جعلی بودن ویدیوها است. البته خبر بد اینکه این اختلالهای صوتی توسط فناوریهای عرضه شده روز به روز بهبود یافته و در حال اصلاح هستند.
**توجه کنید که اگر کسی یک دقیقه از صدای فردی را در اختیار داشته باشد میتواند براساس آن فایل صوتی بسازد که اظهارات متفاوتی در آن بیان شده است؛ پس به فایلهای صوتی نیز هرگز اعتماد نکنید. جالب است بدانید که توسعهدهندگان بازیهای ویدیویی از طریق برنامههای مرتبط با صداسازی عموما صداهای مورد نظر را براساس نمونههای قبلی شبیهسازی میکنند.**
واقعیت این است که توسعه فناوریهای هوش مصنوعی جهت شبیهسازی ویدیوها و اصوات برای به کارگیری در بازیهای ویدیویی میتواند ناخواسته باعث گسترده شدن ساخت و انتشار اخبار جعلی عمیق شود. مارک وارنر و مارکو روبیو، دو سناتور آمریکا هشدارهایی را در خصوص توسعه فناوری هوش مصنوعی و اثر احتمالی آن بر ایجاد اخبار جعلی عمیق مطرح کردهاند و به دنبال راهکارهایی برای جلوگیری از ساخت جعل عمیق هستند.
البته در این میان نباید روش اصلی روزنامهنگاری را نیز نادیده گرفت، پس اگر در رسانهای کار میکنید حتما بهعنوان یک روزنامهنگار با کسی که ویدیویی از او به دستتان رسیده تماس گرفته و صحت فایل را از این طریق نیز بررسی کنید.
بررسی منبع
اگر کسی فیلم مشکوکی را برایتان ارسال کرده است، گام اول این است که سعی کنید با منبع تماس بگیرید. این شخص چگونه آن را به دست آورده است؟ چرا و کجا فیلمبرداری شده است؟ تا جایی که ممکن است از کسی که فایل را در اختیار شما گذاشته اطلاعات بگیرید و درخواست اثبات درستی اطلاعات ارایهشده را داده و از قبول سریع آنچه میبینید اجتناب کنید. اگر ویدیو آنلاین است و ناشر آن شناختهشده نیست، ببینید قبلا چه کسی آن را منتشر کرده؟ توسط چه کسانی به اشتراک گذاشته شده است؟ با چه کسانی به اشتراک گذاشته شده است؟
با کمک ابزارهایی همچون InVID و همچنین دیگر برنامههای بررسیکننده متادیتاها میتوانید تمام این اطلاعات را به دست آورید.
وقتی فایل ویدیویی مشکوکی در یک شبکه اجتماعی میبینید، در مرحله اول اگر به منبع اصلی خبر دسترسی دارید، سعی کنید منبع اصلی را که ادعا شده خبر از روی آن نقل یا منتشر شده بررسی کنید. برای مثال، **اگر دیدید در یک شبکه اجتماعی تصویر یا ویدیویی غیرمعمول از یک چهره سرشناس منتشر شده که صحبتهای عجیبی را مطرح کرده، ببینید آن ویدیو یا تصویر به نقل از چه خبرگزاری یا روزنامهای منتشر شده، سپس به صفحه رسمی آن خبرگزاری یا روزنامه رفته و ببینید آیا خبری در آن باره هست یا خیر؟**
در حال حاضر سازمانهای تایید محتوا مثل اسوشیتدپرس و استوریفول در زمینه تایید ویدیوها و اخبار به صورت رسمی فعالیت میکنند. البته هر روز نیز ابزار جدیدی براب تایید صحت و بررسی جعلی نبودن فایلهای تصویری منتشر میشود. برای مثال، ابزارهای جدیدی از جمله TruePic و Serelay از بلاکچین برای احراز هویت عکس استفاده میکنند. صرفنظر از تکنولوژی مورد استفاده، انسان در اتاق خبر در مرکز این روند قرار دارد.
**سعید رجیو، کارشناس ارشد بررسی اخبار جعلی معتقد است که به هر صورت فناوری بهتنهایی نمیتواند راهحل کشف و از بین بردن اخبار جعلی باشد، بلکه این ترکیب هوش مصنوعی، فناوری و نیروی انسانی است که میتواند باعث کشف اخبار جعلی شود.**
لزوم هشدار درباره جعل عمیق
واقعیت این است که امروز روزنامهنگاران وظیفه مهمی در زمینه اطلاعرسانی به مردم در خصوص اخبار جعلی عمیق و خطرات و چالشهای هوش مصنوعی دارند. نباید فراموش کرد که حزب نازی و هیتلر با کمک تبلیغات رسانهای در آلمان رای آورده و روی کار آمدند و هیتلر با کمک گوبلز، وزیر تبلیغات خود و نمایش فیلمهای نژادپرستانه توانست مردم آلمان را تشویق به ورود به یک جنگ جهانی کند.
با این تفاسیر طبیعی است که رسانه، قدرت و تواناییهای زیادی داشته و دارای توان اثرگذاری بر مردم است. اگر در دوره هیتلر سینما فناوری جدیدی حساب شده و آثار بیش از انتظاری را بر مردم گذاشت، امروز شبکههای اجتماعی و ویدیوهای منتشرشده بر بستر آنها برای مردم فناوری نوینی محسوب میشوند و درنتیجه احتمال فریب آنها با توجه به اثرگذاری بالای تصاویر ویدیویی وجود دارد.
از سوی دیگر نباید از نظر دور داشت که حس دیدن همواره برای بشر از هر حس دیگری باورپذیری بیشتری دارد و بیان عباراتی نظیر «خودم با چشمان خودم دیدم» گویای باور رایج عموم به این حس است. لذا وقتی تصاویر ویدیویی تغییر و تحریف شوند شاید مردم به سبب باورهای فرهنگی و روانشناختی خود و حسشان مبنی بر باورپذیری حس بصری اخبار جعلی عمیق را راحتتر باور کنند.
به این ترتیب به نظر میرسد که امروز روزنامهنگاران، خبرنگاران و کارشناسان امور رسانهای بیش از هر زمان دیگر لازم است مردم را در سراسر جهان با خطرات اخبار جعلی عمیق آشنا کنند تا مانع شکلگیری فریب عمومی و هدایت افکار عمومی توسط قدرتمندان شوند.
محققان MIT در یک مطالعه که در طول سالهای 2006 تا 2017 انجام شده دریافتند که «دروغ بهطور قابل توجهی سریعتر، عمیقتر و گستردهتر از حقیقت در تمام دستههای اطلاعات منتشر شده است». داستانهای دروغین 70 درصد احتمال بیشتری برای بازتوییت نسبت به حقایق دارند و البته با سرعت شش برابر از حقیقت هم منتشر میشوند.
در نهایت اینکه کارشناسان معتقدند که پیشرفت فناوری تولید و توسعه اخبار جعلی تا سال 2020 که انتخابات بعدی آمریکا خواهد بود با سرعت ادامه خواهد داشت و پس از آن سرعت توسعه این فناوری تا حدودی فروکش خواهد کرد.
این موضوع به معنای پایان اخبار جعلی و فاز بعدی آن یعنی جعل عمیق نیست، بلکه کارشناسان معتقدند صرفا فناوری تولید این موضوعات به واسطه نزدیکی به انتخابات 2020 آمریکا و احتمالا حداکثر تاثیرگذاری بر آن به بلوغ خود رسیده و تا حدودی متوقف میشوند، نه تولید و تکثیر اخبار جعلی.
اگرچه این فناوری مهلک موضوع خیلی جدیدی محسوب نمیشود، اما نگرانی اصلی و بزرگ ارزان شدن و افتادن این فناوری به دست خرابکاران و سودجویان است که میتواند به باجگیری از افراد، تحریف تاریخ، کلاهبرداری و حتی بههمریختن زندگیها از طریق ساخت فیلمهای جعل عمیق نیز بینجامد.
لذا نیاز به توضیح زیادی نیست که فناوری «جعل عمیق» چه فجایع و مشکلات عمیقی با خود به همراه خواهد داشت و درحالیکه در کشوری همچون ایران حتی گامهای عملی و ابتدایی برای مهار حداقلی اخبار جعلی برداشته نشده، تصور کنید ورود جعل عمیق چه آثاری بر جای خواهد گذاشت.
نکته دیگر اینکه به واسطه پیچیدهشدن روز افزون جعلیات در فضای سایبری و در هم تنیدهشدن زندگی مردم با این فضا، امکان تشخیص دروغ از حقیقت نیز روز به روز پیچیدهتر میشود و چهبسا در آینده شاهد شکلگیری مشاغل و تخصصهای جدید برای تشخیص جعلیات خواهیم بود.
و در نهایت نکته پایانی اینکه، **بعضی از مسایل اصلا شوخیبردار نیستند و نمیتوان بهسادگی و بدون برنامه منتظر ورود آنها ماند؛ چراکه تولید جعلیات در فضای سایبری، همچون یک بیماری ناشناخته و فعلا غیرقابل درمان است که در صورت حمله به مردم یک کشور، چهبسا امکانی برای درمان قطعی در اختیار متولیان و مسوولان کشور نمیگذارد.**
لذا از هماکنون اقدامات اولیه برای افزایش سواد رسانهای و ارایه پیشآگاهی به عموم جامعه و نهادهای خبری برای کاهش از عواقب احتمالی اجتنابناپذیر است. (منبع:عصرارتباط)