ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

فاجعه «مرگ حقیقت» تا سال 2020

| سه شنبه, ۱۱ دی ۱۳۹۷، ۱۰:۳۳ ق.ظ | ۰ نظر

نادر نینوایی / علی شمیرانی - «هفته بعد ویدیویی 20 دقیقه‌ای با عنوان «بزرگ‌ترین افشاگری در تاریخ ایران» از سخنرانی یک مقام کاملا شناخته‌شده و معتبر سیاسی در یک جمع بزرگ به دستتان خواهد رسید که در آن بسیاری از رویدادها، حوادث و اخباری که سال‌ها تصور می‌کردیم همان‌گونه که در اخبار و تاریخ روایت شده رخ داده‌اند، به یکباره تغییر کرده و روایت کاملا معکوس از آنها بیان می‌شود.

این کلیپ که حاوی فیلمی کاملا شفاف و از نزدیک از چهره و صدای این مقام است، هر مخاطبی را با شوکی عمیق مواجه می‌کند؛ چون تمام باورهای مردم را زیر و رو کرده و در نتیجه به علت اهمیت و حرف‌های تکان‌دهنده‌ای که در آن مطرح می‌شود، ظرف کمتر از یک ساعت به دست نزدیک به 50 میلیون ایرانی در داخل و خارج کشور می‌رسد.

سخنران در بخش‌هایی از این فیلم مردم را نیز با الفاظ زشت و زننده‌ای مورد خطاب قرار می‌دهد که سال‌هاست به‌راحتی فریب‌خورده و بازیچه شده‌اند، در نتیجه خشم و انزجار کل جامعه را دربر می‌گیرد و عده‌ای از مردم حتی به خیابان‌ها ریخته و کشور ظرف چند ساعت از یک زندگی آرام و روزمره، تبدیل به کشوری ملتهب شده و در آستانه یک درگیری تمام‌عیار قرار می‌گیرد.

پلیس و نیروهای ضدشورش وارد عمل می‌شوند، مقامات عالی و امنیتی کشور جلسه اضطراری تشکیل می‌دهند تا به بررسی دقیق ماجرای کلیپ بپردازند. چند ساعت بعد نتیجه معلوم می‌شود. شبکه‌های خبری صدا‌وسیما اطلاعیه شورای‌عالی امنیت ملی را با این مضمون پخش می‌کنند: «به اطلاع می‌رساند نتیجه بررسی‌های به‌عمل‌آمده گویای دروغ و ساختگی‌بودن این کلیپ است.»

متعاقب آن انبوهی از کارشناسان و مسوولان راهی شبکه‌های تلویزیونی می‌شوند تا به مردم نشان دهند این کلیپ چگونه و با استفاده از چه فناوری‌هایی ساخته شده است.

بخش‌هایی از مردم این توضیحات را باور کرده و بخش‌هایی از مردم آن را باور نمی‌کنند و در نتیجه التهابات و هزینه‌های سیاسی، اجتماعی، اقتصادی ناشی از آن کلیپ 20 دقیقه‌ای ادامه می‌یابد...

سطوری که تا کنون می‌خواندید، صرفا یک فرضیه فانتزی نیست. «فاجعه مرگ حقیقت» و تحقق آنچه می‌گوید «چیزی که چشم‌هایت هم می‌بینند باور نکن» بسیار به ما نزدیک است؛ چراکه اکنون هوش مصنوعی و فناوری ساخت بشر، توانسته پدیده شوم و خطرناک «اخبار جعلی» را از مرحله جعل کلمات و اخبار به مرحله‌ای بسیار خطرناک‌تر، پیچیده‌تر و عمیق‌تر، یعنی جعل صدا و تصویر ببرد که از آن با نام DEEPFAKE یا «جعل عمیق» یاد می‌شود؛ موضوعی که دنیای غرب یعنی محل تولد این فناوری‌های پیچیده را عمیقا با خود درگیر کرده و حالا درصدد آموزش‌های گسترده و عمیق به مردم و روزنامه‌نگاران هستند تا امکان و مهارت تشخیص DEEPFAKEها را پیدا کنند.

اما اینکه چه میزان در این مورد موفق باشند بسیار محل بحث و ابهام است؛ چراکه به موازات این تلاش‌ها، فناوری‌های ساخت جعلیات نیز با سرعتی باورنکردنی روز به روز پیشرفته‌تر می‌شوند، تا جایی که چه‌بسا امکان تشخیص آن برای کسی وجود نداشته باشد. شاید راه‌حل اولیه، رفتن سراغ فرد زنده‌ای باشد که فیلم مذکور به او منتسب شده است، اما سوال اینجاست که از کجا می‌توان تشخیص داد که او راست می‌گوید، یا اگر این فیلم‌ها به فردی که در قید حیات نیست منتسب شده باشد، تکلیف چیست؟

اگر مایلید بدانید DEEPFAKE چیست و چگونه عمل می‌کند و دنیا با چه چالش‌هایی برای مهار آن مواجه است، ادامه متن حاضر را که برگرفته از یک دوره آموزشی از سوی روزنامه وال‌استریت‌ژورنال و برای روزنامه‌نگاران شاغل در این رسانه ‌است بخوانید. مطالعه این گزارش به‌ویژه برای مسوولان توصیه می‌شود.

 

مقدمه

فناوری با سرعتی باورنکردنی در حال پیشرفت است و ساخت و انتشار اخبار جعلی نیز هر روز ابعاد تازه‌تری می‌یابد. ساخت اخبار جعلی اما قدمتی به اندازه تاریخ دارد. اما حالا اخبار جعلی به کمک فناوری با سرعت و پیچیدگی‌های بی‌سابقه‌ای مرزهای سایبری را درنوردیده و می‌توانند سرنوشت و آینده یک کشور و ملت را با خطراتی بی‌سابقه مواجه کنند. اما سوال این است که آیا روند فعلی تا ابد ادامه می‌یابد یا سرانجام این مسابقه برای ساخت اخبار جعلی از یک‌سو و کشف آنها از دیگر سو متوقف می‌شود؟

این روزها فناوری هوش مصنوعی وضعیت انتشار اطلاعات جعلی و غلط را وارد فازی جدید و پیچیده کرده است. اخبار جعلی که به کمک هوش مصنوعی ساخته و ارایه می‌شوند حتی باعث شده چالش عمیقی برای اتاق‌های خبر رسانه‌ها و تحریریه‌های روزنامه‌ها به وجود آید.

تصویر زیر از روی دو فایل ویدیویی ثبت شده که یکی اصلی است و دیگری از طریق هوش مصنوعی شبیه‌سازی شده است. آیا می‌توانید تشخیص دهید کدام‌یک اصلی و کدام‌یک جعلی است؟

تصویر شماره1

 

وال‌استریت‌ژورنال برای بررسی صحت ویدیوها و جلوگیری از گمراه شدن تحریریه خود با DEEPFAKEها (جعل عمیق) یک نیروی کاری حرفه‌ای برای تشخیص آنها پرورش داده که با استانداردهای خاصی به بررسی صحت اخبار پرداخته و حتی در زمینه DEEPFAKE پروژه‌های تحقیق و توسعه را به انجام می‌رسانند.

این گروه از کارشناسان وال‌استریت‌ژورنال به منظور تشخیص «جعل عمیق» در فایل‌های ویدیویی، تصاویر، تحقیق‌ها و پلتفرم‌ها آموزش دیده‌اند.

فراتر از این‌ اما امروز رسانه‌های معتبر جهان برای آموزش تحریریه‌های خود در خصوص اخبار جعلی عمیق با موسسات آموزشی شناخته‌شده‌ای همچون Cornell Tech برای آموزش روش‌های شناخت این اخبار به خبرنگاران همکاری می‌کنند تا بتوانند مانع نفوذ خبرهای جعلی به سرخط رسانه‌های خود شوند و با پدیده جدید اخبار جعلی عمیق مقابله کنند.

کریستین گلنسی، معاون سردبیر تیم نظارت بر استانداردهای اخبار جعلی عمیق در وال‌استریت‌ژورنال معتقد است که **می‌بایست هشدارهای بیشتری در زمینه پدیده «جعل عمیق» به اتاق‌های خبری داده شود، زیرا از آنجا که نمی‌دانیم دقیقا چه زمانی و پیرامون چه موضوعی اخبار جعلی عمیق منتشر می‌شوند، باید همیشه با چشمان باز تمام اخباری را که منتشر می‌شود رصد کنیم.**

 

اخبار جعلی عمیق چگونه ساخته شده‌اند؟

تولید بیشتر اخبار جعلی بر اساس یک تکنیک ماشینی که با عنوان «شبکه‌های اخبار تبلیغی مولد» یا GAN شناخته می‌شود، انجام می‌گیرد. با این شیوه می‌توان چهره یک سیاستمدار یا هنرپیشه مشهور را جعل کرد و وی را در حال صحبت کردن در خصوص هر مطلبی که مورد نظر باشد، نشان داد. به این ترتیب یک بار فردی درحالی‌که از او فیلم‌برداری می‌شود مطالبی را بیان می‌کند و در مرحله بعد به کمک فناوری ساخت جعل عمیق، الگوریتم به دنبال موقعیت‌هایی می‌گردد که چهره فرد مشهور موقعیتی مشابه صحبت‌کننده داشته باشد یا عبارات مشابهی را به کار برده باشد؛ در پس‌زمینه هم هوش مصنوعی بهترین ترکیب ممکن برای کنار هم قرار گرفتن این تکه‌ها را انتخاب می‌کند.

از آنجا که تحقیقات صورت‌گرفته در خصوص دیپ‌فیک‌ها عرضه عمومی شده و در اختیار همه قرار دارد، امکان ساخت اخبار جعلی عمیق توسط هرکسی حتی اشخاص عادی هر لحظه افزایش می‌یابد. در حال حاضر هر فردی که یک‌سری اطلاعات کلی تکنیکال داشته باشد و یک کارت گرافیک قدرتمند نیز در اختیار داشته باشد می‌تواند از طریق برنامه‌های متن‌باز اقدام به ساخت اخبار جعلی عمیق یا همان دیپ‌فیک کند.

برخی از موسسات دانشگاهی مثل دانشگاه نیویورک، روش‌های منحصر به‌فردی برای آموزش و ارتقای سواد رسانه‌ای در نظر گرفته‌اند.

یکی از کلاس‌های آنلاین این موسسه قصد دارد به دانشجویان آموزش دهد که چگونه اخبار جعلی عمیق بسازند تا از این طریق آنها را با خطرات اخبار جعلی عمیق کاملا آشنا کنند.

کول‌مارتین که این کلاس‌ها را اداره می‌کند، بر این نظر است که این شیوه برخورد باعث می‌شود که نه‌تنها دانشجویان با قابلیت‌های اخبار جعلی عمیق آشنا شوند، بلکه حتی محدودیت‌های این حوزه و راه‌های شناسایی آنها را نیز بشناسند.

 

تکنیک‌های ساخت جعل عمیق

اخبار جعلی عمیق می‌توانند از طرق بسیار مختلف و گوناگونی ساخته شوند که در ادامه شما را با برخی از این شیوه‌ها آشنا می‌کنیم:

عوض کردن صورت:

یک الگوریتم می‌تواند یکپارچگی صورت فرد را در یک ویدیو هدف قرار دهد. از این تکنیک می‌توان برای قرار دادن سر یک فرد ناشناخته بر بدن یک چهره مشهور مثل یک بازیگر استفاده کرد و فرد را در موقعیتی قرار داد که هرگز در آن حضور نداشته است.

هماهنگی لب‌ها:

در این تکنیک از فردی که لب و دهانش شبیه به چهره فرد مشهور باشد خواسته می‌شود جملاتی را که مورد نظر است بگوید و از او فیلم‌برداری می‌شود. در مرحله بعد فیلم چهره مشهور با لب‌های جعلی جای‌گذاری می‌شود. در نهایت صداگذاری صورت می‌گیرد و نتیجه آن است که این‌طور به نظر می‌رسد که آن چهره مشهور این صحبت‌ها را مطرح کرده است.

بازسازی صورت:

جاعلان همچنین می‌توانند حالات صورت یک فرد را روی تصویر یا ویدیوی فردی دیگر جای‌گذاری کنند؛ با استفاده از این تکنیک این امکان وجود دارد که حالت صورت فرد عصبانی، نگران، خوشحال یا در هر حالت دیگری نشان داده شود.

انتقال حرکت:

محققان همچنین تکنیکی خلق کرده‌اند که به کمک آن می‌توانند حرکات بدن فرد را در یک ویدیو منبع به یک فرد در یک ویدیو هدف منتقل کنند. برای مثال، آنها می‌توانند حرکات یک رقصنده را گرفته و بازیگر هدف را که می‌تواند هر چهره شناخته‌شده‌ای باشد همانند آن حرکت دهند. در همکاری با محققان دانشگاه کالیفرنیا، یک روزنامه‌نگار توانست این روش را برای خودش انجام دهد و بدون آنکه ژیمناستیک یا رقص بلد باشد در یک ویدیو این‌طور نشان دهد که همچون یک ژیمناست حرفه‌ای حرکت می‌کند.

 

روش شناسایی اخبار جعلی

در حال حاضر محققان در حال ساختن و کار کردن روی ابزاری هستند که بتواند جعلیات عمیق را تشخیص داده و شناسایی کند. منابع رسانه‌ای می‌توانند از کارشناسان فناوری‌های مرتبط برای بررسی اخبار جعلی کمک بگیرند و استانداردهایی را به منظور تایید یک ویدیو یا تصویر منتشرشده در نظر بگیرند.

آن‌طور که در آموزش‌های وال‌استریت‌ژورنال برای روزنامه‌نگاران این رسانه آمده است، یکی از راه‌های کشف اخبار جعلی عمیق، بررسی فریم به فریم ویدیو از طریق برنامه‌های ویرایش فایل‌های ویدیویی است. در این روش باید دنبال هرگونه عنصر غیرطبیعی یا اضافه‌شده بگردید.

اخبار جعلی عمیق عموما از روی نسخه‌ای از صحبت کردن یا سخنرانی چهره‌ای که تصویرش جعل شده ارایه می‌شوند، بنابراین سعی کنید در گوگل به دنبال تصاویر و ویدیوهای قدیمی‌تری بگردید که با فیلم یا تصویری که به دستتان رسیده شباهت دارد. عموما سازندگان اخبار جعلی عمیق ویدیوی خود را از روی یکی از تصاویر یا ویدیوهایی که از چهره مشهور مورد نظر پیش از این به صورت آنلاین منتشر شده می‌سازند.

همچنین برنامه‌های ویرایشی مانند Final Cut روزنامه‌نگاران را قادر می‌سازند تا فیلم‌ها را آهسته نگه دارند، تصویر را بزرگنمایی کنند و چند بار آنها را به فریم بکشند یا مکث کنند. این امر کمک می‌کند که ناهماهنگی‌های احتمالی اطراف دهان قابل تشخیص باشد، یا اگر بین رنگ پوست دست و صورت فرد تفاوت هست، یا به لحاظ نور و حالت پوست تفاوت‌هایی در بخش‌های مختلف پوست فرد وجود دارد بتوان آنها را تشخیص داد و فهمید که خبر مورد نظر جعل عمیق است.

شکل دندان‌ها، حرکات غیرطبیعی چانه و گردن و تغییر یا مشکلی که در شکل پس‌زمینه ایجاد شده باشد، همگی از نشانه‌های اخبار جعلی عمیق هستند.

اگرچه فناوری ساخت اخبار جعلی عمیق پیچیده و قدرتمند است اما همواره احتمال اختلال در صدا وجود دارد، پس اگر ویدیویی که به دستتان رسیده صدا دارد، به صداهای روباتیک و غیرطبیعی مثل تنفس‌های نامنظم توجه کنید؛ چراکه این مورد نیز از دیگر نشانه‌های جعلی بودن ویدیوها است. البته خبر بد اینکه این اختلال‌های صوتی توسط فناوری‌های عرضه شده روز به روز بهبود یافته و در حال اصلاح هستند.

**توجه کنید که اگر کسی یک دقیقه از صدای فردی را در اختیار داشته باشد می‌تواند براساس آن فایل صوتی بسازد که اظهارات متفاوتی در آن بیان شده است؛ پس به فایل‌های صوتی نیز هرگز اعتماد نکنید. جالب است بدانید که توسعه‌دهندگان بازی‌های ویدیویی از طریق برنامه‌های مرتبط با صداسازی عموما صداهای مورد نظر را براساس نمونه‌های قبلی شبیه‌سازی می‌کنند.**

واقعیت این است که توسعه فناوری‌های هوش مصنوعی جهت شبیه‌سازی ویدیوها و اصوات برای به کارگیری در بازی‌های ویدیویی می‌تواند ناخواسته باعث گسترده شدن ساخت و انتشار اخبار جعلی عمیق شود. مارک وارنر و مارکو روبیو، دو سناتور آمریکا هشدارهایی را در خصوص توسعه فناوری هوش مصنوعی و اثر احتمالی آن بر ایجاد اخبار جعلی عمیق مطرح کرده‌اند و به دنبال راهکارهایی برای جلوگیری از ساخت جعل عمیق هستند.

البته در این میان نباید روش اصلی روزنامه‌نگاری را نیز نادیده گرفت، پس اگر در رسانه‌ای کار می‌کنید حتما به‌عنوان یک روزنامه‌نگار با کسی که ویدیویی از او به دستتان رسیده تماس گرفته و صحت فایل را از این طریق نیز بررسی کنید.

 

بررسی منبع

اگر کسی فیلم مشکوکی را برایتان ارسال کرده است، گام اول این است که سعی کنید با منبع تماس بگیرید. این شخص چگونه آن را به دست آورده است؟ چرا و کجا فیلم‌برداری شده است؟ تا جایی که ممکن است از کسی که فایل را در اختیار شما گذاشته اطلاعات بگیرید و درخواست اثبات درستی اطلاعات ارایه‌شده را داده و از قبول سریع آنچه می‌بینید اجتناب کنید. اگر ویدیو آنلاین است و ناشر آن شناخته‌شده نیست، ببینید قبلا چه کسی آن را منتشر کرده؟ توسط چه کسانی به اشتراک گذاشته شده است؟ با چه کسانی به اشتراک گذاشته شده است؟

با کمک ابزارهایی همچون InVID و همچنین دیگر برنامه‌های بررسی‌کننده متادیتاها می‌توانید تمام این اطلاعات را به دست آورید.

وقتی فایل ویدیویی مشکوکی در یک شبکه اجتماعی می‌بینید، در مرحله اول اگر به منبع اصلی خبر دسترسی دارید، سعی کنید منبع اصلی را که ادعا شده خبر از روی آن نقل یا منتشر شده بررسی کنید. برای مثال، **اگر دیدید در یک شبکه اجتماعی تصویر یا ویدیویی غیرمعمول از یک چهره سرشناس منتشر شده که صحبت‌های عجیبی را مطرح کرده، ببینید آن ویدیو یا تصویر به نقل از چه خبرگزاری یا روزنامه‌ای منتشر شده، سپس به صفحه رسمی آن خبرگزاری یا روزنامه رفته و ببینید آیا خبری در آن باره هست یا خیر؟**

در حال حاضر سازمان‌های تایید محتوا مثل اسوشیتدپرس و استوری‌فول در زمینه تایید ویدیوها و اخبار به صورت رسمی فعالیت می‌کنند. البته هر روز نیز ابزار جدیدی براب تایید صحت و بررسی جعلی نبودن فایل‌های تصویری منتشر می‌شود. برای مثال، ابزارهای جدیدی از جمله TruePic و Serelay از بلاک‌چین برای احراز هویت عکس استفاده می‌کنند. صرف‌نظر از تکنولوژی مورد استفاده، انسان در اتاق خبر در مرکز این روند قرار دارد.

**سعید رجیو، کارشناس ارشد بررسی اخبار جعلی معتقد است که به هر صورت فناوری به‌تنهایی نمی‌تواند راه‌حل کشف و از بین بردن اخبار جعلی باشد، بلکه این ترکیب هوش مصنوعی، فناوری و نیروی انسانی است که می‌تواند باعث کشف اخبار جعلی شود.**

 

لزوم هشدار درباره جعل عمیق

واقعیت این است که امروز روزنامه‌نگاران وظیفه مهمی در زمینه اطلاع‌رسانی به مردم در خصوص اخبار جعلی عمیق و خطرات و چالش‌های هوش مصنوعی دارند. نباید فراموش کرد که حزب نازی و هیتلر با کمک تبلیغات رسانه‌ای در آلمان رای آورده و روی کار آمدند و هیتلر با کمک گوبلز، وزیر تبلیغات خود و نمایش فیلم‌های نژادپرستانه توانست مردم آلمان را تشویق به ورود به یک جنگ جهانی کند.

با این تفاسیر طبیعی است که رسانه، قدرت و توانایی‌های زیادی داشته و دارای توان اثرگذاری بر مردم است. اگر در دوره هیتلر سینما فناوری جدیدی حساب شده و آثار بیش از انتظاری را بر مردم گذاشت، امروز شبکه‌های اجتماعی و ویدیوهای منتشر‌شده بر بستر آنها برای مردم فناوری نوینی محسوب می‌شوند و درنتیجه احتمال فریب آنها با توجه به اثرگذاری بالای تصاویر ویدیویی وجود دارد.

از سوی دیگر نباید از نظر دور داشت که حس دیدن همواره برای بشر از هر حس دیگری باورپذیری بیشتری دارد و بیان عباراتی نظیر «خودم با چشمان خودم دیدم» گویای باور رایج عموم به این حس است. لذا وقتی تصاویر ویدیویی تغییر و تحریف شوند شاید مردم به سبب باورهای فرهنگی و روان‌شناختی خود و حسشان مبنی بر باورپذیری حس بصری اخبار جعلی عمیق را راحت‌تر باور کنند.

به این ترتیب به نظر می‌رسد که امروز روزنامه‌نگاران، خبرنگاران و کارشناسان امور رسانه‌ای بیش از هر زمان دیگر لازم است مردم را در سراسر جهان با خطرات اخبار جعلی عمیق آشنا کنند تا مانع شکل‌گیری فریب عمومی و هدایت افکار عمومی توسط قدرتمندان شوند.

محققان MIT در یک مطالعه که در طول سال‌های 2006 تا 2017 انجام شده دریافتند که «دروغ به‌طور قابل توجهی سریع‌تر، عمیق‌تر و گسترده‌تر از حقیقت در تمام دسته‌های اطلاعات منتشر شده است». داستان‌های دروغین 70 درصد احتمال بیشتری برای بازتوییت نسبت به حقایق دارند و البته با سرعت شش برابر از حقیقت هم منتشر می‌شوند.

در نهایت اینکه کارشناسان معتقدند که پیشرفت فناوری تولید و توسعه اخبار جعلی تا سال 2020 که انتخابات بعدی آمریکا خواهد بود با سرعت ادامه خواهد داشت و پس از آن سرعت توسعه این فناوری تا حدودی فروکش خواهد کرد.

این موضوع به معنای پایان اخبار جعلی و فاز بعدی آن یعنی جعل عمیق نیست، بلکه کارشناسان معتقدند صرفا فناوری تولید این موضوعات به واسطه نزدیکی به انتخابات 2020 آمریکا و احتمالا حداکثر تاثیرگذاری بر آن به بلوغ خود رسیده و تا حدودی متوقف می‌شوند، نه تولید و تکثیر اخبار جعلی.

اگرچه این فناوری مهلک موضوع خیلی جدیدی محسوب نمی‌شود، اما نگرانی اصلی و بزرگ ارزان شدن و افتادن این فناوری به دست خرابکاران و سودجویان است که می‌تواند به باج‌گیری از افراد، تحریف تاریخ، کلاهبرداری و حتی به‌هم‌ریختن زندگی‌ها از طریق ساخت فیلم‌های جعل عمیق نیز بینجامد.

لذا نیاز به توضیح زیادی نیست که فناوری «جعل عمیق» چه فجایع و مشکلات عمیقی با خود به همراه خواهد داشت و درحالی‌که در کشوری همچون ایران حتی گام‌های عملی و ابتدایی برای مهار حداقلی اخبار جعلی برداشته نشده، تصور کنید ورود جعل عمیق چه آثاری بر جای خواهد گذاشت.

نکته دیگر اینکه به واسطه پیچیده‌شدن روز افزون جعلیات در فضای سایبری و در هم تنیده‌شدن زندگی مردم با این فضا، امکان تشخیص دروغ از حقیقت نیز روز به روز پیچیده‌تر می‌شود و چه‌بسا در آینده شاهد شکل‌گیری مشاغل و تخصص‌های جدید برای تشخیص جعلیات خواهیم بود.

و در نهایت نکته پایانی اینکه، **بعضی از مسایل اصلا شوخی‌بردار نیستند و نمی‌توان به‌سادگی و بدون برنامه منتظر ورود آنها ماند؛ چراکه تولید جعلیات در فضای سایبری، همچون یک بیماری ناشناخته و فعلا غیرقابل درمان است که در صورت حمله به مردم یک کشور، چه‌بسا امکانی برای درمان قطعی در اختیار متولیان و مسوولان کشور نمی‌گذارد.**

لذا از هم‌اکنون اقدامات اولیه برای افزایش سواد رسانه‌ای و ارایه پیش‌آگاهی به عموم جامعه و نهادهای خبری برای کاهش از عواقب احتمالی اجتناب‌ناپذیر است. (منبع:عصرارتباط)

  • ۹۷/۱۰/۱۱

اخبار جعلی

نظرات  (۰)

هیچ نظری هنوز ثبت نشده است

ارسال نظر

ارسال نظر آزاد است، اما اگر قبلا در بیان ثبت نام کرده اید می توانید ابتدا وارد شوید.
شما میتوانید از این تگهای html استفاده کنید:
<b> یا <strong>، <em> یا <i>، <u>، <strike> یا <s>، <sup>، <sub>، <blockquote>، <code>، <pre>، <hr>، <br>، <p>، <a href="" title="">، <span style="">، <div align="">