ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۴۷ مطلب با کلمه‌ی کلیدی «اخبار جعلی» ثبت شده است

تحلیل


مارک زاکربرگ مدیر عامل فیسبوک گفته پلتفرم او برای مبارزه با اطلاعات نادرست در جریان انتخابات پیش روی ریاست جمهوری آمریکا آماده است، پلتفرمی که در مسابقه برای مبارزه علیه دخالت دولت‌های خارجی در انتخابات مجهز است.

به گزارش ایندیپندنت مارک زاکربرگ مدیر عامل فیسبوک گفته پلتفرم او برای مبارزه با اطلاعات نادرست در جریان انتخابات پیش روی ریاست جمهوری آمریکا آماده است، پلتفرمی که در مسابقه برای مبارزه علیه دخالت دولت‌های خارجی در انتخابات مجهز است.

  زاکربرگ در اولین مصاحبه تلویزیونی خود در پنج سال اخیر، به شبکه بی بی سی گفت که از سال ۲۰۱۶ میلادی، او و شرکتش «‌تجربه زیادی در باره چگونگی کارکرد سیاست در دنیای مجازی کسب کرده‌اند» و فیس‌بوک با دولت‌های مختلف در سراسر جهان همکاری کرده تا در مقابل یورش مداخله‌جویانه پیش رو از هم اکنون تا ماه نوامبر آماده شود.
  او گفت: «یکی از بخش‌هایی که ما در سال ۲۰۱۶ از آن عقب ماندیم و حالا در آن پیشرفت‌های زیادی کرده‌ایم، شناسایی و مبارزه با کارزارهای اطلاعاتی هماهنگ شده‌ای‌ است که از سوی بازیگران مختلف در سراسر جهان برنامه‌ریزی می‌شود».
  زاکربرگ با اشاره به این که شرکت فیس‌بوک برای شناسایی بهتر این تهدیدها با دولت‌های مختلف در سراسر جهان همکاری داشته گفت: «کشورهای مختلف برای دخالت تلاش کرده و ما شاهد چنین مسایلی خواهیم بود. من یقین دارم که ما قادر به حفاظت از درستی و سلامت انتخابات خواهیم بود.»
  فیس‌بوک از سوی مقام‌های آمریکا برای پذیرفتن مسئولیت بیشتر در قبال محتوای سیاسی منتشر شده در این شبکه تحت فشار شدید قرار دارد. بر اساس مطالعه انجام شده از سوی دانشگاه پرینستون، هیچ پلتفرم اینترنتی دیگری نمی‌تواند مانند فیس بوک، با سرعت و حجم بالا انتشار اطلاعات نادرست را تسهیل کند.
  با این وجود، فیس‌بوک در مقابل درخواست‌ها مبنی بر تغییرات اساسی و انتقادها از این شبکه مقاومت کرده است. فیس‌بوک در اوایل سال جاری اعلام کرد سیاست‌های تبلیغاتی خود را تغییر نمی‌دهد، از جمله سیاست هدف‌مندی خرد که به بازیگران سیاسی اجازه می‌دهد تا پیام‌های مورد نظر خود را به گروه‌های بسیار خاصی بفرستند.
  زاکربرگ که شخصا کنترل کامل شرکت فیس‌بوک را بر عهده دارد، در پاسخ به سئوالی در مورد اطلاعات غلط پیرامون گسترش ویروس کرونا از جمله ادعاهای بی‌اساسی مانند نقش داشتن شبکه «۵ جی» (5G)، در گسترش این ویروس وقتی از او پرسیده شد که «اگر فرد دیوانه‌ای تصمیم بگیرد به مردم بگوید مواد ضدعفونی‌کننده بنوشید و یا تزریق کنید (اشاره به گفته‌های اخیر دونالد ترامپ)، در این صورت پاسخ الگوریتم فیس بوک به آن چه خواهد بود؟» گفت وقتی موضوع «اطلاعات نادرست مضر که مردم را در معرض خطر فوری آسیب‌های فیزیکی قرار می‌دهد» مطرح باشد، ما آن را از صفحه فیس‌بوک حذف می‌کنیم. حتی در صورتی که فردی در معرض خطر فوری قرار نگرفته باشد، «ما نمی‌خواهیم محتوای اطلاعات نادرست، به طور گسترده، در این شبکه انتشار یابد.»
  این ظاهراً در مورد همه کاربران و مقام‌های دولتی، فارغ از قدرت و نفوذ آنان، صادق است:‌«به عنوان مثال، وقتی رئیس جمهوری برزیل گفت دارویی وجود دارد که یقیناً ویروس کرونا را درمان می‌کند و این دارو از سوی دانشمندان تایید شده، واضح بود که این ادعا واقعیت ندارد ... بنابراین ما سیاست خود را در این مورد اعمال کردیم.»
  مدیر عامل فیس‌بوک با اشاره به اینکه دو دسته اطلاعات نادرست وجود دارند گفت: «اگر شما حرفی بزنید که مردم را در معرض خطر فوری آسیب قرار دهد، ما آن را از صفحه فیس‌بوک حذف می‌کنیم. اگر شما چیزی بگویید که فقط غلط باشد، ما آن را حذف نمی‌کنیم اما به طور کل جلوی انتشار گسترده آن را می‌گیریم. اگر چه این دسته از اطلاعات نادرست موضوع به مراتب حساس‌تری است، زیرا چیزهای زیادی در جامعه وجود دارند که بعضی فکر می‌‌کنند بد است در حالی که از سوی دیگر، عده‌ای فکر می‌کنند خوب است. من فکر می‌کنم اگر چیزی به وضوح باعث آسیب به فردی در کوتاه مدت نشود، ما به طور کلی تا حد ممکن دریچه‌ای برای انتشار آن فراهم خواهیم کرد.»
 

فوروارد پیام در واتس‌اپ سخت‌تر می‌شود

سه شنبه, ۱۹ فروردين ۱۳۹۹، ۰۴:۵۹ ب.ظ | ۰ نظر

واتس اپ برای جلوگیری از گسترش اخبار جعلی اعلام کرده اگر کاربری در واتس اپ پیامی را دریافت کند که قبلا ۵ بار فوروارد شده باشد، فرد فقط می تواند آن را به یکی از چت های خود بفرستد.

به گزارش خبرگزاری مهر به نقل از انگجت،  در عصری زندگی می کنیم که انسان ها برای برقراری ارتباط با یکدیگر بیش از گذشته به اپلیکیشن های پیام رسان متکی هستند و این امر مضراتی دارد که یکی از آنها گسترش اخبار جعلی است. درهمین راستا واتس اپ نیز برای مقابله با گسترش اخبار جعلی اقدام تازه ای در نظر گرفته است.

 اگر کاربری در واتس اپ پیامی را دریافت کند که قبلا ۵ بار فوروارد شده باشد، فرد فقط می تواند آن را به یکی از چت های مورد نظر خود ارسال کند.  

 واتس اپ در یک پست وبلاگی اعلام کرد: شاهد افزایش قابل توجه تعداد پیام های فوروارد شده در پلتفرم خود بوده ایم. هرچند بسیاری از این پیام ها بی ضرر هستند( مانند ویدئوهای کوتاه)، اما این روند به گسترش اخبار جعلی دامن می زند. 

 در ادامه آمده است: ما معتقدیم  برای آنکه واتس اپ همچنان محیطی مناسب محاورات خصوصی بماند، باید روند گسترش چنین پیام هایی کندتر شود.

این نخستین باری نیست که واتس اپ چنین اقدامی را اجرایی می کند. پس از آنکه فیس بوک(شرکت مادر این اپلیکیشن) و واتس اپ در سال ۲۰۱۸ متهم شدند نقش پررنگی در گسترش خشونت در هند داشته اند، واتس اپ تعداد دفعات فوروارد کردن یک پیام را از ۲۰ به ۵ بار کاهش داد.

توئیتر مشغول آزمایش ویژگی جدیدی است که توئیت های حاوی اطلاعات جعلی سیاستمداران را با برچسبی مشخص کند.

به گزارش خبرگزاری مهر به نقل از انگجت، توئیتر مشغول آزمایش ویژگی جدیدی است که در صورت اجرایی شدن، توئیت های حاوی اطلاعات گمراه کننده سیاستمداران و شخصیت‌های سیاسی را مشخص می‌کند.

در این ویژگی، پس از آنکه خبرنگاران و کارمندان مشخص کردند توییتی گمراه کننده و خطرناک است، برچسب‌های قرمز و نارنجی رنگی به توییت افزوده می‌شود.

توئیتر تاکید دارد این ویژگی در راستای سیاست ضد اطلاعات جعلی است که این شرکت قصد دارد در ۵ مارس اجرا کند.

سخنگوی این شبکه اجتماعی می‌گوید: ما مشغول بررسی راه‌های مختلف برای مقابله با اطلاعات جعلی و فراهم کردن محتوایی بیشتر در این پلتفرم هستیم. اطلاعات جعلی یک چالش بزرگ است و ما روش‌های مختلفی را برای مقابله با آن آزمایش می‌کنیم

توییتر محتوای جعلی را برچسب‌دار می‌کند

چهارشنبه, ۱۶ بهمن ۱۳۹۸، ۰۲:۱۶ ب.ظ | ۰ نظر

با توجه به نزدیک تر شدن انتخابات ریاست جمهوری ۲۰۲۰ آمریکا، توئیتر در بیانیه ای رسمی سیاست خود برای برچسب زنی یا حذف محتوای جعلی و گمراه کننده در پلتفرمش را اعلام کرد.

به گزارش خبرگزاری مهر به نقل از دیلی میل، با نزدیک تر شدن انتخابات ریاست جمهوری ۲۰۲۰ آمریکا، توئیتر پیام‌هایی که محتوای جعلی یا فریبکارانه دارند را با برچسب مخصوص مشخص می‌کند.

این شبکه اجتماعی با انتشار بیانیه‌ای برای نخستین بار سیاست رسمی این شرکت را اعلام کرد. البته توئیتر از سال گذشته مشغول تنظیم این سیاست بوده است.

بنا بر سیاست جدید، توئیتر محتوای گمراه کننده که مضر باشد را حذف یا با برچسبی مشخص می‌کند. چنین محتوایی شامل تهدید امنیت جانی، آشوب‌های مدنی گسترده، جلوگیری از رای دادن افراد و ریسک‌های امنیت سایبری است.

در بیانیه این شبکه اجتماعی آمده است: گاهی اوقات هدف کاربران از انتشار محتوای جعلی و دستکاری شده فریب افراد نیست. اما این محتوا مضر است. ما توئیت‌هایی که حاوی چنین محتوایی هستند با برچسب مشخص می‌کنیم تا افراد از صحت اخبار و رسانه‌ها مطلع شوند.

توئیتر برای حذف یا برچسب زنی محتوا چند عامل را در نظر می‌گیرد از جمله آنکه آیا محتوا طوری دستکاری شده که ترکیب، توالی، زمانبندی یا چارچوب آن تغییر کرده است یا خیر.

البته این به معنای آن نیست که تمام محتوای دستکاری شده در توئیتر حذف می‌شود بلکه هرگونه محتوای دستکاری شده که قصد فریب افراد را داشته باشد، در این شبکه ممنوع خواهد بود.

جو بایدن یکی از نامزدهای دموکرات انتخابات ریاست جمهوری آمریکا، می گوید فیس بوک با اطلاع از دروغ بودن برخی اخبار و اطلاعات به انتشار و پخش آنها کمک می کند.
به گزارش فارس به نقل از انگجت، جو بایدن در تازه‌ترین مصاحبه خود با روزنامه نیویورک تایمز گفته است آمریکا باید به سرعت در برابر عملکرد برخی شرکت‌های فناوری مانند گوگل و فیس بوک عکس العمل نشان دهد و مانع از انتشار اخبار دروغین توسط آنها شود.

وی در این مصاحبه گفته است که در اکتبر گذشته از فیس بوک خواسته بود تا یک پیام بازرگانی منتشر شده در این شبکه اجتماعی را که حاوی مطالب دروغینی به نفع ترامپ بود، پاک کند. اما فیس بوک علیرغم اطلاع از محتوای دروغ پیام بازرگانی یادشده از این کار خودداری کرد.

بایدن در این مورد افزود: خود زاکربرگ بهتر از من این موضوع را می‌داند و ما نباید تنها نگران تمرکز قدرت باشیم، بلکه باید نگران فقدان حریم شخصی و عدم رعایت آن هم باشیم. فیس بوک تنها یک شرکت اینترنتی نیست و مطالبی که می‌داند دروغ است را هم منتشر می‌کند و ما باید استانداردهایی را در این زمینه وضع کنیم.

میترا جلیلی - مروزه شاهد انتشار اخبار جعلی در فضای مجازی و شبکه‌های اجتماعی هستیم و بسیاری معتقدند که رویدادهای سرنوشت ساز کشورها ازجمله انتخابات می‌توانند از این اخبار تأثیر بگیرند. اهمیت این موضوع تا آنجاست که مؤسسات پژوهشی مختلف بر تأثیر این اخبار بر اقتصاد جهان مطالعاتی گسترده داشته‌اند و یکی از این گزارش‌های اقتصادی که توسط محققان دانشگاه بالتیمور انجام شده است، نشان می‌دهد اخبار جعلی هرسال حدود 78میلیارد دلار به اقتصاد جهان آسیب می‌رساند.

 

افزایش هزینه مقابله با اطلاعات جعلی
 این روزها شاهد انتشار اخبار جعلی و فیک در جهان هستیم که این موضوع نه تنها بر میزان اعتماد مردم تأثیرگذار است بلکه بر اقتصاد کشورها نیز اثر دارد. گزارش محققان دانشگاه بالتیمور هزینه اقتصادی ناشی از این اخبار جعلی را مورد بررسی قرار داده و عنوان کرده است مبلغی که دولت‌ها و شرکت‌های تجاری مجبورند برای مقابله با انتشار اخبار فیک هزینه کنند نیز روندی رو به رشد دارد.
این گزارش اقتصادی که با استفاده از دیتاهای موجود و نیز مصاحبه با افراد صاحبنظر در این حوزه ارائه شده، نشان می‌دهد که اخبار جعلی هرسال حدود 78میلیارد دلار به اقتصاد جهان آسیب می‌رساند و البته اگر به هزینه‌های اقتصادی انتشار این اخبار با دیده‌ای ریزبین‌تر نگاه کنیم و هزینه‌های غیرمستقیم اقتصادی را نیز در نظر بگیریم، می‌بینیم که این آمار و ارقام ابعاد گسترده تری پیدا می‌کنند.
از هزینه‌های غیرمستقیم اقتصادی می‌توان به کاهش اعتماد به مؤسسات و شرکت‌های بزرگ یا سیاستمداران و شخصیت‌های برجسته اشاره کرد. انجماد در فعالیت‌های نوآورانه به‌دلیل بی‌میلی مردم به حضور در چنین فعالیت‌هایی، از دست رفتن ارزش نام تجاری برندها یا شرکت‌های زنجیره‌ای و همچنین لطمه خوردن اعتبار نهادها و سازمان‌هایی ازجمله پلیس و ارتش، هریک می‌تواند بر میزان خسارت‌های اقتصادی برآورده شده در این گزارش بیفزاید. گاه از دست رفتن اعتبار یک شرکت، مؤسسه و... را با هیچ مبلغی نمی‌توان جایگزین کرد. با توجه به این موضوع، برخی معتقدند که میزان خسارت اقتصادی ناشی از اخبار جعلی در جهان را حتی می‌توان تا مرز 100 میلیارد دلار تخمین زد.


نگرانی‌های انجمن جهانی اقتصاد
موضوع انتشار اخبار جعلی، مورد توجه انجمن جهانی اقتصاد نیز قرار گرفته است. این انجمن با توجه به‌ همه این موارد، انتشار اخبار جعلی را درمیان بالاترین خطرهای جهانی رده‌بندی کرده است. کارشناسان این انجمن معتقدند در اقتصاد جهانی، اعتماد بسیار مهم است درحالی که انتشار اخبار جعلی بر توانایی افراد در گرفتن تصمیمات معقول و آگاهانه تأثیر بسیار منفی می‌گذارد.
 ازسوی دیگر به‌هرحال انتشار اخبار غلط، بسیار راحت است و از آنجا که اخبار جعلی، بیش از همه تبلیغات روی پلتفرم‌ها را نشانه می‌گیرد، باید فکری به حال این موضوع کرد. از نگاه کارشناسان انجمن جهانی اقتصاد، ازآنجا که هیچ ابزار خاصی برای راستی آزمایی محتوای این اخبار وجود ندارد در حال حاضر به هیچ عنوان نمی‌توان مانع انتشار چنین اخباری شد و حتی می‌توان گفت که انتشار اطلاعات غلط و گمراه‌کننده همچنان تا زمانی نامشخص ادامه خواهد داشت. این محققان همچنین معتقدند آنچه مسلم است اینکه با تبلیغ، اشتراک‌گذاری و تکثیر اخبار جعلی در وب سایت‌ها، اخبار بدون منبع زیادی منتشر خواهد شد و به همین دلیل هم ما هنوز راه درازی در پیش داریم تا انتشار این اطلاعات غلط را ریشه کن کنیم.
طبق گزارش انجمن جهانی اقتصاد، تاکنون چنین اخباری به بخش‌های مختلف ازجمله حوزه سلامت، تجارت الکترونیک، رسانه و امور مالی خسارت‌های زیادی وارد کرده است تا جایی که انتشار اطلاعات غلط در حوزه سلامت، سالانه حداقل ضرر 9میلیارد دلاری را در جهان متوجه این بخش کرده است. به‌عنوان مثال اخبار جعلی که درباره واکسیناسیون روی فیس‌بوک منتشر شد و بسیاری از مردم را در این زمینه دچار شک و تردید کرد، یکی از این نمونه‌ها محسوب می‌شود.
انتشار اخبار جعلی در حوزه مالی نیز سالانه ضرری 17میلیارد دلاری به این بخش وارد می‌کند. بخشی از اطلاعات فیک منتشر شده نیز به اعتبار اشخاص یا شرکت‌ها، بانک‌ها و... صدمه زیادی وارد می‌کند و حتی تخمین زده شده است که اعتبار حقیقی یا حقوقی اشخاص در نتیجه انتشار این اطلاعات غلط، سالانه 9میلیارد دلار خسارت می‌بیند.
همچنین این گزارش نشان می‌دهد که برندها هرسال از انتشار اخبار جعلی متضرر می‌شوند و تبلیغات گمراه‌کننده برای برندها سالانه حداقل 235میلیون دلار خسارت درپی داشته است. طبق این مطالعه، سالانه حداقل 400میلیون دلار در عرصه‌های سیاسی برای انتشار اخبار جعلی هزینه می‌شود.


پراکندگی اخبار فیک در جهان
دانشگاه پرینستون نیز در زمینه انتشار اخبار جعلی به تحقیق پرداخته و یادآور شده است که در انتخابات سال 2016 امریکا و در کمپین‌های این رویداد سیاسی، مقالات جعلی حداقل 2.6درصد از کل خبرها را به خود اختصاص داده بودند. البته این گزارش نگاهی هم به آینده دارد و با توجه به میزان فعلی انتشار اخبار جعلی، تخمین می‌زند که در انتخابات 2020 ریاست جمهوری امریکا، حدود 200میلیون دلار برای تبلیغات، تقویت و تکثیر اطلاعات غلط در کمپین‌ها هزینه خواهد شد.
این اخبار جعلی تنها به امریکا ختم نمی‌شود و در سایر نقاط جهان هم داستانی مشابه را شاهد هستیم. به‌عنوان مثال انتشار اخبار غلط در انتخابات سال 2019هندوستان، خسارت 140میلیون دلاری برای این کشور به همراه داشت یا در برزیل در سال 2018، انتشار اخبار جعلی ضرری 34میلیون دلاری را برای این کشور رقم زد. انتخابات در کنیا نیز با اخبار جعلی پیوند خورد و انتشار اطلاعات غلط و گمراه‌کننده در عرصه سیاسی این کشور منجر به خسارت 20میلیون دلاری شد. در آفریقای جنوبی نیز توسعه و انتشار اخبار فیک بیش از 2.7میلیون دلار هزینه برای این کشور به همراه داشته است. این گزارش همچنین نقبی به سال 2017 میلادی زده و یادآور شده است که در این سال انتخابات بریتانیا نیز مورد هجوم اخبار جعلی قرار گرفته و میزان خسارت آن حداقل یک میلیون دلار تخمین زده شده است.
اگر هم بخواهیم به نمونه‌های عینی خسارت‌های اخبار جعلی اشاره کنیم می‌توان به خبر توئیتری جعلی منتشر شده درسال 2012 اشاره کرد. در این سال یک کاربر توئیتر با هک کردن اکانت توئیتر وزیر کشور روسیه، در توئیتی نوشت: بشار اسد، رئیس جمهوری سوریه کشته یا مجروح شده است که این خبر جعلی منجر به افزایش نرخ نفت خام شد.
همچنین در سال 2015، بعد از انتشار خبر جعلی مبنی بر پیشنهاد خرید توئیتر با بهای 31میلیارد دلار، سهام این شبکه اجتماعی بیش از 8درصد افزایش یافت. انتشار اخبار جعلی سال 2017 درباره کشته شدن بنیانگذار ارز مجازی اترئوم در یک سانحه رانندگی نیز سبب کاهش ارزش این کمپانی شد.(منبع:ایران)

خبرگزاری رویترز با همکاری شرکت فیس بوک یک دوره آنلاین برای کمک به روزنامه نگاران به منظور شناسایی تصاویر، اصوات و ویدئوهای جعل عمیق برگزار می کند.
به گزارش فارس به نقل از انگجت، مدت برگزاری این دوره آنلاین ۴۵دقیقه است و به روزنامه نگاران امکان می‌دهد تا با ابزار لازم به منظور شناسایی محتوای جعل عمیق آشنا شوند.

پیشرفت فناوری هوش مصنوعی باعث شده تا برخی افراد کلاه‌بردار و متخلف به منظور تاثیرگذاری بر افکار عمومی و فریب مردم فایل های ویدئویی،صوتی و تصاویر دروغینی را منتشر کنند. در این تصاویر و فایل‌ها معمولا شخصیت‌های سیاسی و اجتماعی مشهور در حال اظهار نظرهایی جنجالی هستند. کارشناسان هشدار می‌دهند که گسترش این پدیده می‌تواند به بروز نا آرامی‌های سیاسی و اجتماعی و تنش در روابط میان کشورها منجر شود.

تا به امروز مواردی از این تصاویر و به خصوص ویدئوها با حضور سیاست مداران و چهره های فناوری مشهور آمریکایی منتشر شده است.

فیس بوک همچنین قصد دارد شش کارشناس خود را برای کمک به رویترز در این زمینه اعزام کند تا این خبرگزاری بتواند دوره های آموزشی بین المللی با موضوع جعل عمیق برای خبرنگاران خود در دیگر کشورها برگزار کند. این محتوای آموزشی به زبان‌های انگلیسی، فرانسوی، اسپانیایی و عربی در دسترس قرار می‌گیرد و به زودی به زبان‌های آلمانی و ژاپنی نیز ترجمه می شود.

برخی تبلیغات منتشر شده در فیس بوک، مطالب دروغین و نادرستی را در مورد داروهای ضد ویروس ایدز منتشر کرده اند.
به گزارش  فارس به نقل از انگجت،علیرغم انتشار مطالب دروغین در برخی آگهی های منتشر شده در مورد ایدز در فیس بوک، مدیران این شبکه اجتماعی نمایش تبلیغات یادشده را کماکان مجاز دانسته و جلوی این کار را نگرفته اند.

فیسبوک قبل از این هم به علت نمایش تبلیغات دروغین و انتشار اگهی های جعلی سیاسی بارها و بارها مورد انتقاد قرار گرفته بود و حالا مشخص شده این تخلف‌ها محدود به حوزه سیاست نیست.

آگهی های دروغین جدید فیس بوک، حاوی اطلاعاتی غلط در مورد خطرات دارویی بهنام ترووادا است. این دارو خطر انتقال ویروس اچ آی وی به دیگر افراد را کاهش می دهد. اما در آگهی های منتشر شده این مساله انکار شده است.

شرکت سازنده این دارو با حمایت ۵۰ سازمان دیگر خواستار حذف آگهی یادشده از فیس بوک شده، اما این شبکه اجتماعی هنوز در این زمینه عکس العملی نشان نداده است.

فیس‌بوک بستر گسترش اخبار جعلی شده است

دوشنبه, ۱۸ آذر ۱۳۹۸، ۰۱:۳۸ ب.ظ | ۰ نظر

نتایج بررسی علمی جدید دانشگاه آکسفورد نشان می دهد اگر چه میزان انتشار اخبار جعلی در توئیتر کاهش یافته، اما فیس بوک محبوب ترین شبکه اجتماعی برای به اشتراک گذاری اخبار جعلی است.
به گزارش فارس به نقل از یاهونیوز، بررسی های جدید دانشگاه آکسفورد حاکی است میزان انتشار اخبار دروغین در توئیتر کمتر شده، اما هنوز این اخبار به شکلی گسترده در شبکه های اجتماعی به اشتراک گذاشته می شوند.

بر همین اساس سایت های انتشار اخبار جعلی هر روز به طور متوسط ۹.۶ خبر دروغین منتشر می کنند. در عین حال سازمان‌های خبری و خبرگزاری های مهم هر روز به طور متوسط ۳۸.۲ خبر جعلی منتشر می کنند. در عین حال، میزان به اشتراک گذاری اخبار واقعی بیشتر از اخبار جعلی است.

تحقیق یادشده نشان می دهد ۴۰ درصد از اخبار جعلی ارسالی در شبکه های اجتماعی باعث واکنش شدید کاربران می‌شوند. اما اخبار رسانه های واقعی معمولا باعث واکنش ملایم می گردند. در این تحقیق کمتر از دو درصد منابع خبری به اشتراک گذاشته شده در توئیتر را اخبار جعلی تشکیل داده بودند.

بخش عمده سایت های منتشر کننده اخبار جعلی در امریکا، کانادا و آلمان واقع هستند و فیس بوک محبوب ترین شبکه اجتماعی برای انتشار چنین اخباری است.

فیس بوک در پی همخوانی با قوانین مربوط به اخبار جعلی در سنگاپور، یک پست حاوی اطلاعات غلط را با برچسب مخصوص مشخص کرده است.

به گزارش خبرگزاری مهر به نقل از انگجت، فیس بوک مدتی به طور اختیاری  اخبار جعلی و اطلاعات غلط را در پلتفرم خود با برچسب هایی مشخص می کرد. اما اکنون به نظر می رسد این شبکه اجتماعی در سنگاپور مجبور به مشخص کردن اخبار جعلی است.

 این  شبکه اجتماعی برای پیروی از قوانین سنگاپور پستی که در ۲۳ نوامبر منتشر شده و حاوی اطلاعات غلط بود را با برچسبی مخصوص مشخص کرد. این قانون برای جلوگیری از گسترش اطلاعات غلط در این کشور آسیایی تصویب شده است.

دولت سنگاپور اعلام کرده الکس تان شهروند استرالیایی و صاحب وبلاگ « استیت تایمز ریویو» ادعاهایی دروغین درباره  انتخابات منتشر کرده است. تان هم اکنون تحت تحقیقات قرار دارد البته این فرد در سنگاپور زندگی نمی کند.

از سوی دیگر فیس بوک در بیانیه ای به رویترز به طور مستقیم با این قانون مخالفت نکرده اما درباره احتمال سواستفاده از آن هشدار داده است. در این بیانیه آمده است: امیدواریم دولت سنگاپور تضمین کند قانون مبارزه با اخبار جعلی روی آزادی بیان تاثیر نمی گذارد.

طبق قانون سنگاپور پست های مختلف در شبکه های اجتماعی که از خارج این کشور نیز ارسال شده اند، شامل قوانین اخبار جعلی می شوند و عدم اطلاعات از قانون ۱۰ سال زندان یا جریمه ای ۷۳۱ هزار دلاری در پی خواهد داشت.

این نخستین باری است که  فیس بوک تحت قوانینی خاص دستوراتی برای اصلاح یک پست را اجرا می کند.

نحوه مبارزه توئیتر با «دیپ فیک» مشخص شد

سه شنبه, ۲۱ آبان ۱۳۹۸، ۰۲:۱۰ ب.ظ | ۰ نظر

توئیتر که از برنامه های خود برای مقابله با ویدئوهای جعل عمیق خبر داده بود، امروز جزئیاتی را در مورد تبعات شناسایی و شرایط حذف این ویدئوها اعلام کرده است.

به گزارش خبرگزاری مهر به نقل از انگجت، توئیتر پیش نویس دستورالعملی را در وبلاگ خود منتشر کرده که نشان می دهد این شرکت چگونه می خواهد با ویدئوهای دیپ فیک یا جعل عمیق را شناسایی کند و به حذف آنها کمک کند. دستورالعمل یادشده سیاست های توئیتر را هم در این زمینه مشخص کرده است.

در سند یادشده ویدئوهای جعل عمیق یک ابزار رسانه ای مصنوعی و دستکاری شده توصیف شده اند که می توانند در قالب عکس، فایل های صوتی یا ویدئویی با هدف گمراه کردن افراد و تغییر معنای واقعی فایل های اصلی منتشر شوند.

در ادامه این سند آمده است در صورتی که توئیتر عکس، صدا یا فایل ویدئویی جعل عمیق را شناسایی کند، یک پیام هشدار به توئیت هایی که این محتوا را منتشر کنند، اضافه می کند. همچنین به افراد در مورد به اشتراک گذاری و لایک زدن تویئت های حاوی این محتوا از قبل هشدار می دهد.

همچنین توئیتر به طور خودکار لینک به یک خبر را به چنین توئیتی اضافه می کند تا افراد بتوانند مطالب دست اولی را در مورد محتوای جعل شده دریافتکنند.

در دستورالعمل یادشده تصریح شده اگر توئیتر به این نتیجه برسد که توئیتی به علت انتشار چنین محتوای دروغینی می تواند امنیت فیزیکی فردی را به خطر بیندازد یا موجب آسیب جدی شخص یا اشخاصی شود، آن را به طور کامل پاک می کند. این شرکت سال گذشته اعلام کرده بود که اجازه انتشار هیچ ویدئوی جعل عمیق هرزه نگارانه ای را نخواهد داد.

این دستورالعمل ها هنوز قطعی نشده و احتمالا ظرف سی روز آینده در مورد آنها جمع بندی خواهد شد. این شرکت در مورد نحوه شناسایی توئیت های حاوی محتوای جعل عمیق نیز توضیحات فنی چندانی ارائه نکرده است.

اخبار جعلی در فیس‌بوک گسترش یافته است

سه شنبه, ۲۱ آبان ۱۳۹۸، ۰۲:۰۸ ب.ظ | ۰ نظر

طبق تحقیقی جدید پیش از انتخابات ریاست جمهوری آمریکا در ۲۰۲۰روند گسترش اخبار جعلی و انتشار اخبار نادرست در فیس بوک ادامه دارد.

به گزارش خبرگزاری مهر به نقل از آسوشیتدپرس ، موسسه ای به نام Avaaz Groupe تحقیقاتی درباره روند انتشار ترویج اطلاعات اشتباه در اخبار انجام داده است. این موسسه متوجه افزایش اخبار سیاسی جعلی در فیسبوک پیش از انتخابات ریاست جمهوری ۲۰۲۰ آمریکا شده است.

این موسسه روز گذشته اعلام کرد که روند نشر اطلاعات نادرست هنوز هم در فیسبوک در حال گسترش است. این در حالی است که فیس بوک پس از انتخابات  ریاست جمهوری ۲۰۱۶میلادی اقداماتی را برای گسترش برای جلوگیری از گسترش اخبار جعلی اتخاذ کرده بود.

محققان این موسسه بین یکم ژانویه تا۳۱ اکتبر ۲۰۱۹ میلادی روند انتشار ۱۰۰ خبر جعلی در این پلتفرم را دنبال کردند.

این اخبار توسط پیمانکاران فیس بوک شناسایی شده بودند. این موسسه متوجه شد اخبار جعلی بیش از ۲.۳ میلیون بار پست شدند و این اخبار حدود ۱۵۸.۹ میلیون بار بازدید شده اند. همچنین اخبار جعلی مذکور ۸.۹ میلیون لایک، کامنت و اشتراک گذاری، داشتند.

هدف اخبار جعلی هر دو حزب سیاسی آمریکا هستند اما طبق تحقیقات این شرکت بیشتر اخبار جعلی علیه دموکرات ها و لیبرال ها منتشر شده است. منبع آنها نیز افراد و صفحات غیرسیاسی در فیس بوک بوده است.

در یکی از اخبار جعلی ادعا شده  بود پدربزرگ دونالد ترامپ از مالیات فرار می کرده است.این خبر جعلی حدود ۲۹ میلیون بازدید داشته است. در خبر دیگری ادعا شده ایلهان عمر نماینده دموکرات مجلس آمریکا در کمپ آموزش القاعده حضور داشته است. این خبر حدود ۷۷ هزار بازدید داشته است.

فیس بوک در پاسخ به این گزارش اعلام کرد اقداماتی برای کاهش تعداد اخبار جعلی جعلی انجام داده و به این روند ادامه می دهد.

سرپرست معاونت امور فضای مجازی دادستانی کل کشور از تشدید مجازات منتشرکنندگان اخبار دروغ در رسانه ها و فضای مجازی خبر داد.

جواد جاویدنیا درباره مبانی قانونی مجازات منتشرکنندگان اخبار دروغ و شایعات در رسانه ها و فضای مجازی به ایرنا گفت: طی مطالعات انجام شده در کشورهای دیگر مقرر شده است که مجازات های این افراد تشدید شود و شرایط خاصی برای آنان در نظر گرفته شود. چون اصلاح قانون در دست اقدام است اما تا زمان تصویب قانون جدید، انتشار اکاذیب در فضای مجازی جرم است و دادستانی کل کشور، دادسراها و نیروی انتظامی به شدت با دامن زنندگان به شایعات برخورد خواهند کرد.

وی به مدیران کانال ها و صفحات در رسانه های اجتماعی هشدار داد و اظهار داشت: با توجه به قوانین موجود مسئولیت کاملی برای انتشاردهندگان اخبار کذب اعم از نشریات رسمی و افراد وجود دارد و بر همین اساس مدیران کانال ها در صورت انتشار مطالب کذب و مدیران گروه ها در صورت عدم حذف فوری محتوای دروغ، علاوه بر کاربر انتشاردهنده قابل مجازات خواهند بود.

این مقام قضایی اضافه کرد: البته به دلیل ضرورت احراز علم منتشرکننده به کذب بودن اخبار و عدم وجود الزام قانونی برای بررسی صحت و سقم خبر قبل از انتشار آن، مسئولیت منتشرکنندگان اخبار کذب به صورت کامل مستقر نیست؛ مگر جایی که علم منتشرکننده از کذب بودن خبر محرز باشد.

وی افزود: به عبارت دیگر متاسفانه قانونی وجود ندارد که فرد یا رسانه را ملزم کند که از کذب بودن یا صحیح بودن آن آگاهی پیدا کند و بازنشردهنده خبر کذب می تواند بگوید که از کذب بودن آن آگاهی نداشته و وظیفه ای هم برای کسب اطلاع از صحت و سقم آن ندارد. البته صرف این ادعا قابل پذیرش نخواهد بود اما در همین حد هم نباید سبب گریز افراد از مسئولیت اقدامشان شود.

 

انتشاردهندگان اخبار دروغ دارای مسئولیت قانونی هستند

سرپرست معاونت امور فضای مجازی دادستانی کل کشور اضافه کرد: انتشاردهندگان اخبار کذب اعم از اینکه خود فرد تولیدکننده خبر باشد یا خبر کذب تولیدشده دیگران را منتشر کند، دارای مسئولیت قانونی هستند.
وی اعلام کرد: به موجب ماده ۷۴۶ کتاب تعزیرات قانون مجازات اسلامی، هر کس به قصد ضرر زدن به دیگران یا تشویش اذهان عمومی یا مقامات رسمی به وسیله سامانه رایانه‌ای یا مخابراتی مطالب یا محتوای کذبی را منتشر کند یا حتی در دسترس و اختیار دیگران قرار دهد یا با همان مقاصد، اعمالی را بر خلاف حقیقت، رأساً یا به عنوان نقل قول، به شخص حقیقی یا حقوقی به طور صریح یا تلویحی نسبت دهد، اعم از اینکه به هر نحوی ضرر مادی یا معنوی به دیگری رسیده شود یا نشود، افزون بر اعاده حیثیت (در صورت امکان)، به حبس از ۹۱ روز تا دو سال یا جزای نقدی از پنج میلیون تا ۴۰ میلیون ریال یا هر دو مجازات محکوم خواهد شد.

جاویدنیا افزود: همچنین ماده ۵۱۲ کتاب تعزیرات قانون مجازات اسلامی اینگونه تصریح دارد "هر کس مردم را با هدف برهم زدن امنیت کشور به جنگ و کشتار با یکدیگر اغوا یا تحریک کند، صرفنظر از اینکه موجب قتل و غارت بشود یا نشود به یک تا پنج سال حبس محکوم می‌گردد."

وی توضیح داد: این مساله به آن معناست که اگر فردی با انتشار اخبار نادرست باعث شود که در جامعه، تشویش اذهان ایجادشده و مردم را با تحریک احساسات به ناآرامی ترغیب کند، جدای از این که بابت آن ناآرامی ها و خسارت ها اگر به وقوع پیوسته باشد، باید پاسخگوی قانون باشد بلکه به خاطر آن تحریک، ترغیب و انتشار خبر به زندان محکوم می‌شود.

 

قانونگذار حدود انتشار اخبار را مشخص کرده است

جاویدنیا خاطرنشان کرد: البته شاید گفته شود که اینها مخل آزادی بیان است اما باید گفت که قانونگذار حد و حدود انتشار اخبار را مشخص کرده است تا افراد بتوانند در یک چارچوب مطمئن و درست به بیان و انتشار اخبار بپردازند. چون به موجب ماده ۶ قانون مطبوعات، نشریات جز در موارد اخلال به مبانی و احکام اسلام و حقوق عمومی ‌و خصوصی که مشخص شده است، آزاد هستند.
این مدرس جرائم رایانه ای افزود: تحریص و تشویق افراد و گروه ها به ارتکاب اعمالی علیه امنیت، حیثیت و منافع جمهوری اسلامی ایران در داخل یا خارج و یا افترا به مقام ها، نهادها، ارگان ها و هر یک از افراد کشور و توهین به اشخاص حقیقی و حقوقی که حرمت شرعی دارند، از جمله محدودیت‌های در نظر گرفته شده برای مطبوعات است.

وی درباره انتشار اخبار دروغ از سوی رسانه ها گفت: بر اساس قانون مطبوعات پخش شایعات و مطالب خلاف واقع یا تحریف مطالب دیگران توسط رسانه ها ممنوع است و در صورت احراز چنین اقدامی مطابق با قانون، با فرد یا رسانه خاطی برخورد می شود.

 

پایگاه های اینترنتی مشمول قانون مطبوعات هستند

این مقام قضایی تاکید کرد: بنابر این تمامی نشریات یا پایگاه‌های اینترنتی که از هیأت نظارت بر مطبوعات مجوز گرفته اند، مشمول قانون مطبوعات هستند و همان‌طور که می دانیم، این رسانه‌ها بر اساس بند ۱۱ از ماده ۶ قانون مطبوعات، از «پخش شایعات و مطالب خلاف واقع یا تحریف مطالب دیگران» منع شده‌اند. 

وی افزود: حال اگر نشریه یا رسانه‌ای برخلاف این موضوع، اقدام به نشر اکاذیب کند و به دروغ بودن محتوا نیز آگاهی داشته باشد، بر اساس ماده ۳۰ قانون مطبوعات دارای مسئولیت کیفری است و باید پاسخگوی رفتار خود باشد.

جاویدنیا اظهار داشت: البته قانون گذار فقط به این ماده و قانون هم بسنده نکرده و چون سلامت روانی جامعه مهم است، تلاش کرده با مصوب کردن ماده ۶۹۸ کتاب تعزیرات مانع تشویش اذهان عمومی جامعه از طرق مختلف شود.

وی افزود: به همین دلیل در ماده مذکور آمده است که هر کس به قصد اضرار به غیر یا تشویش اذهان عمومی یا مقامات رسمی به وسیله نامه یا شکواییه یا مراسلات یا عرایض یا گزارش یا توزیع هرگونه اوراق چاپی یا خطی با امضاء یا بدون امضاء، اکاذیبی را اظهار کند یا با همان مقاصد، اعمالی را بر خلاف حقیقت راسا" یا به عنوان نقل قول به شخص حقیقی یا حقوقی یا مقامات رسمی تصریحا یا تلویحا نسبت دهد، اعم از اینکه از طریق مزبور به نحوی از انحاء ضرر مادی یا معنوی به غیر وارد شود یا نه، علاوه بر اعاده حیثیت در صورت امکان، باید به حبس از دو ماه تا دو سال و یا شلاق تا ۷۴ ضربه محکوم شود.

جاویدنیا اضافه کرد: در این ماده به خوبی توضیح داده شده که اگر هر فردی بخواهد با خبر دروغ، آن هم به روش های مختلف باعث رنجش روان جامعه شود، باید به مجازات زندان محکوم شود. بنابراین حتی اگر بخواهد بگوید که من فقط نقل قول کرده ام یا حرف و خبر من به کسی ضرر نزده است، از طرف قانون گذار پذیرفته نیست.

درآمد ۲۱۲ میلیون یورویی «فیک‌نیوز»ها

شنبه, ۲۳ شهریور ۱۳۹۸، ۰۲:۱۹ ب.ظ | ۰ نظر

سایت‌های اخبار دروغین از محل درج آگهی‌ها، درآمد ۲۱۲ میلیون یورویی دارند.

به گزارش خبرگزاری فارس به نقل از روزنامه لوموند، سایت‌هایی که به انتشار اخبار غیر واقعی یا ساختگی مبادرت می‌کنند، درآمد بالایی از محل آگهی کسب می‌کنند و بسیاری از شرکت‌ها یا برندها حتی نمی‌دانند تبلیغات آن‌ها تا چه حد در رونق آن‌ها موثر است.

لوموند در ادامه با اشاره به این که تارنماهای اینترنتی که اخبار جعلی یا غیر واقعی منتشر را می‌سازند، سالی ۲۱۲ میلیون یورو از محل آگهی به دست می‌آورند، اضافه می کند: این سایت‌ها علاوه بر درآمد، حتی قدرت بر هم زدن روند انتخاباتی را دارند. یک سازمان غیر دولتی به نام Global Disinformation Index با همکاری شبکه تلویزیونی CNN آمریکا با بررسی ۲۰ هزار سایتی که مظنون به انتشار چنین اخباری هستند، نتیجه گرفته که رقم یاد شده تنها بخش کوچکی از این کوه یخ درآمد آن‌هاست!

بسیاری از شرکت‌ها و برندهای بزرگ بدون آن که بدانند، تبلیغات خود را از طریق این سایت‌های پر بازدید و با استفاده از الگوریتم‌هایی که طراحی شده، منتشر می‌سازند. اما با راه اندازی یک پلتفورم جدید که روی این سایت‌ها کار می‌کند، بسیاری از مارک‌ها و برندهای تبلیغاتی از حضور در این سایت‌های دروغین اجتناب می‌کنند.

یکی از این پلتفورم‌ها در آمریکاست که شعبه‌ای هم در فرانسه دارد و هدفش خشکاندن ریشه‌های مالی سایت‌های خبری دروغین است. از جمله این سایت‌ها «بلوار ولتر» است که روبر منار آن را تأسیس کرده. این سایت پیش‌تر در سال ۲۰۱۴ به دلیل انتشار اخباری با هدف پررنگ‌کردن تبعیض‌های نژادی و نفرت‌پراکنی علیه مسلمانان، از سوی دادگاه محکوم شده است.

از همین رو برای شرکت‌ها و برندهای مهم مساله بسیار اهمیت دارد، زیرا جدا از موضوع، محتوای مطالبی که این «فیک‌نیوز»ها منتشر می‌کنند، به دلیل تبلیغات صورت گرفته در این سایت‌ها، تصویر تجاری این نشان‌های تجاری را با محتوای خشونت‌آمیز  آمیخته می‌کند.

بر اساس گزارش لوموند، در ماه ژوئن ۱۶ برند فرانسوی که در سطح بین‌المللی معروف هستند، با ایجاد توافقی کوشیدند در برابر غول‌هایی مانند فیس بوک، گوگل و توئیتر و آژانس‌های مهم تبلیغاتی، ائتلاف کنند. هر چند هنوز بسیاری از موضوعات این ائتلاف مبهم است اما راه‌اندازی آن می‌تواند موجب همکاری بیشتر برندها برای حضور پر‌رنگ‌تر در عرصه تبلیغاتی و نظارت بهتر نسبت به محتوی مطالب منتشره در سایت‌ها شود.

تهدیدی که حس نمی‌شود

شنبه, ۲۳ شهریور ۱۳۹۸، ۱۰:۴۲ ق.ظ | ۰ نظر

علی شمیرانی - بد نیست یکبار محاسبه کنیم از جمع تمام دستگاه‌های بودجه‌گیر از شمال تا جنوب کشور، چه تعداد افراد شاغل در بخش موسوم به روابط عمومی‌ها مشغول بکار هستند؟

دیپ فیک مشکل فناوری نیست، مساله قدرت است

سه شنبه, ۴ تیر ۱۳۹۸، ۰۷:۱۷ ب.ظ | ۰ نظر

فناوران - اسکار شوارتز*- در بحبوحه انتخابات ریاست جمهوری سال 2016 ایالات متحده، کمتر کسی پیش بینی می کرد که اطلاعات نادرست (misinformation) تا این حد می تواند بر روند دموکراسی تاثیر منفی بگذارد. اما حالا در آستانه انتخابات 2020 حساسیت ویژه ای درباره تهدیدات جدیدی که اکوسیستم اطلاعات را شکننده کرده است، وجود دارد.
امروز دیگر بات های روسی در صدر سیاهه نگرانی ها نیستند؛ بلکه جعل عمیق یا دیپ فیک جای آنها را گرفته است. جعل عمیق استفاده از هوش مصنوعی برای دستکاری چند رسانه ای هاست؛ به نحوی که با استفاده از تصویر یا صدای افراد، آنها را در حال اظهار مطالبی نشان می دهند که در واقع چنین حرفی نزده اند.
اکنون این تهدید جدی گرفته شده است. پنج شنبه گذشته، نخستین جلسه ارایه گزارش کمیته اطلاعات کنگره آمریکا دراین باره برگزار شد و آدام شیف، رییس این کمیته در سخنرانی خود، با بیان اینکه جامعه در معرض یک انقلاب فناورانه است، گفت: این انقلاب به طور موثر شیوه تولید اخبار جعلی را متحول می کند.
او از نوآوری ها در هوش مصنوعی گفت که در کارزارهای انتخاباتی به کار گرفته خواهد شد و با الگوریتم های بهبود یافته اش، تشخیص اصالت تصاویر، ویدیوها، متون و صوت را بسیار دشوار خواهد کرد.
به طور خلاصه، او مشکل محتواهای رسانه ای دستکاری شده را تهدید جدیدی عنوان کرد که فناوری های پیچیده در حال رشد منجر به ظهور آن شده است.
البته شیف در این نظر تنها نیست. گفتمان گسترده تری درباره محتوای جعلی با تمرکز بر محتواهای تولید شده با هوش مصنوعی ایجاد شده است؛ یعنی درباره استفاده از تکنیک های پیشرفته یادگیری ماشینی به منظور ایجاد کپی های غیر واقعی از چهره، صدا یا دستخط افراد. اگرچه این دستاوردهای فناورانه بسیار جذاب هستند؛ این نگرانی وجود دارد که شیفته جذابیت این فناوری شویم و از درک مشکل عمیقی که ایجاد می کند، غافل بمانیم.
برای درک بهتر موضوع، آخرین نمونه از دستکاری رسانه ای که از یک فرد سطح بالا در فضای آنلاین منتشر شده را به یاد بیاورید: ویدیویی ساختگی از نانسی پلوسی، سخنگوی کنگره که او را مشغول صحبت کردن در حال مستی نشان می دهد. تازه این ویدیو به دست متخصصان هوش مصنوعی و به عنوان بخشی از آن انقلاب فناورانه ساخته نشده، بلکه صرفا حاصل ویرایش و کند کردن ویدیوی صحبت های پلوسی به دست یک بلاگر طرفدار ترامپ به نام شان بروکس است.
دلیل اینکه این ویدیو تا این حد گسترده بازنشر شده، این نیست که از نظر فناوری کار پیشرفته ای بوده یا از نظر بصری گمراه کننده بوده است؛ بلکه این اتفاق در نتیجه طبیعت شبکه های اجتماعی رخ داده است. وقتی مدل کسب وکار یک پلتفرم به حداکثر رساندن زمان درگیری مخاطب با محتوا به منظور کسب درآمد از نمایش آگهی باشد، محتوای تفرقه انگیز، شوک آور و توطئه آمیز در صدر خوراک های خبری این رسانه ها قرار می گیرد. هنر بروکس نیز مانند بقیه ترول های اینترنتی، درک و استفاده از این ویژگی بوده است.
در واقع ویدیوی پلوسی نشان می دهد که اخبار جعلی و پلتفرم های اجتماعی ارتباطی دوجانبه پیداکرده و به هم وابسته شده اند. فیس بوک به حذف این ویدیوی دستکاری شده تن نداد و اعلام کرد که بر اساس سیاست های محتوایی اش، واقعی بودن ویدیوها ضروری نیست. (البته این شبکه اجتماعی در تلاش برای به حداقل رساندن آسیب ها، سطح انتشار این ویدیو را در فیدهای خبری اش محدود کرد.) واقعیت این است که محتواهای تفرقه انگیز از جنبه مالی برای پلتفرم های شبکه اجتماعی برد محسوب می شوند و تا زمانی که این منطق کسب وکار حاکم بر حیات آنلاین ما باشد، جاعلان محتواهای بدبینانه به جعل و انتشار این محتواهای تفرقه انگیز ادامه می دهند، حال چه با استفاده از یادگیری ماشین و چه بدون آن.
مشکل نیز همین جا نهفته است: با معرفی کردن جعل عمیق به عنوان یک مشکل فناورانه، به پلتفرم های شبکه اجتماعی اجازه می دهیم که به ارایه و تبلیغ راهکارهای فناورانه خود برای این مشکل بپردازند و با هوشمندی، توجه عموم را از این واقعیت دور کنند که مشکلات اصلی و پایه ای، قدرت بیش از حد پلتفرم های فناوری سیلیکون ولی است.
قبلا هم این اتفاق افتاده است. پارسال، زمانی که کنگره مارک زاکربرگ را برای پاسخگویی درباره مشکلات حریم خصوصی و دخالت داشتن فیس بوک در انتشار اخبار جعلی فراخواند، زاکربرگ به جای پرداختن به مشکلات ساختاری موجود در شرکت اش، سعی کرد به کنگره اطمینان بدهد که راهکارهای فناورانه در آینده ای که مشخص نیست کی فرامی رسد، برای همه مشکلات راهکار ارایه خواهد داد. زاکربرگ در آن جلسه بیش از 30 بار از هوش مصنوعی، به عنوان حلال مشکلات، نام برد.
با توجه به همه اینهاست که یوگنی موروزوف، پدیده راهکارگرایی فناورانه (technological solutionism) را مطرح می کند. منظور او ایدئولوژی حاکم بر سیلیکون ولی است که سعی دارد مسایل پیچیده اجتماعی را به صورت مسایلی شسته و رفته با راهکارهای عملیاتی و قطعی مطرح کند که در آنها هر مشکلی در صورت داشتن یک الگوریتم مناسب، قابل حل است. این طرز تفکر به شدت روش مند، قراردادی و در عین حال از نظر اجتماعی کوته نظرانه، آنچنان درون صنعت فناوری پرطرفدار و فراگیر است که به نوعی خصلت ژنتیک این صنعت تبدیل شده و هر سوالی را با آن پاسخ می دهند: «چطور مشکل نابرابری ثروت را حل کنیم؟ با بلاک چین»؛ «چطور مشکل دوقطبی ها را در سیاست حل کنیم؟ با هوش مصنوعی» یا «چطور مشکل تغییرات آب وهوایی را حل کنیم؟ با بلاک چین مبتنی بر هوش مصنوعی» ...
این اشتیاق و انتظار دایمی برای راهکارهای فناورانه که قرار است در آینده نزدیک ارایه شود، ما را از توجه به واقعیت های تلخی که هم اکنون با آنها درگیریم، باز می دارد. زاکربرگ سال گذشته در برابر کنگره، به ما وعده مدیریت بهتر محتوا را با استفاده از هوش مصنوعی داد، اما از آن پس گزارش های متعدد حاکی از این است که مدیریت محتوا در این شرکت همچنان متکی به نیروی انسانی است که هر روزه با محتواهای خشونت بار، شوکه کننده و نفرت انگیز مواجهند و شرایط کاری بسیار سختی دارند و فیس بوک با صحبت کردن بی وقفه درباره مدیریت محتوا با هوش مصنوعی، عملا ذهن ها را از شرایط سخت این انسان های واقعی منحرف می کند. ایدیولوژی راهکارگرایی فناورانه، بر گفتمان مربوط به شیوه مواجهه با محتواهای رسانه ای دستکاری شده نیز اثر می گذارد. راهکارهایی که ارایه می شود، عمدتا ماهیت فناورانه دارند؛ از واترمارک های دیجیتال گرفته تا تکنیک های جدید بازرسی مبتنی بر یادگیری ماشین. مطمئنا کارشناسان متعددی به تحقیقات امنیتی با اهمیتی برای شناسایی محتواهای جعلی درآینده مشغولند. این کاری ضروری است، اما لزوما به حل مشکل عمیق اجتماعی فروپاشی حقیقت و قطبی سازی که پلتفرم های رسانه های اجتماعی سودهای کلانی از آن می برند و در آن نقش دارند، نمی انجامد. بزرگ ترین نقطه ضعف راهکارگرایی فناورانه، یکی این است که می توان از آن برای پنهان کردن مشکلات عمیق ساختاری در صنعت فناوری استفاده کرد. همچنین این ایدئولوژی می تواند مانعی جدی در برابر کنشگرانی باشد که با تمرکز قدرت در دست شرکت هایی که شیوه دسترسی ما به اطلاعات را کنترل می کنند، مخالف هستند.
اگر ما همچنان دیپ فیک را به جای یک مفسده اساسی در قلب اقتصاد توجه (attention economy)، به عنوان یک مشکل فناورانه جا بزنیم، خودمان را در انتخابات 2020 نیز در معرض بلای اطلاعات نادرست قرار داده ایم؛ همان بلایی که در سال 2016 سرمان آمد.
 منبع: گاردین
* اسکار شوارتز نویسنده مستقل و محقق ساکن نیویورک آمریکاست

فناوری «دیپ‌فیک» با وجود شکایت‌ها و محدودیت‌هایی که در استفاده آن وجود دارد، همچنان رشد می‌کند و به راحتی می‌تواند با شبیه‌سازی چهره، ویدئوهایی از افراد را تولید کند که اساسا وجود ندارند!

تصور کنید در خانه نشسته‌اید و با گوشی‌تان کار می‌کنید، در همین لحظه دوستتان یک ویدئو برای‌تان ارسال می‌کند که در آن با شبیه‌سازی، چهره شما رو صورت خودش، درباره موضوعات مختلف حرف می‌زند و اظهار نظر می‌کند. شما به حرف‌هایی که از دهان کسی مشابه خودتان خارج می‌شود، می‌خندید و احتمالاً ویدئو را در گوشی ذخیره می‌کنید و باز هم از دیدن آن لذت می‌برید!

اما همین تکنولوژی عجیب که برای شما خنده‌دار و بامزه است، می‌تواند برای آن‌هایی که شخصیت‌های شناخته شده‌ای هستند، دردسرساز شوند.

طعم این دردسر را اسکارلت جوهانسون و باراک اوباما چشیده‌اند! وقتی از اوباما یک سخنرانی جعلی منتشر و ویدئویی غیراخلاقی از جوهانسون در فضای مجازی دیده شد، با شکایت‌های متعدد، استفاده از این برنامه در برخی از وب‌سایت‌هایی که پیشتر جابجایی چهره برای سرگرمی به کار می‌رفت، ممنوع شد.

اما این پایان ماجرا نیست، وقتی «دیپ‌فیک» روز به روز پیشرفته‌تر می‌شود و می‌تواند شبیه‌سازی را بهتر و کامل‌تر انجام دهد، فراگیرتر شده و در نهایت مقابله با آن سخت‌تر می‌شود. حالا این تکنولوژی نه‌تنها چهره بلکه شکل اندام را هم می‌تواند شبیه‌سازی کند.

وقتی دیگر به ویدئو هم نمی‌توان اعتماد کرد

روزگار گذشته وقتی خبری از صحبت‌های یک مقام مهم منتشر می‌شد، در ابتدا صدا مُهر تایید و بعدتر تصویر شخص مدرکی بر واقعی بودن آن بود، اما حالا و با بروز تکنولوژی‌هایی چون «دیپ فیک» دیگر حتی به ویدئوها هم نمی‌توان اعتماد کرد، حالا با یک عکس و صدا می‌توان چهره هر فردی را بازسای کرد و حرف‌ها و کارهایی را از او خواست انجام دهد که فرد در زندگی شخصی‌اش هرگز مرتکب آن‌ها نمی‌شود.

دیپ‌فیک دقیقاً چیست؟

فناوری دیپ فیک Deepfake ، شکل و حالات نقاط مختلف چهره انسان را از طریق دوربین‌ها کشف کرده و به طرز کاملاً باورپذیری چهره همان انسان را جعل می‌کند و می‌تواند او را در حال حرکت، سخنرانی و هر حالتی که فکر کنید قرار دهد. این برنامه در حقیقت یک عروسک خیمه شب بازی دیجیتالی که در محیط‌های دیگر، بازتولید می‌شود.

متأسفانه ظهور deepfakes پس از بیشتر از یک دهه اشتراک گذاری تصاویر شخصی در شبکه‌های آنلاین آغاز شده تا جایی‌که حالا تقریباً تصاویر تمام چهره‌ها را در اینترنت می‌توان پیدا کرد. حتی دور ماندن از دید عموم، مانع از تلفیق Deepfake نخواهد شد ؛ امروزه این امری اجتناب ناپذیر است و هر کسی در جهان در معرض آن قرار دارد، به هر حال حتی اگر کسی اهل انتشار عکس در پروفایل و حساب‌های کاربری شخصی نباشد، هرکسی در تصاویر و فیلم‌های دوستانش دیده می‌شود، خیلی‌ها موبایل‌هایشان با قفل تشخیص چهره کار می‌کند، تماس‌های تصویری یا ویدئو کنفرانس‌های آنلاین، همه و همه باعث می‌شود که شکل‌های مختلف و در مورادی به طور ناخواسته تصویر چهره هر فردی در اینترنت به اشتراک گذاشته شود.

دیپ‌فیک چطور کار می‌کند؟

این برنامه با روش یادگیری ماشین کار می‌کند و برای جعل چهره، به چند صد تصویر از حالات مختلف چهره هدف نیاز دارد. در این میان افراد شناخته شده و معروف که به سادگی و با یک سرچ اینترنتی تصویر و ویدئوهای مختلف از آن‌ها موجود است، بیشتر در معرض خطر هستند.

این تکنولوژی توسط تیمی با رهبری دانشمندان دانشگاه استنفورد ساخته شده است، آنها یک هوش مصنوعی ایجاد کردند که می‌تواند با استفاده از الگوریتم‌ها حرکات صورت شخص را مورد بررسی قرار دهد و با ایجاد یک ماسک دیجیتالی با کمترین مشکل و با بیشترین انطباق چهره فرد دیگری را شبیه‌سازی می‌کند.

هوش مصنوعی ابتدا تمام چهره را تجزیه و تحلیل کرده و تمام بخش‌های صورت را با دقت اسکن می‌کند، تمام حرکات از جمله چرخش سر، حرکت چشم و جزیئات حرکات دهان مورد بررسی قرار می‌گیرد. پس از آن نرم‌افزار تمام داده‌ها را در حافظه خود ذخیره و روی ویدئوی هدف بارگزاری می‌کند.(خبرگزاری مهر)

یک تحقیق بین‌المللی نشان داد که 86 درصد کاربران اینترنت فریب اخبار جعلی منتشر شده در شبکه‌های اجتماعی منتشر می‌شوند را خورده‌اند. بخش اعظم این اخبار دروغین در فیس‌بوک منتشر می‌شود.
  شبکه اطلاع رسانی روابط عمومی ایران (شارا)-|| یک تحقیق بین‌المللی نشان داد که 86 درصد کاربران اینترنت فریب  اخبار جعلی منتشر شده در شبکه‌های اجتماعی منتشر می‌شوند را خورده‌اند. بخش اعظم این اخبار دروغین در فیس‌بوک منتشر می‌شود.
  شرکت‌کنندگان در این نظرسنجی از دولت‌ها و شرکت‌ها خواسته‌اند با کمک هم به این اقدامات که منجر به بی‌اعتمادی به این اینترنت شده و روی گفتگوهای سیاسی و اقتصاد تاثیرات منفی می‌گذارد، مقابله کنند.
 ایالات متحده آمریکا بیشترین کشوری است که بر اساس این نظرسنجی دست به انتشار اخبار گمراه‌کننده زده و روسیه و چین در رده‌های دوم و سوم قرار دارند. در این نظرسنجی 25 هزار کاربر اینترنت از 25 کشور دنیا شرکت کرده‌اند و در فاصله زمانی 21 دسامبر 2018 تا 10 فوریه 2019 انجام شد.
  فیس‌بوک براساس نظر شرکت‌کنندگان در این نظرسنجی بیشترین وبگاهی است که اخبار دروغ و گمراه‌کننده در آن منتشر می‌شود. یوتیوب و توئیتر در جایگاه دوم و سوم از این نظر ایستاده‌اند. مصری‌ها راحت‌تر از بقیه فریب اخبار دروغین منتشرشده در شبکه ‎های اجتماعی را خورده‌اند و پاکستانی‌ها شکاک‌ترین افراد در قبال اینگونه اخبار بوده‌اند.
  نتایج این تحقیق نشان داد که در سایه الگوریتم‌های هوشمندانه و پیچیده‌ای که شبکه‌های اجتماعی برای رده‌بندی مطالب منتشر شده به کار می‌برند، بی‌اعتمادی به شرکت‌های شبکه‌های اجتماعی روز به روز بیشتر شده و نگرانی‌ها درباره حریم خصوصی عمیق‌تر می‌شود.

مهر / محققان می گویند با آموزش یک الگوریتم هوش مصنوعی توانسته اند ویدئوهای سخنرانی جعلی سیاستمداران جهان در سازمان ملل را در کمتر از 13 ساعت تهیه کنند.

در یک سال اخیر از هوش مصنوعی برای تولید ویدئوهای جعلی خبری افراد مختلف استفاده شده و در این ویدئوها سیاستمداران مشهور در حال ادای صحبت هایی هستند که هرگز بر زبان نیاورده اند.
تا به امروز تولید ویدئوهای مذکور کاری وقت گیر بوده است، اما محققان دانشگاه کورنل برای اولین بار از مجموعه اطلاعات منبع باز و حجم زیادی از داده های مربوط به سخنرانی های سیاستمداران در سازمان ملل برای تولید سریع سخنرانی های جعلی ولی باورپذیر استفاده کرده اند.
آنها ابتدا مدلی را برای طراحی و آموزش سخنرانی های رسمی سیاسی به هوش مصنوعی ابداع کردند و سپس محتوای 40 سال سخنرانی رهبران کشورها در مجمع عمومی سازمان ملل را در اختیار آن گذاشتند.
این محققان تنها 7.80 دلار را صرف اجازه فضای کلود در وب برای ذخیره اطلاعات مورد نیاز خود کردند و در نهایت هوش مصنوعی در مدتی کمتر از 13 ساعت اولین ویدئوی سخنرانی جعلی خود در سازمان ملل را تولید و منتشر کرد.
سخنرانی های جعلی یادشده محتوایی دقیق و غنی داشته و موضوعات مختلفی مانند خلع سلاح هسته ای، تغییرات آب و هوایی و غیره را در بر می گیرند. دقت محتوای این سخنرانی ها تا 90 درصد برآورد شده است.
این پژوهشگران هشدار داده اند که پیشرفت فناوری هوش مصنوعی در آینده به افراد عادی هم امکان خواهد داد تا ویدئوهای سخنرانی جعلی بسیار باورپذیری تولید کنند و لذا باید روش هایی برای شناسایی محتوای ویدئویی واقعی از جعلی ابداع شود.

شبکه‌های اجتماعی بستر اصلی اخبار جعلی

جمعه, ۱۷ خرداد ۱۳۹۸، ۰۵:۵۴ ب.ظ | ۰ نظر

تحقیقات یک موسسه حاکی ازآن است که فیس بوک، توئیتر و دیگر شبکه‌های اجتماعی مناسب‌ترین بستر در فضای مجازی برای انتشار اخبار جعلی محسوب می‌شوند.

به گزارش خبرگزاری مهر به نقل از سی نت، بررسی‌های مؤسسه تحقیقاتی پیو نشان می‌دهد بزرگسالان آمریکایی که ترجیح می‌دهند برای تعقیب اخبار قبل از هر چیز به سراغ شبکه‌های اجتماعی بروند، به شدت در معرض مطالعه اخبار جعلی از این طریق و فریب خوردن هستند.

طراحان اخبار جعلی نیز با اطلاع از همین موضوع به طور گسترده از شبکه‌های اجتماعی برای انتشار و باز توزیع اخبار جعلی سو استفاده می‌کنند و البته باید توجه داشت که انتشار این نوع اخبار از طریق روزنامه‌ها، شبکه‌های تلویزیونی و سایت‌های معتبر کار ساده ای نیست.

تحقیقات مؤسسه پیو حاکیست، در حدود ۶۰ درصد از کاربران شبکه‌های اجتماعی که تنها از این طریق اخبار را مطالعه کرده اند، تأیید کرده اند که اخبار جعلی دریافتی را باور کرده و آنها را به اشتراک گذاشته اند. اما تنها ۵۱ درصد از کاربران شبکه‌های اجتماعی که از تلویزیون و روزنامه‌ها هم برای کسب خبر استفاده کرده اند فریب اخبار جعلی شبکه‌های اجتماعی را خورده و آنها را به اشتراک گذاشته اند.

تحقیق یادشده با همکاری بیش از ۶۰۰۰ آمریکایی از ۱۹ فوریه تا ۴ مارس صورت گرفته و بر اساس آن اکثر آمریکایی‌ها رهبران و فعالان سیاسی را عامل اصلی انتشار اخبار جعلی و دروغین می‌دانند. همچنین مردم آمریکا توقع دارند روزنامه نگاران هم برای حل این مشکل تلاش کنند. تنها ۹ درصد از بزرگسالان آمریکایی هم بر این باورند که شرکت‌های فناوری مسئولیت خود برای مقابله با اخبار جعلی و دروغین را به درستی انجام داده اند. ۵۶ درصد از پاسخ دهندگان نیز گفته اند شرایط در زمینه انتشار اخبار جعلی در ۵ سال آینده بدتر خواهد شد.