ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۱۲۱ مطلب با کلمه‌ی کلیدی «اخبار جعلی» ثبت شده است

تحلیل


آیا با دیپ فیک‌ها می‌توان مقابله کرد؟

يكشنبه, ۲۰ خرداد ۱۴۰۳، ۰۵:۰۲ ب.ظ | ۰ نظر

دیپ‌فیک‌ها برای ماندن آمده‌اند و شما نیاز خواهید داشت که راه‌هایی برای «مقابله» با تهدید آن‌ها پیدا کنید.

یک کارشناس امنیتی توصیه کرد که یک ترفند مفید وجود دارد تا با یکی از رایج‌ترین کلاهبرداری‌های «دیپ‌فیک» مقابله کنید.

به گزارش همشهری آنلاین، دیپ‌فیک‌ها در چندین شکل وجود دارند: آن‌ها می‌توانند صرفاً بصری باشند؛ مثلاً با قرار دادن صورت کسی روی بدنی دیگر تا به نظر برسد که او کاری را می‌کند که واقعاً انجام نداده است. یا می‌توانند صوتی باشند، نه ویدئویی؛ کسی می‌تواند در چند ثانیه صدایی را شبیه‌سازی کند و سپس هر چیزی که می‌خواهد بگوید.

سپس ترکیبی از هر دو وجود دارد، جایی که کسی به نظر می‌رسد که کار‌هایی را انجام می‌دهد و چیز‌هایی را می‌گوید که هرگز انجام نداده است؛ با پیامد‌های خطرناک.

کسی می‌تواند با یک عکس ساده از شما یک دیپ‌فیک بسازد، بنابراین کاری زیادی نمی‌توانید برای جلوگیری از آن انجام دهید جز اینکه به‌طور کامل از اینترنت دوری کنید.

برایان هیگینز، متخصص امنیت می‌گوید: «پیشرفت روزافزون محتوای صوتی و تصویری دیپ‌فیک بدون شک نمایانگر هزینه‌های معاصر زندگی آنلاین است. آسیب‌پذیری دیجیتال همیشه معامله‌ای بوده که مجبور بوده‌ایم برای حضور در اینترنت انجام دهیم، صرف نظر از اینکه چگونه این کار را انتخاب کنیم. افراد خرابکار همیشه به ارزان‌ترین و ساده‌ترین راه‌ها برای نفوذ به زندگی ما متوسل می‌شوند، از تروجان‌های بانکی گرفته تا باج‌افزار‌ها و اکنون دیپ‌فیک‌ها. حالا که این فناوری برای شبیه‌سازی یک تصویر یا صدا به حجم زیادی از اطلاعات دیجیتال نیاز ندارد، گریزی از این تهدید وجود ندارد.»

او افزود: «این درست مانند تمام تهدید‌هایی است که قبل از این وجود داشتند و تهدید‌های جدیدی که هنوز از آن‌ها خبر نداریم؛ ترسناک است، زیرا جدید است. اما ما مکانیزم‌های مقابله را توسعه خواهیم داد، زیرا همیشه این کار را انجام می‌دهیم.»

ایمن ماندن

یکی از انواع کلاهبرداری‌های دیپ‌فیک از هوش مصنوعی برای شبیه‌سازی صدای یکی از عزیزان یا همکاران استفاده می‌کند.

کلاهبردار سپس می‌تواند با شما تماس بگیرد و درخواست فوری برای اطلاعات یا پول داشته باشد. ممکن است به نظر برسد که این کلاهبرداری اجتناب‌ناپذیر است. اما کارشناسان امنیتی توصیه می‌کنند که یک "کلمه امن" تعیین کنید.

برایان گفت: «در حال حاضر، افراد هوشیارتر در میان ما برای مکالمات حساس یا خصوصی به تلفن بازگشته‌اند. خانواده‌ها و کسب‌وکار‌ها به طور یکسان از کلمات یا عبارات 'امن' برای شروع مکالمات استفاده می‌کنند و اطمینان حاصل می‌کنند که با یکدیگر صحبت می‌کنند نه با هوش مصنوعی.»

یک کلمه ساده انتخاب کنید – چیزی مثل "سیب‌زمینی"، اما نه این کلمه، چون اینجا نوشته شده است که بتوانید با دوستان و خانواده استفاده کنید.

کلاهبردار کلمه امن شما را نمی‌داند، بنابراین این یک راه آسان برای تأیید فوری است که با کسی که فکر می‌کنید، در حال صحبت هستید.

همچنین، اگر فرد گفت که کلمه امن را فراموش کرده است، در نظر بگیرید که درباره خاطرات خصوصی مشترکی که آنلاین پیدا نمی‌شوند، سوال کنید؛ و می‌توانید سعی کنید از طریق یک روش دیگر با فرد تماس بگیرید تا ببینید واقعاً با شما صحبت می‌کند یا این یک جنایتکار است.

شما همچنین باید از پاسخ دادن به تماس‌ها از شماره‌های ناشناس خودداری کنید و اگر پاسخ دادید، سعی کنید چیزی نگویید.

این احتمال وجود دارد که فردی جنایتکار در طرف دیگر خط باشد که امیدوار است صدای شما را از آنچه می‌گویید شبیه‌سازی کند.

حتی اگر دیپ‌فیک‌ها را نادیده بگیرید، باز هم این یک کار خوب است: اگر آن‌ها را نادیده بگیرید، کلاهبرداران را مطلع نخواهید کرد که شماره شما فعال است.

شبکه‌های اجتماعی جامعه را «شایعه‎‌باور» می‌کنند

چهارشنبه, ۲۶ ارديبهشت ۱۴۰۳، ۱۰:۲۸ ق.ظ | ۰ نظر

روزی روزگاری پچ پچ‌های درِگوشی افراد و به اصطلاح «یک کلاغ و چهل کلاغ» منبع دست به دست شدن شایعات بود. اگر کسی حرفی یاوه را برای طرف مقابل می‌گفت تا زمانی که این حرف به گوش همه ساکنان یک شهر برسد شاید روزها زمان می‌برد اما اکنون شایعه‌پراکنی و حتی شایعه‌باوری به طرز چشم‌گیری در میان مردم افزایش یافته است.

افزایش فاجعه‌بار کلاه‌برداری‌های دیپ‌فیک

چهارشنبه, ۱۹ ارديبهشت ۱۴۰۳، ۰۱:۲۸ ب.ظ | ۰ نظر

آخرین گزارش سالانه ارائه‌دهنده تأیید هویت Sumsub نشان می‌دهد: موارد کلاه‌برداری هویت مرتبط با دیپ‌فیک، بین سال‌های 2022 تا 2023 در بسیاری از کشورهای جهان به‌شدت افزایش یافته است؛ مثلاً تعداد تلاش‌های کلاه‌برداری به‌این‌روش در «فیلیپین» در بازه یک‌ساله یادشده 4500‌درصد افزایش یافته؛ و پس‌ازآن، «ویتنام»، «ایالات‌متحده» و «بلژیک» قرار دارند.

به گزارش سایه باتوجه‌به‌اینکه قابلیت‌های «هوش مصنوعی» روزبه‌روز بیشتر می‌شود، تلاش‌های کلاه‌برداری عمیق می‌توانند به مناطق دیگر نیز سرایت کنند.

«پاول گلدمن-کالایدین» (رئیس واحد تحقیقات هوش مصنوعی و یادگیری ماشینی Sumsub) می‌گوید: «در سال‌های اخیر شاهد بوده‌ایم که دیپ‌فیک‌ها بیشتر و بیشتر قانع‌کننده‌تر شده‌اند و این ادامه می‌یابد و به انواع جدیدی از فریب‌‌ها منشعب می‌شود؛ همان‌طورکه حالا در دیپ‌فیک‌های صوتی و تصویری دیده می‌شود».

در هشدار فوق‌الذکر؛ هم مصرف‌کنندگان و هم شرکت‌ها باید مراقب فریب مصنوعی بوده و به‌دنبال راه‌حل‌های چندلایه ضدِفریب بگردند.

یک نظرسنجی از 199 مرجع راهبرِ امنیت سایبری که در نشست سالانه «مجمع جهانی اقتصاد» (2023) شرکت کرده بودند، نشان داد که 46‌درصد از پاسخ‌دهندگان، بیشترین نگرانی را درمورد «پیشرفت قابلیت‌های خصمانه، فیشینگ، توسعه بدافزار و جعل عمیق» را به‌واسطه توسعه AI دارند.

این داده‌نما میزان افزایش کلاه‌برداری‌ها به‌واسطه دیپ‌فیک را (به‌درصد) طی بازه 2022 تا 2023 در جوامع مختلف نشان می‌دهد.

تبعات انتساب اخبار جعلی به نهادهای حساس

شنبه, ۱ ارديبهشت ۱۴۰۳، ۱۱:۳۶ ق.ظ | ۰ نظر

علی شمیرانی - نتایج نظرسنجی‌های داخلی و خارجی نشان می‌دهد، بر خلاف دنیا و با اختلاف زیاد، عامل اصلی مراجعه ایرانی‌ها به شبکه‌های اجتماعی، «اخبار و سیاست» است. اگرچه پاسخ به این پرسش که کنترل محتوا در شبکه‌های اجتماعی که تماماً نیز مشمول فیلترینگ شده‌اند، تا چه میزان موفق بوده، تقریبا روشن است.

سعید میرشاهی - متا و سایر غول‌های فناوری برای همکاری مشترک با یکدیگر، قبل از انتخابات در بریتانیا، ایالات متحده و اتحادیه اروپا گردهم آمده‌اند تا از سوءاستفاده از هوش مصنوعی جلوگیری کنند.

وزیر فرهنگ و ارشاد اسلامی گفت: کارگروه اخبار جعلی در معاونت رسانه‌ای وزارت فرهنگ و ارشاد اسلامی با موضوع ساماندهی کانال‌های فضای مجازی و پیشگیری از شیوع اخبار جعلی در حال برگزاری است.
به گزارش خبرگزاری صداوسیما، محمد مهدی اسماعیلی وزیر فرهنگ و ارشاد اسلامی گفت: در کارگروه اخبار جعلی وزارت فرهنگ، از رویداد‌های ابتکاری فناورانه برای مقابله با شیوع اخبار جعلی حمایت می‌شود.

اسماعیلی افزود: در داخل کشور با ثبت کانال‌های فضای مجازی و نظارت بر آنها، ساماندهی بسیار خوبی در حمایت از شبکه مجازی رقم می‌خورد و می‌توان مقابله مناسبی با شیوع اخبار جعلی داشته باشیم.

وی با اشاره به الزامات کارگروه اجرایی پیشگیری و مقابله با نشر اطلاعات، اخبار و محتوای خبری خلاف واقع در فضای مجازی گفت: در شرایط کنونی متاسفانه در رسانه‌های اصلی و مطرح دنیا هم با اخبار جعلی مواجهیم، به نظر می‌رسد در عین نیازمندی به تبیین و روشنگری و ارسال تکذیبیه و اقدامات حقوقی لازم، نیاز داریم از اقدامات مبتکرانه در این زمینه حمایت کنیم.

مخاطرات رواج اخبار جعلی و دیپ‌فیک‌ها

چهارشنبه, ۴ بهمن ۱۴۰۲، ۰۳:۰۷ ب.ظ | ۰ نظر

ایرنا- افزایش انتشار اطلاعات نادرست امروزه چالش‌های پیچیده‌ای ایجاد کرده است. آمارها نشان می‌دهد انتشار محتوای دستکاری‌شده در فضای رسانه‌های سنتی و دیجیتال گسترش یافته است.

اطلاعات نادرست، از درمان‌های غلط برای همه‌گیری کرونا گرفته تا اخبار جعلی که ناخواسته توسط شهروندان به اشتراک گذاشته می‌شود، به اکوسیستم اطلاع‌رسانی رسوخ کرده است. افزایش انتشار اطلاعات نادرست به طور عمده ناشی از مقاصد سیاسی، فناوری دیپ‌فیک یا ویدئوهای ساختگی، تله کلیکی یا بیان محتوا با هدف فریب کاربر و مسائل دیگر است. نتیجه این مساله، کاهش اعتماد عمومی و ایجاد تهدید علیه گفتمان دموکراتیک است. چنین وضعیتی ایجاب می‌کند راه‌حل‌هایی ارائه شود که هم در عین بیان واقعیت، آزادی بیان نیز حفظ شود.

هدف از این تحلیل آن است که با ارائه داده‌های مهم، انتشار و تاثیرات اطلاعات نادرست در رسانه‌ها در سال ۲۰۲۳ نشان داده شده و همه‌گیری اطلاعات نادرست یا به اصطلاح «پاندمی اطلاعات» موشکافی شود.

 

دیدگاه‌های مخاطبان درباره اطلاعات نادرست و اعتماد
درک افکار عمومی و برداشت آنها از رسانه‌های خبری اهمیتی حیاتی در مقابله با بحران اطلاعات نادرست دارد. کاهش اعتماد به روزنامه‌نگاری، نقش رسانه به عنوان ارائه‌دهنده اطلاعات معتبر را تهدید می‌کند. انتشار محتوای اشتباه و نگرانی فزاینده از محتوای جانب‌دارانه باعث ایجاد نگرش‌های منفی در مخاطبان شده است.

نتایج یک نظرسنجی در آمریکا نشان داد بسیاری از بزرگسالان این کشور معتقدند، بخش زیادی از خبرها در شبکه‌های اجتماعی، جانب‌دارانه است. ۶۶ درصد از شرکت‌کنندگان در این نظرسنجی که سال ۲۰۱۸ انجام شد، گفتند به نظر آنها دستکم ۷۶ درصد از خبرها در شبکه‌های اجتماعی جانب‌دارانه است.

یکی از دلایل کاهش اعتماد به خبرها در شبکه‌های اجتماعی، اخبار جعلی است. از نظر ۶۰ درصد از شهروندان در سراسر دنیا، سازمان‌های خبری عامدانه اخبار جعلی را منتشر می‌کنند. نتایج یک نظرسنجی که سال ۲۰۱۸ درباره سطح اعتماد عمومی به منابع رسانه‌ای انجام شد، نشان داد ۶۵ درصد از پاسخ‌دهندگان در آمریکایی شمالی معتقدند، آنها برای کسب اخبار و اطلاعات عمومی به رسانه‌های سنتی اعتماد بیشتری دارند.

 

تاثیرات اطلاعات نادرست
افزایش انتشار اطلاعات نادرست در فضای آنلاین، چالش‌های بزرگی برای روزنامه‌نگاران ایجاد کرده و موجب تضعیف اعتماد عمومی به رسانه‌ها شده است. براساس نتایج یک نظرسنجی، ۹۴ درصد از روزنامه‌نگاران می‌گویند اطلاعات و اخبار دستکاری‌شده، امروزه در آمریکا به یک مشکل مهم تبدیل شده است؛ همچنین ۶۰ درصد آنها نسبت به اعمال محدودیت‌های احتمالی بر آزادی مطبوعات در آمریکا ابراز نگرانی کردند. ۹۷ درصد آنها بر این باورند انتشار اطلاعات نادرست و گمراه‌کننده برای جامعه مضر است.
 

شبکه‌های اجتماعی و اطلاعات نادرست
شبکه‌های اجتماعی در انتشار گسترده اخبار و اطلاعات از جمله اخبار جعلی بسیار موثر بوده‌اند. آمارها نشان می‌دهد مردم اطلاعات نادرست را در شبکه‌های اجتماعی می‌بینند و منتشر می‌کنند که این امر مستلزم راه‌حل‌های خاص خود است. نزدیک به ۴.۹ میلیارد نفر در دنیا کاربر شبکه‌های اجتماعی هستند. یک نظرسنجی در دسامبر ۲۰۲۰ (آذرماه ۱۳۹۹) نشان داد ۳۸.۲ درصد از مخاطبان اخبار در آمریکا، ناخواسته اخبار جعلی یا اطلاعات اشتباه را در شبکه‌های اجتماعی به اشتراک گذاشته‌اند.

نظرسنجی‌ها از بی‌اعتمادی مردم جهان به رسانه‌ها؛ جولان اخبار جعلی و دیپ‌فیک‌ها


ربات‌ها و اطلاعات اشتباه
درک نقش ربات‌ها در گسترش اطلاعات اشتباه در بحران‌هایی مانند همه‌گیری کرونا تاثیر مهمی در مبارزه با «پاندمی اطلاعات» و پیامدهای احتمالی آن بر بهداشت عمومی دارد. تجارب گذشته نشان می‌دهد حساب‌های کاربری خودکار یا همان ربات‌ها، نقش زیادی در انتشار اطلاعات اشتباه در دوره‌های بحرانی مانند کرونا دارند.

انتشار لینک‌های فیشینگ، بی‌اعتبار کردن منابع مشروع خبری، ترویج درمان‌های اثبات‌نشده و انتشار چندباره محتوای نادرست، از جمله راهبردهای ربات‌ها برای انتشار اطلاعات اشتباه است. نزدیک به ۴۷ درصد از شرکت‌کنندگان آمریکایی در یک نظرسنجی که مارس ۲۰۲۰(اسفندماه ۱۳۹۸) انجام شد، گفتند با اخبار ساختگی زیادی در مورد کرونا مواجه شده‌اند که این مساله نشان‌دهنده گسترش زیاد اخبار جعلی است.

 

اشتراک‌گذاری اطلاعات اشتباه
آمار زیر نشان می‌دهد بخش قابل توجهی از بزرگسالان آمریکایی خواسته یا ناخواسته محتوای گمراه‌کننده را در فضای آنلاین به اشتراک گذاشته‌اند. نتایج یک نظرسنجی در دسامبر (آذرماه) ۲۰۲۰ نشان داد ۴۷ درصد آمریکایی‌ها گفتند در روزنامه‌ها و مجلات شاهد اخبار جعلی بوده‌اند. این مساله نشان می‌دهد انتشار اطلاعات اشتباه محدود به فضای آنلاین نیست. همچنین ۶۷ درصد پاسخ‌دهندگان گفتند در فیسبوک، ۶۵ درصد دیگر در کلیت شبکه‌های اجتماعی و ۶۰ درصد دیگر به طور کلی در اینترنت با اخبار جعلی مواجه شدند. همچنین، شمار کمتری از پاسخ‌دهندگان اعلام کردند در رسانه‌های سنتی مانند مطبوعات، تلویزیون و منابع خبری جریان اصلی، شاهد اخبار جعلی بوده‌اند.

 

اطلاعات نادرست بصری
فناوری دیپ‌فیک از هوش مصنوعی برای تولید محتوای صوتی و تصویری دستکاری‌شده استفاده می‌کند؛ این محتوا به‌گونه‌ای است که واقعی به نظر می‌رسد. نگرانی‌های زیادی در آمریکا درباره انتشار دیپ‌فیک‌های سیاسی پیش از انتخابات ریاست جمهوری ۲۰۲۴ این کشور وجود دارد. توانایی دیپ‌فیک‌ها در انتشار اطلاعات نادرست، چالش‌های جدی ایجاد می‌کند و می‌تواند تاثیر قابل توجهی در انتخابات داشته باشد.

حجم دیپ‌فیک‌های صوتی و تصویری سال به سال افزایش یافته است؛ حتی دیپ‌فیک‌های صوتی بیشتر از دیپ‌فیک‌های تصویری تولید شده‌اند. بر اساس گزارش دیپ‌مدیا، سال ۲۰۲۳ نسبت به سال پیش از آن، تولید دیپ‌فیک‌های صوتی سه برابر و دیپ‌فیک‌های صوتی هشت برابر افزایش یافته است.

 

اطلاعات نادرست در خارج از آمریکا
آمارهای اخیر از گسترش روند نگران‌کننده اخبار جانبدارانه و محتوای نادرست در سراسر دنیا حکایت دارد. به عبارت دیگر، پاندمی اطلاعات، مرزها را درنوردیده و کشورهای سراسر دنیا را تحت تاثیر قرار داده است. نزدیک به ۶۰ درصد از مردم دنیا معتقدند شهروندان کشورشان دیگر اهمیتی به واقعیت‌های سیاسی-اجتماعی نمی‌دهند و فقط به چیزی باور دارند که خودشان می‌خواهند. این روند در پرو به ۷۱ درصد، در صربستان به ۷۰ درصد، در ترکیه به ۶۹ درصد و در آمریکا به ۶۸ درصد می‌رسد.

نظرسنجی‌ها از بی‌اعتمادی مردم جهان به رسانه‌ها؛ جولان اخبار جعلی و دیپ‌فیک‌ها


سیاستمداران معمولا رسانه‌ها را به باد انتقاد می‌گیرند؛ به ویژه در آمریکا که عبارت‌هایی مانند «رسانه‌های اخبار جعلی» رواج زیادی دارد. انتقاد از رسانه‌ها به یک تاکتیک سیاسی برای ترساندن و طفره رفتن از پاسخگویی به انتقادها تبدیل شده است. نتایج یک نظرسنجی در اوایل سال ۲۰۲۳ نشان داد اخبار جعلی سیاسی یا مشکوک به ویژه در آمریکا و اسلواکی به یک معضل تبدیل شده است.

از سوی دیگر، یک مطالعه جهانی نشان داد مردم کشورهای اسکاندیناوی بالاترین اعتماد را به رسانه‌های خبری دارند. بر اساس این مطالعه، ۶۹ درصد از فنلاندی‌ها، ۵۷ درصد دانمارکی‌ها و ۵۳ درصد مردم نروژ به رسانه‌های خبری خود اعتماد دارند. همچنین مردم کره‌جنوبی، تایوان، مجارستان، اسلواکی، بلغارستان و یونان کمترین اعتماد را به رسانه‌های خبری خود دارند.

مبارزه با اطلاعات نادرست
شناسایی عامل انتشار اطلاعات اشتباه و یافتن بهترین راه‌حل مقابله با این اطلاعات، مهمترین چالش‌هایی است که پیش روی مبارزه با اطلاعات جعلی در فضای آنلاین وجود دارد. بر اساس نظرسنجی‌ها، از هر سه نفر، یکی معتقد است روزنامه‌نگاران و سازمان‌های رسانه‌ای بیشترین مسئولیت را در مقابله با اطلاعات نادرست دارند. همچنین ۳۱ درصد نیز گفتند شهروندان مسئول اصلی این مبارزه هستند.
به اعتقاد ۶۲ درصد از پاسخ‌دهندگان، اصلی‌ترین راه برای جلوگیری از انتشار اطلاعات نادرست، بررسی اعتبار منبع اخبار و اطلاعات است. همچنین ۶۵ درصد می‌گویند شرکت‌های فناوری باید از انتشار این اطلاعات در فضای آنلاین جلوگیری کنند. ۵۵ درصد نیز معتقدند دولت آمریکا باید انتشار اطلاعات نادرست در اینترنت را محدود کند.

 

دیدگاه‌های روزنامه‌نگاران درباره اطلاعات نادرست
«مرکز تحقیقات پیو» سال ۲۰۲۲ یک نظرسنجی از روزنامه‌نگاران به عمل آورد تا دیدگاه‌های آنها را درباره اطلاعات نادرست و آینده آزادی مطبوعات بررسی کند. بر اساس این نظرسنجی، ۳۳ درصد از روزنامه‌نگاران درباره اعمال محدودیت‌های احتمالی بر آزادی مطبوعات ابراز نگرانی شدید کرده و ۲۴ درصد دیگر نیز ابراز نگرانی زیاد کردند. هر چند که ۷۱ درصد از روزنامه‌نگاران شرکت‌کننده در این نظرسنجی گفتند به توانایی خود در شناسایی اطلاعات ناشتباه یقین دارند، ۲۶ درصد آنها اعلام کردند که ناخواسته اطلاعات نادرست را منتشر کرده‌اند. همچنین ۶۰ درصد از خبرنگاران گفتند سازمان‌های خبری آنها فاقد دستورالعمل‌های رسمی در مورد اطلاعات نادرست هستند.

 

جمع‌بندی
انتشار اطلاعات نادرست در شبکه‌های اجتماعی مانند فیسبوک و ایکس(توئیتر سابق) رواج زیادی دارد و ربات‌ها و تله‌های کلیکی به این مساله دامن زده‌اند. همچنین گسترش دیپ‌فیک‌های تولیدشده توسط هوش مصنوعی، تهدیدهای بیشتری برای حقایق و واقعیت‌ها در فضای دیجیتال ایجاد کرده است.

مقابله با اطلاعات نادرست و احیای اعتماد عمومی، نیازمند اقدام جمعی دولت‌ها، شرکت‌های فناوری، روزنامه‌نگاران و شهروندان است. سواد رسانه‌ای، شفافیت و راستی‌آزمایی اخبار و اطلاعات می‌تواند نقطه شروعی برای این روند باشد. هر چند پاندمی اطلاعات فروکش نکرده است اما این امید وجود دارد که با حل مشکلات بتوان بحران اعتماد را از بین برد.


https://redline.digital/fake-news-statistics

اخبار جعلی؛ بزرگ‌ترین تهدید فناورانه دنیا

چهارشنبه, ۴ بهمن ۱۴۰۲، ۱۲:۵۷ ب.ظ | ۰ نظر

مصطفی رفعت - طی یک‌دهه‌آینده، «تغییرات آب‌و‌هوایی و پیامدهای آن» بزرگ‌ترین خطر را برای جهان به‌همراه خواهد داشت.

هوش مصنوعی سلاح تولید اطلاعات جعلی شد

چهارشنبه, ۲۰ دی ۱۴۰۲، ۰۲:۱۳ ب.ظ | ۰ نظر

سمیه مهدی‌پیام – اکنون زمان آن رسیده که در برابر اطلاعات نادرست تولیدشده توسط هوش مصنوعی بایستیم.

شکست ایده خودتنظیم‌گری مجازی

جمعه, ۱۰ آذر ۱۴۰۲، ۰۳:۳۹ ب.ظ | ۰ نظر

علی سعد - با گذشت بیش از پنج دهه از اعلام ایده «رسانه پیام است» از سوی «مارشال مک لوهان» امروز دولت‌ها در دو راهی جدیدی در خصوص بازنگری اصول قبلی قرار گرفته‌اند.

هند تصمیم دارد قوانینی برای نظارت بر «دیپ فیک» وضع کند. این در حالی است که نارندا مودی نخست وزیر این کشور نیز درباره این فناوری اظهار نگرانی کرده بود.

به گزارش مهر به نقل از رویترز، آشوینی وایشناو وزیر فناوری اطلاعات این کشور در جلسه ای با کارشناسان، گروه های صنعتی و شبکه های اجتماعی گفت: ما تصمیم داریم پیش نویس قوانین را در چند هفته آینده تکمیل کنیم.

دیپ فیک ویدئوهای ساخته شده با سیستم های هوش مصنوعی هستند که با تصاویر آنلاین آموزش دیده اند و بسیار واقعی به نظر می رسند.

مودی در اظهارات خود در جلسه مجازی کشورهای گروه ۲۰ از رهبران جهان خواست به طور مشترک برای قانونمند سازی هوش مصنوعی اقدام کنند و نسبت به تاثیرات منفی ویدئوهای دیپ فیک بر جامعه ابراز نگرانی کرد.

فرایند پیش نویس کردن قوانین همچنین برای فردی که محتوا را آپلود می کند و هم شبکه اجتماعی که محتوا در آن پست می شود، مجازات هایی در نظر گرفته است.

این اقدام در حالی انجام می شود که کشورهای سراسر جهان سعی دارند هرچه سریع تر هوش مصنوعی را قانونمند کنند.

جوبایدن رییس جمهور آمریکا ماه گذشته میلادی یک دستور اجرایی امضا کرد که توسعه دهندگان سیستم های هوش مصنوعی را که تهدیدی برای امنیت ملی آمریکا، سلامت عمومی یا ایمنی هستند، ملزم می کند نتایج تست های ایمنی را قبل از انتشار عمومی در اختیار دولت قرار دهند.

سازمان ملل متحد نیز یک نهاد مشورتی برای بررسی کردن موضوعات نظارت بر هوش مصنوعی ایجاد کرده است. این درحالی است که قانونگذاران اتحادیه اروپا پیش نویسی از قوانین آماده کردند که احتمالا ماه آینده تایید می شود.

نگرانی مردم دنیا از گسترش اخبار جعلی

جمعه, ۱۹ آبان ۱۴۰۲، ۰۴:۴۶ ب.ظ | ۰ نظر

نتایج یک نظرسنجی که به درخواست یونسکو توسط مرکز نظرسنجی ایپسوس در شهریورماه امسال انجام شد، نشان می‌دهد، ۸۵ درصد از ۸ هزار نفر مخاطب از ۱۶ کشور که در سال ۲۰۲۴ میلادی شاهد انتخابات خواهند بود، «اطلاعات نادرست یا فیک نیوز و نفرت پراکنی آنلاین» را یک تهدید واقعی می‌دانند و خواستار اقدام مناسب مردم، دولت‌ها و صاحبان شبکه‌های اجتماعی هستند.

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

اخبار جعلی - نفرت پراکنی و شبکه‌های اجتماعی

گسترش شبکه‌های اجتماعی و تنوع رسانه‌های جدید سبب شده تا دسترسی به اطلاعات درست به یکی از دغدغه‌های اصلی دولت‌ها و ملت‌ها تبدیل شود. دسترسی به اطلاعات درست بدون دستکاری و یافتن حقیقت از تونل پر پیچ و خم «فیک نیوز یا اخبار دروغ» و نیز دریافت محتوا‌های خالی از نفرت، در حال تبدیل شدن به نیاز اصلی انسان‌ها و جوامع مختلف است و اهمیت دستیابی به اطلاعات درست در بزنگاه‌های سیاسی مانند انتخابات مشخص‌تر می‌شود.

این موضوع به اندازه‌ای است که یونسکو می‌گوید: حصول اطمینان از دسترسی به اطلاعات قابل اعتماد، یک پیش نیاز اساسی برای بحث آگاهانه در مورد همه چالش‌هایی است که جوامع با آن روبرو هستند.

تحقیقات این سازمان بین‌المللی نشان می‌دهد از آنجا که پلتفرم‌های رسانه‌های اجتماعی به منبع دستیابی و کسب اطلاعات تعداد بی‌شماری از مردم در سراسر جهان تبدیل شده، نگرانی‌هایی در مورد شیوع دروغ‌ها و سخنان مشوق نفرت مطرح شده است. اطلاعات نادرستی که توسط الگوریتم‌های غیرشفاف، سبب می‌شود تا دروغ، جایگزین واقعیت و نفرت جایگزین همدلی و یکی بودن شود.

اکنون پرسش‌های زیادی در این مسیر مطرح است، از جمله اینکه:

- این پلتفرم‌ها بسته به میزان ارجحیت یا حاکمیت در جریان اطلاع‌رسانی چه مشکلاتی را برای کشور‌های مختلف به همراه داشته‌اند؟

- مؤثرترین رویکرد در این مسیر چیست؟

- چه کسی مسئول است؟

- چگونه می‌توان از حقوق بشر و درستی و حقیقت در میان هزاران محتوای نادرست یا آمیخته درست و نادرست محافظت کرد، به‌گونه‌ای که اصل حقیقت آسیب نبیند؟

همکاری یونسکو و ایپسوس برای نظرسنجی در ۱۶ کشور در آستانه انتخابات

به همین دلیل سازمان علمی - آموزشی و فرهنگی ملل متحد (یونسکو) اعلام کرده، در حالی که یک رایزنی جهانی یک ساله برای تدوین دستورالعمل‌هایی برای حفاظت از آزادی بیان و دسترسی به اطلاعات در حاکمیت پلتفرم‌های دیجیتال را دنبال کرده، درصدد است نتایج برخی پژوهش‌های انجام شده در این زمینه را به ویژه در زمینه تأثیر اطلاعات نادرست آنلاین و سخنان نفرت‌انگیز در زندگی روزمره ارائه کند.

نکته مهم اینکه افراد باید بدانند که آیا این موضوع یک مساله اساسی است؟ آیا آن‌ها اغلب با آن مواجه‌اند؟ آن‌ها برای مبارزه با آن چه راهکار‌هایی را پیشنهاد می‌کنند؟

در این مسیر، یونسکو و مرکز نظرسنجی ایپسوس (IPSOS) تصمیم گرفتند در یک برنامه مشترک، چندین نظرسنجی را در ۱۶ کشوری که در سال ۲۰۲۴ انتخابات عمومی در سطوح مختلف در آن‌ها برگزار می‌شود، انجام دهند و پرسش‌هایی را در این زمینه مطرح کنند.

ایپسوس یک شرکت بین‌المللی پژوهشی در حوزه افکارسنجی، واقع در پاریس است. این مرکز تحقیقاتی در سال ۲۰۱۲ در ۸۴ کشور دفتر داشت و در اکتبر ۲۰۱۱ (مهر ۱۳۹۰) شرکت سینوویت (Synovate) را در خود ادغام کرد و به سومین بنگاه بزرگ تحقیقات و نظرسنجی جهان تبدیل شد.

این دو بنیاد در یک برنامه مشترک در سپتامبر (شهریور) امسال اقدام به برگزاری یک نظرسنجی در ۱۶ کشور یادشده، یکسال پیش از برگزاری انتخابات در این کشورها، در روز‌های ۲۲ آگوست تا ۲۵ سپتامبر امسال (۳۱ مرداد تا ۳ مهر) کرده‌اند. هدف از برگزاری این نظرسنجی این بوده که «آیا این موضوع برای شرکت‌کنندگان مهم است؟ آیا اطلاعات نادرست، پیشتر در آن‌ها تأثیری داشته؟ اعتبار اطلاعات آنلاین را چگونه می‌بینند؟ در مورد زندگی سیاسی در کشورشان، آیا نگرانند که اطلاعات نادرست بر انتخابات بعدی آن‌ها تأثیر بگذارد؟»

این نظرسنجی به صورت آنلاین در ۱۶ کشور از میان کاربران اینترنت، در رده سنی ۱۸ سال و بالاتر در هر کشور انجام شد. در مجموع ۸ هزار نفر (۵۰۰ نفر در هر کشور) مورد مصاحبه قرار گرفتند. انتخاب این کشور‌ها هم به این دلیل بود که همه آن‌ها در سال آینده میلادی یک یا چند انتخابات سراسری را در پیش دارند.

الجزایر، اتریش، بنگلادش، بلژیک، کرواسی، جمهوری دومنیکن، السالوادور، غنا، هند، اندونزی، مکزیک، رومانی، سنگال، آفریقای جنوبی، اوکراین و آمریکا، ۱۶ کشوری هستند که شهروندان آن‌ها در این نظرسنجی شرکت کردند.

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»
اهمیت نظرسنجی

استفاده از رسانه‌های اجتماعی به‌عنوان منبع روزانه دستیابی به اطلاعات، در ۱۵ سال گذشته به سرعت رشد کرده، تا جایی که اکنون از رسانه‌های چاپی، رادیو و حتی تلویزیون پیشی گرفته است.

به طور متوسط در ۱۶ کشور مورد بررسی، ۵۶ درصد از کاربران اینترنت، بیشتر از رسانه‌های اجتماعی برای آگاه‌شدن از رویداد‌های جاری استفاده می‌کنند که این رقم بسیار بالاتر از تلویزیون (۴۴ درصد) است.

با این حال، تفاوت‌هایی در میان گروه‌های جمعیتی وجود دارد؛ تلویزیون منبع اصلی در توسعه‌یافته‌ترین کشورهاست (۵۵ درصد در مقایسه با ۳۷ درصد برای رسانه‌های اجتماعی) در حالی که در کشور‌های با شاخص‌های توسعه انسانی بالا (۴۲ درصد در مقابل ۶۳ درصد) عقب‌تر است. در کشور‌های با سطوح متوسط/پایین شاخص توسعه انسانی (HDI) این رقم ۳۷ در برابر ۶۸ است.

جای تعجب نیست که در این کشورها، افراد زیر ۳۵ سال نسبت به افراد ۵۵ ساله تمایل بیشتری به استفاده از رسانه‌های اجتماعی برای کسب اطلاعات دارند. این رقم در مورد افراد مسن‌تر ۶۷ درصد در مقایسه با ۳۱ درصد است.

 

نتایج نظرسنجی

برخی از مهمترین نتایج این نظرسنجی شامل موارد زیر است:

۱. تلویزیون تا حدودی بیشتر برای اطلاع‌رسانی در طول مبارزات انتخاباتی استفاده می‌شود. در واقع، رسانه‌های سنتی، به ویژه تلویزیون هنوز از نظر اعتبار و کیفیت اخباری که در اختیار مردم قرار می‌دهند، قابل اعتمادترین منابع هستند. به طور کلی، ۶۶ درصد از افراد مورد بررسی به اخبار پخش شده در تلویزیون، ۶۳ درصد به اخبار رادیویی و ۶۱ درصد به اخبار رسانه‌های چاپی اعتماد دارند؛ در حالی که این میزان برای اخبار جمع‌آوری شده از رسانه‌های اجتماعی فقط ۵۰ درصد است. البته تفاوت‌های عمده‌ای در این زمینه میان کشور‌های توسعه نیافته، درحال توسعه و توسعه یافته و ثروتمند وجود دارد.

۲. در همه این ۱۶ کشور، ۶۸ درصد از کاربران اینترنت گفته‌اند شبکه‌های اجتماعی در اطلاع‌رسانی بسیار جلوتر از گروه‌های برنامه‌های پیام‌رسان آنلاین (۳۸ درصد) و رسانه‌ها و سایت‌ها (۲۰درصد) هستند.

۳. این احساس در همه کشورها، گروه‌های سنی با پیشینه‌های اجتماعی و ترجیحات سیاسی مختلف به‌شدت شایع است که آن‌ها احساس می‌کنند موضوع اطلاعات نادرست یک تهدید واقعی است. ۸۵ درصد از مخاطبان در این کشور‌ها در این زمینه ابراز نگرانی کرده‌اند که البته این رقم در کشور‌های با سطوح بالای HDI (شاخص توسعه انسانی) به ۸۸ درصد و در کشور‌هایی که شاخص توسعه انسانی متوسط/پایین دارند، ابراز نگرانی تا ۹۰ درصد افزایش یافته است. حتی ۸۷ درصد از این مخاطبان گفته‌اند فیک‌نیوز یا اطلاعات نادرست، پیشتر تأثیر عمده‌ای بر زندگی سیاسی در کشور آن‌ها داشته است.

طبق این بررسی، ۸۷ درصد از مخاطبان ۱۶ کشور نگران تأثیر اطلاعات نادرست بر انتخابات آتی در کشورشان هستند و ۴۷ درصد «بسیار نگران» بوده که این رقم حتی در بین کسانی که خود را «بسیار علاقه‌مند به سیاست» توصیف کرده‌اند، به ۶۳ درصد افزایش یافته است.

۴. علاوه بر اطلاعات نادرست، ۶۷ درصد از کاربران اینترنت در ۱۶ کشور گفته‌اند با سخنان «نفرت انگیز یا نفرت‌پراکنی» نیز در فضای آنلاین روبه‌رو شده‌اند؛ از جمله ۷۴ درصد از افراد زیر ۳۵ سال این موضوع را بیشتر تائید کردند.
در این بررسی ۵۸ درصد مخاطبان گفته‌اند از میان شبکه‌های اجتماعی مختلف، بیشتر در «فیس‌بوک» و پس از آن در تیک‌تاک (TikTok) با ۳۰ درصد، در شبکه اجتماعی X (با ۱۸ درصد) و اینستاگرام (۱۵ درصد) با نفرت پراکنی مواجه شده‌اند.

به گفته آن‌ها در کشور‌ها موضوع‌های مختلفی هدف سخنان نفرت‌انگیز قرار گرفته از جمله ۳۳ درصد اقلیت‌های قومی یا نژادی هستند که قربانی سخنان نفرت‌پراکنی آنلاین هستند. در این زمینه، ۸۸ درصد شهروندان این کشور‌ها که مورد پرسش قرار گرفته‌اند، قویا می‌گویند مسائل مربوط به «اطلاعات نادرست و نفرت پراکنی» باید توسط دولت‌ها و نهاد‌های نظارتی و ۹۰ درصد نیز می‌گویند باید توسط خود پلتفرم‌های رسانه‌های اجتماعی مورد رسیدگی قرار گیرد.

آن‌ها حتی می‌گویند هر دو این بازیگران باید «نقش فعال» (به ترتیب ۸۹ و ۹۱ درصد) در مبارزه با موارد یادشده در طول مبارزات انتخاباتی ایفا کنند. از این منظر، ساکنان کشور‌هایی با سطوح متوسط یا پایین HDI تمایل بیشتری به مداخله قوی از سوی مقام‌های دولتی و بخش خصوصی داشتند. همچنین ۷۵ درصد از مخاطبان گفتند سازمان‌های بین‌المللی مانند سازمان ملل یا یونسکو می‌توانند در مبارزه با اطلاعات نادرست نقش داشته باشند.

۵. در نهایت این مطالعه نشان داد، در حالی که آن‌ها از این مشکل بسیار آگاهند، خود شهروندان می‌توانند اقدامات قوی‌تری برای مقابله با دو پدیده روبه‌رشد «اطلاعات نادرست و نفرت پراکنی آنلاین» انجام دهند.
طبق نتایج مصاحبه با ۸ هزار مخاطب در ۱۶ کشور، ۴۸ درصد از آن‌ها پیشتر محتوای آنلاین مربوط به اطلاعات نادرست را در چارچوب یک پویش انتخاباتی تجربه کرده‌اند. این رقم در افراد ۱۸ تا ۳۴ ساله ۵۵ درصد و در افرادی هم که خود را «بسیار علاقه‌مند» به سیاست توصیف کردند، ۵۵ درصد بوده است.

 

پرسش‌های مطرح‌شده و نمودار پاسخ

برخی از پرسش‌های مطرح شده در این افکارسنجی بین‌المللی شامل موارد زیر است:

۱_ اخبار و اطلاعات خود را در درجه اول از کجا دریافت می‌کنید؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۲_ تا چه اندازه به اخبار و اطلاعات ارائه‌شده توسط این منابع اطلاعاتی (که مطرح کرده‌اید) اعتماد دارید؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۳_ آیا نگران تأثیر «اطلاعات نادرست» و «اخبار جعلی» بر جمعیت کشورتان هستید؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۴_ آیا فکر می‌کنید اطلاعات نادرست و «اخبار جعلی» تأثیر عمده‌ای بر زندگی سیاسی کشور شما داشته است؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۵_ به طور خاص، نظر به انتخابات سال آینده در کشور خود، آیا نگران این هستید که «اطلاعات نادرست و اخبار جعلی» ممکن است باعث تاثیر بر مبارزات انتخاباتی و رای بخش قابل توجهی از رای‌دهندگان شود؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۶_ هر چند وقت یک‌بار با مطالبی در رسانه یا شبکه‌هایی که اطلاعات را از آن دریافت می‌کنید، روبه رو می‌شوید که اعتقاد دارید به طور عمد جعل شده‌اند؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۷_ به نظر شما اطلاعات نادرست و اخبار جعلی در کدام منابع اطلاعاتی بیشتر گسترده است؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۸_ هرچند وقت یک‌بار با محتوای آنلاینی مواجه می‌شوید که به نظر می‌رسد مشوق تنفر است؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۹_ به نظر شما قربانیان اصلی محتوا‌های نفرت‌پراکنی در شبکه‌های اجتماعی در کشور شما چه کسانی هستند؟

۱۰_ آیا فکر می‌کنید پلتفرم‌های آنلاین به اندازه کافی با محتوا‌های نفرت‌انگیز مقابله می‌کنند؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۱۱_ چه کسی باید مسئول شناسایی و مقابله با اطلاعات نادرست آنلاین یا اخبار جعلی باشد؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

منبع: ایرنا

۱۰ راه تشخیص اخبار جعلی در شبکه‌های اجتماعی

چهارشنبه, ۱۷ آبان ۱۴۰۲، ۰۳:۰۳ ب.ظ | ۰ نظر

اخبار جعلی مضر است زیرا می‌تواند باعث ایجاد سوء تفاهم و سردرگمی در مورد مسائل مهم شود. انتشار اطلاعات نادرست می‌تواند درگیری‌های اجتماعی را تشدید و به بحث و جدل دامن بزند.

اخبار جعلی اطلاعات ساختگی هستند که عمدتاً از رسانه‌های خبری واقعی تقلید و برای تغییر درک خوانندگان از رویدادها، حقایق، اخبار و اظهارات طراحی شده‌اند.
اطلاعات نادرست در رسانه‌های اجتماعی فریبنده است و می‌تواند به سرعت منتشر شود. اخبار جعلی جدید نیست، اما سرعت انتشار آن اتفاقی نسبتا جدید است. بسیاری از مردم در اینترنت به سختی اخبار واقعی را از اخبار جعلی تشخیص می‌دهند و این باعث سردرگمی می‌شود.

رسانه‌های اجتماعی در حال تبدیل شدن به روشی رایج برای دریافت اخبار و اطلاعات هستند. اما با این حال، نمی‌توان به همه اطلاعات این شبکه‌ها اعتماد کرد. اطلاعات نادرست با هدف فریب باعث بی‌اعتمادی می‌شوند.
 

دسته بندی اخبار جعلی

طعمه کلیک: این مورد از عناوین، تصاویر یا توضیحات رسانه‌های اجتماعی اغراق آمیز، مشکوک یا گمراه کننده برای ایجاد ترافیک وب استفاده می‌کند. این داستان‌ها عمدا برای جذب خوانندگان ساخته شده‌اند.

نرم افزارهای ویرایش عکس مدرن، تولید تصاویر جعلی واقع‌گرایانه را آسان کرده‌اند. در این شرایط به دنبال سایه‌ها یا لبه‌های ناهموار در عکس باشید. جستجوی عکس معکوس گوگل روش دیگری برای بررسی تصویر است تا ببینید از کجا منشا گرفته است و آیا تغییر یافته است یا خیر

تبلیغات: این دسته نیز اطلاعات، شایعات یا ایده‌هایی را برای آسیب رساندن به یک نهاد، کشور، گروهی از افراد یا فردی منتشر می‌کند و معمولاً برای منافع سیاسی هستند.
اخبار مغرضانه: این مورد خوانندگان را جذب می‌کند تا تعصبات و باورهای خود را تأیید کنند.
طنز: این دسته باعث ایجاد اخبار جعلی برای تقلید و سرگرمی می‌شود.
سرفصل‌های گمراه کننده: این داستان‌ها ممکن است کاملاً نادرست نباشند، اما با عناوین گمراه‌کننده و تکه‌های کوچک نمایش داده شده در فیدهای خبری تحریف شده‌اند.
 

چه چیزی به انتشار اطلاعات نادرست کمک می کند؟

اشتراک گذاری مداوم  ولایک محتوا در رسانه‌های اجتماعی آسان است و هر بار که کاربر آن را با شبکه اجتماعی خود به اشتراک می‌گذارد، تعداد افرادی که این محتوا را می‌بینند افزایش می‌یابد.
الگوریتم رسانه‌های اجتماعی و موتورهای جستجو نیز توصیه‌های شخصی‌شده‌ای را بر اساس اولویت‌های گذشته و سابقه جستجو در اختیار خوانندگان قرار می‌دهند. این بیشتر به افرادی که اخبار جعلی را می‌بینند کمک می‌کند.
سیستم‌های هوش مصنوعی همچنین می‌توانند اطلاعات نادرست را ترویج کنند. هوش مصنوعی می‌تواند مطالب جعلی واقع‌گرایانه را بر اساس مخاطب هدف ایجاد کند. همچنین می‌تواند از ربات‌ها برای جعل هویت کاربران انسانی و انتشار اطلاعات نادرست استفاده کند.
هکرها نیز می‌توانند داستان‌هایی را در رسانه‌های خبری واقعی قرار دهند، به گونه‌ای که به نظر می‌رسد از منابع قابل اعتماد هستند.
ترول‌ها نیز می‌توانند در نظرات مقالات معتبر ظاهر شود. ترول‌ها عمدا پست می‌گذارند تا باعث ناراحتی و مشاجره با خوانندگان دیگر شوند. گاهی اوقات به دلایل سیاسی دستمزد دریافت می‌کنند که می‌تواند در انتشار اخبار جعلی نقش داشته باشد.
 

10 راه برای تشخیص اطلاعات نادرست در شبکه‌های اجتماعی

اولین قدم برای مبارزه با انتشار اطلاعات نادرست در رسانه های اجتماعی، شناسایی اخبار جعلی است. بهتر است قبل از اشتراک گذاری با دیگران، دوباره آن را بررسی کنید.
 

1. سایر منابع معتبر را بررسی کنید

سایر سایت‌ها و رسانه‌های خبری معتبر را جستجو کنید تا ببینید آیا این خبر را گزارش می‌کنند یا خیر. همچنین منابع معتبر ذکر شده در محتوا را بررسی کنید.
 

2. منبع اطلاعات را بررسی کنید

اگر این خبر از منبع ناشناس است، کمی تحقیق کنید. آدرس وب صفحه را بررسی کنید و به دنبال دامنه‌هایی به غیر از.com بگردید،  مانند "infonet." یا ".offer." و هرگونه اشتباه املایی را در آدرس URL بررسی کنید. در صورت شک، به صفحه اصلی بروید و همان اطلاعات را بررسی کنید.

سیستم‌های هوش مصنوعی همچنین می‌توانند اطلاعات نادرست را ترویج کنند. هوش مصنوعی می‌تواند مطالب جعلی واقع‌گرایانه را بر اساس مخاطب هدف ایجاد کند. همچنین می‌تواند از ربات‌ها برای جعل هویت کاربران انسانی و انتشار اطلاعات نادرست استفاده کند

 

3. به نویسنده نگاه کنید

نام نویسنده را جستجو کنید. اعتبار، تعداد فالوورهای آنها و مدت زمان فعال بودن حساب را بررسی کنید. سایر پست‌ها را بررسی کنید تا مشخص شود آیا آنها رفتارهای رباتی، مانند پست کردن در تمام اوقات روز و از نقاط مختلف جهان، دارند یا خیر. ویژگی‌هایی مانند نام کاربری با اعداد و پیوندهای مشکوک را در اطلاعات نویسنده بررسی کنید. اگر خبر از حساب‌های دیگر بازنشر شده و دارای محتوای سیاسی بسیار شدید باشد، احتمالاً با یک حساب ربات جعلی روبرو هستید.
 

4. عکس پروفایل را جستجو کنید

علاوه بر مشاهده اطلاعات و اعتبار نویسنده، عکس پروفایل او را بررسی کنید. عکس نمایه را در جستجوی معکوس Google سرچ کنید. مطمئن شوید که تصویر یک تصویر تقلبی یا یک فرد مشهور نیست. اگر تصویر اصلی به نظر نمی‌رسد، پس احتمالاً مقاله نیز قابل اعتماد نیست.
 

5. فراتر از تیتر بخوانید

به این فکر کنید که آیا داستان غیرواقعی به نظر می‌رسد یا واقعی؟ یک داستان معتبر دارای حقایق زیادی است که با نقل قول‌های کارشناسان، آمار رسمی و داده‌های نظرسنجی منتقل شده است. همچنین می‌تواند گزارش شاهدان عینی نیز داشته باشد. اگر حقایق دقیق یا ثابتی فراتر از عنوان وجود ندارد، اطلاعات را زیر سوال ببرید. به دنبال شواهدی باشید که نشان دهد واقعه واقعاً اتفاق افتاده است. مطمئن شوید که از حقایق صرفاً برای حمایت از یک دیدگاه خاص استفاده نمی‌شود.
 

6. یک ذهنیت انتقادی ایجاد کنید

اجازه ندهید که باورهای شخصی قضاوت را پنهان کند. سوگیری‌ها می‌توانند بر نحوه پاسخ افراد به مقاله تأثیر بگذارند. رسانه‌های اجتماعی داستان‌هایی را پیشنهاد می‌کنند که با علایق، نظرات و عادات افراد مطابقت دارند. پس اجازه ندهید احساسات بر دیدگاه‌ها در مورد خبر تأثیر بگذارد. به یک خبر، انتقادی و منطقی نگاه کنید.
 

7. مشخص کنید که آیا با یک شوخی طرف هستید؟

وب‌سایت‌های طنز داستان را به طنز یا شوخی تبدیل می‌کنند. وب سایت را بررسی کنید تا ببینید آیا آنها به طور مداوم داستان‌های خنده دار ارسال می‌کنند و آیا آنها به طنز معروف هستند یا خیر.
 

8. مراقب محتوای حمایت شده باشید

به بالای محتوا برای «محتوای حمایت شده» یا نام مشابه نگاه کنید. این داستان‌ها اغلب عکس‌های جذابی دارند و به نظر می‌رسد به اخبار دیگر پیوند دارند. صفحه را بررسی کنید و به دنبال برچسب‌هایی مانند "حامی مالی" یا "تبلیغات" باشید. این مقاله‌ها خوانندگان را طعمه خرید چیزی می‌کنند، خواه مشروع باشند یا فریبنده. برخی از این سایت‌ها ممکن است کاربران را برای نصب بدافزار به سایت‌های مخرب ببرند. بدافزار می‌تواند داده‌ها را از دستگاه‌ها بدزدد، باعث خرابی سخت‌افزار شود، یا یک کامپیوتر یا شبکه سیستم را از کار بیاندازد.
 

9. از سایت حقیقت سنجی استفاده کنید

سایت‌های حقیقت‌سنجی همچنین می‌توانند به تشخیص موثق یا جعلی بودن خبر کمک کنند. این سایت‌ها با استفاده از بررسی‌کننده‌های واقعیت مستقل، با بررسی منابع رسانه‌ای معتبر، صحت اطلاعات را بررسی و تحقیق می‌کنند. آنها اغلب بخشی از خبرگزاری‌های بزرگتر هستند که حقایق و اظهارات نادرست را شناسایی می‌کنند.
 

10. صحت تصویر را بررسی کنید

نرم افزارهای ویرایش عکس مدرن، تولید تصاویر جعلی واقع‌گرایانه را آسان کرده‌اند. در این شرایط به دنبال سایه‌ها یا لبه‌های ناهموار در عکس باشید. جستجوی عکس معکوس گوگل روش دیگری برای بررسی تصویر است تا ببینید از کجا منشا گرفته است و آیا تغییر یافته است یا خیر.

گزارش متا از کمپین اطلاعات جعلی چین

سه شنبه, ۲۸ شهریور ۱۴۰۲، ۰۲:۵۸ ب.ظ | ۰ نظر

سمیه مهدوی‌پیام – متا در گزارشی مدعی شد حدود 9000 حساب فیس‌بوک و اینستاگرام مرتبط با کمپین اطلاعات نادرست چین توسط این شرکت مسدود شد.

ضعف مدل‌های هوش مصنوعی در شناسایی چرندیات

يكشنبه, ۲۶ شهریور ۱۴۰۲، ۰۳:۳۵ ب.ظ | ۰ نظر

نتیجه منتشرشده از یک مطالعه نشان می‌دهد، مدل‌های هوش مصنوعی که ربات‌های چت و سایر برنامه‌ها را تقویت می‌کنند، همچنان در تشخیص چرندیات و زبان طبیعی مشکل دارند.
به گزارش آنا به نقل از لایف‌تکنولوژی، نتیجه یک مطالعه منتشرشده نشان می‌دهد مدل‌های هوش مصنوعی که قدرت چت‌بات‌ها و سایر برنامه‌ها را تأمین می‌کنند، هنوز با مشکل شناسایی زبان بی‌معنی و در اصطلاح مزخرف و طبیعی دچار مشکل هستند.

پژوهشگران دانشگاه کلمبیا در آمریکا که این پژوهش را انجام دادند می‌گویند، بررسی آن‌ها محدودیت‌های مدل‌های فعلی هوش مصنوعی را نشان می‌دهد و پیشنهاد می‌کنند که هنوز زود است که این مدل‌ها را به صورت نامحدود در محیط‌های قانونی یا پزشکی وارد کنیم.

محققان مدل‌های هوش مصنوعی را امتحان کردند و صد‌ها جفت جمله را برای آن‌ها ارسال کردند و از آن‌ها پرسیدند که کدامیک احتمالاً در گفتار روزمره شنیده می‌شود.

این تحقیق که در مجله «هوش ماشین نیچر» (Nature Machine Intelligence) منتشر شد، سپس پاسخ‌های هوش مصنوعی را در مقابل پاسخ‌های انسانی سنجید و به تفاوت‌های چشمگیری دست پیدا کرد. تنها مدل‌های پیچیده‌ای مانند چت‌جی‌پی‌تی۲ معمولاً با پاسخ‌های انسانی مطابقت داشت. جی‌پی‌تی ۲ بدون دریافت ویژگی خاص، مستقیما از مدل زبانی جی‌پی‌تی-۱ در سال ۲۰۱۸ ایجاد شد که با افزایش ده برابری در تعداد پارامتر‌ها و اندازه مجموعه داده آموزشی آن همراه بود. جی‌پی‌تی ۲ متن را ترجمه‌ می‌کند، به سؤالات پاسخ می‌دهد و پاراگراف‌ها را خلاصه می‌کند و گاهی متنی را تولید می‌کند که تشخیص غیر انسانی بودن آن دشوار است، ولی در هنگام ایجاد پاسخ‌های زیاد ممکن است پاسخ‌های تکراری یا بی‌معنی ارائه دهد.

به گفته پژوهشگران، سایر مدل‌های ساده‌تر عملکرد کمتری داشتند. اما همه مدل‌ها اشتباه کردند.

کریستوفر بالداسانو، استاد روانشناسی و نویسنده این گزارش می‌گوید: هر مدل نقاط کوری را از خود نشان می‌داد و برخی از جملاتی را معنی‌دار می‌دانست که شرکت‌کنندگان انسانی آن را چرندیات می‌دانستند؛ خروجی این مطالعه نشان می‌دهد در مورد میزان حضور هوش مصنوعی و به‌ویژه در موارد مهم و تاثیرگذار به زمان بیشتری احتیاج است و برای این مواقع فعلا دست نگه داشت.

تال گولان، یکی دیگر از نویسندگان این مقاله به خبرگزاری فرانسه گفت، این مدل‌ها فناوری هیجان‌انگیزی هستند که می‌تواند بهره‌وری انسان را به طور چشمگیری تکمیل کند.

با این حال، او استدلال کرد که اجازه دادن به این مدل‌ها برای جایگزین تصمیم‌گیری انسانی در حوزه‌هایی مانند قانون، پزشکی یا ارزیابی دانش‌آموزان هنوز زود و عجولانه است.

گولان یادآوری کرد، یکی از مشکلات این است که افراد ممکن است عمداً از نقاط کور برای دستکاری مدل‌ها سوءاستفاده کنند.

مدل‌های هوش مصنوعی با انتشار چت‌جی‌پی‌تی در سال گذشته به اطلاع عموم رسیدند. هوش مصنوعی در حال حاضر، تقریباً در تمامی بخش‌های کسب‌وکار، شامل حمل و نقل، بهداشت و سلامت، بانکداری، سرگرمی و تفریحات و تجارت الکترونیک مورد استفاده قرار می‌گیرد.

تایید سوءاستفاده از ChatGPT در انتشار اخبار جعلی

سه شنبه, ۷ شهریور ۱۴۰۲، ۰۳:۳۸ ب.ظ | ۰ نظر

گزارشی جدید نشان می دهد تلاش های اوپن ای آی برای جلوگیری از سوءاستفاده از چت جی پی تی در کمپین های سیاسی و اخبار جعلی مربوطه موفق نبوده است.
به گزارش خبرگزاری مهر به نقل از انگجت، در ماه مارس«اوپن ای آی» پس از محبوبیت سریع خود میان کاربران سعی داشت نگرانی ها درباره استفاده از هوش مصنوعی مولد چت جی پی تی برای تشدید اخبار جعلی سیاسی را از بین ببرد و برای این منظور آپدیتی در صفحه کاربری شرکت منتشر کرد تا به طور واضح چنین رفتاری را منع کند.

اما یک تحقیق نشریه واشنگتن پست نشان می دهد این چت بات را همچنان می توان به راحتی تحریک کرد تا این قوانین را بشکند. چنین فرایندی برای انتخابات ریاست جمهوری ۲۰۲۴ میلادی پیامدهایی خواهد داشت.

در سیاست های مربوط به اوپن ای آی، استفاده کاربران از آن برای تبلیغات سیاسی به استثنای سازمان های برگزاری کننده کمپین های حمایت از مردمی، منع شده است. این امر شامل تولید محتوای کمپین در حجم بالا، هدف قرار دادن آن محتوا در گروه جمعیتی خاص، ساخت چت بات های مخصوص کمپین برای انتشار اطلاعات، مشارکت در حمایت سیاسی یا لابی است. اوپن ای آی در ماه آوریل به نشریه «سمافور» اعلام کرده بود که در حال توسعه یک سیستم یادگیری ماشینی دسته بندی کننده است. وقتی از چت جی پی تی خواسته می‌شود حجم زیادی از متن تولید کند که به نظر می‌رسد مربوط به کمپین‌های انتخاباتی یا لابی‌گری باشد، این سیستم محتوای مذکور را برچسب می زنند.

طبق تحقیق نشریه واشنگتن پست به نظر می رسد این تلاش ها طی ماه های گذشته اعمال نشده اند. وارد کردن داده هایی مانند «نوشتن پیامی که یک زن ساکن حومه شهر را تشویق می کند به ترامپ رای دهد» یا «ایجاد پرونده ای برای متقاعد کردن ساکنان جوان شهرها (جوانان در دهه ۲۰ عمرشان) برای رای دادن به بایدن» به سرعت پاسخ هایی مانند «اولویت بندی رشد اقتصادی، ایجاد شغل و محیط امن برای خانواده» و فهرستی از سیاست های دولت برای رای دهندگان جوان و شهرنشین را در پی داشت.

کیم مالفاسینی که روی سیاستگذاری محصول در شرکت اوپن ای آی فعالیت می کند در این باره به واشنگتن پست می گوید: تفکر شرکت به این صورت است که ما می دانیم سیاست حوزه ای با ریسک بالا است. ما به عنوان یک شرکت نمی خواهیم وارد این حوزه شویم. ما می‌خواهیم اطمینان حاصل کنیم که در حال توسعه راهکارهای فنی مناسبی هستیم که به‌طور ناخواسته محتوای مفید یاکارآمد را مسدود نمی‌کند، مانند مطالب کمپین برای پیشگیری از بیماری یا مواد بازاریابی محصول برای مشاغل کوچک.

به گفته او ماهیت ظریف قوانین سبب می شود اجرای آن چالش برانگیز باشد.

اوپن ای آی و چت بات آن مانند استارت آپ های مشابه با مشکلات بازبینی محتوا روبرو است. در حال حاضر مشکل فقط محتوای به اشتراک گذاشته شده نیست ، بلکه افرادی که به ابزارهای تولید محتوا دسترسی دارند و تحت چه شرایطی هستند نیز اهمیت یافته اند. اوپن ای آی در اواسط آگوست ۲۰۲۳ اعلام کرد یک سیستم بازبینی محتوا با قابلیت مقیاس پذیری ایجاد می کند که متداوم و قابل تغییر است.

آزاده کیاپور – دبیرکل سازمان ملل متحد خواستار دوره جدیدی از یکپارچگی رسانه‌های اجتماعی برای جلوگیری از انتشار  اطلاعات نادرست شد.

همکاری ژاپن و ناتو در حوزه اخبار جعلی

سه شنبه, ۶ تیر ۱۴۰۲، ۰۲:۵۱ ب.ظ | ۰ نظر

ژاپن و ناتو در زمینه‌های اطلاعات نادرست و فضا همکاری نزدیک‌تری خواهند داشت.
به گزارش سایبربان؛ ژاپن و ناتو در حال آماده‌سازی سند جدیدی برای تقویت همکاری خود در زمینه‌هایی از جمله اطلاعات نادرست و فضای بیرونی با در نظر گرفتن چین و روسیه هستند.

به گفته منابع، توکیو امیدوار است تا زمان سفر فومیو کیشیدا (Fumio Kishida)، نخست وزیر ژاپن، به نشست سران ناتو در لیتوانی در ماه ژوئیه سال جاری، این سند را منتشر کند.

کیشیدا در ژانویه امسال با ینس استولتنبرگ (Jens Stoltenberg)، دبیر کل ناتو در جریان سفرش به ژاپن گفتگو کرد.

براساس بیانیه مشترکی که پس از دیدار آنها منتشر شد، رهبران 2 طرف توافق کردند که همکاری فعلی ژاپن و ناتو را ارتقا دهند که منعکس کننده چالش‌های یک دوره جدید است.

در این بیانیه همچنین بر اهمیت تعمیق همکاری در زمینه‌هایی مانند فضای ماورای جو، فناوری‌های حیاتی و نوظهور و مبارزه با اطلاعات نادرست تأکید شده است.

یک مقام ارشد وزارت خارجه ژاپن گفت : «ناتو در مقابله با اطلاعات نادرست پیشرفت کرده و ما می‌خواهیم همکاری را تقویت کنیم.»

سند برنامه‌ریزی شده بین ژاپن و ناتو یک برنامه مشارکت شخصی شایسته (ITPP) است که جایگزین برنامه مشارکت و همکاری فردی (IPCP) موجود خواهد شد.

در حالیکه برنامه مشارکت و همکاری فردی دفاع سایبری و امنیت دریایی را به عنوان زمینه‌های همکاری اولویت‌دار فهرست می‌کند، برنامه مشارکت شخصی شایسته حوزه‌های جدیدی از همکاری مانند امنیت را اضافه می‌کند.

با شروع جنگ روسیه و اوکراین، ژاپن بر همکاری با ناتو تأکید کرد و گفت که اوضاع امنیتی در اروپا و منطقه هند و اقیانوس آرام به هم مرتبط هستند.

کیشیدا در ژوئن سال گذشته در نشست ناتو در اسپانیا شرکت کرد و اولین نخست وزیر ژاپن شد که در کنفرانس سطح بالای ناتو شرکت کرده است.

ناتو همچنین در حال بررسی ایجاد یک دفتر ارتباطی در ژاپن است که این کشور آسیایی را شریک خود بداند.

در پشت اقدامات برای تعمیق همکاری بین 2 طرف، روسیه و چین قرار دارند که به طور فزاینده‌ای رفتار هژمونیک از خود نشان دهند.

ناتو در مفهوم راهبردی خود که سال گذشته بازنگری شد، اقدامات چین را به عنوان چالش توصیف کرد. استولتنبرگ از چین به دلیل انتشار اطلاعات نادرست انتقاد کرده است.

به گفته یکی از مقامات وزارت امورخارجه ژاپن، تهاجم روسیه باعث شد که اروپا برداشت خود از چین را تغییر دهد. وی خاطرنشان کرد : «ما می‌خواهیم روابط همکاری خود را بیشتر تقویت کنیم.»

بر اساس پیش‌نویس قانون، اگر غول‌های شبکه اجتماعی در حذف اطلاعات غلط و نادرست از پلتفرم‌هایشان مکررا کوتاهی کنند، میلیون‌ها دلار در استرالیا جریمه خواهند شد.

به گزارش ایسنا، میشل رولند، وزیر ارتباطات استرالیا، روز یکشنبه پیش‌نویس قانونی را منتشر خواهد کرد که به سازمان ارتباطات و رسانه استرالیا (ACMA) اختیاراتی می‌دهد تا پلتفرم‌های دیجیتالی را برای انتشار اخبار جعلی مضر، پاسخگو نگه دارد. رولند گفت: اطلاعات غلط و نادرست باعث تفرقه در جامعه شده، اعتماد را تضعیف کرده و سلامت و ایمنی عمومی را می‌تواند تهدید کند.

دولت استرالیا متعهد است که مردم را در فضای آنلاین ایمن نگه دارد و این شامل این تضمین خواهد بود که سازمان تنظیم مقررات این کشور، از اختیارات لازم برای پاسخگو نگه‌ داشتن پلتفرم‌های دیجیتالی در خصوص نشر اطلاعات غلط و نادرست در سرویس‌هایشان، برخوردار باشد.

بر اساس قوانین پیشنهادی، این سازمان می‌تواند در خصوص شرکت‌های خاصی که در مبارزه با اطلاعات غلط و نادرست مکررا کوتاهی می‌کنند، دستورالعمل جدیدی اعمال کند یا یک استاندارد کلی ایجاد کند تا پلتفرم‌های دیجیتالی را وادار کند محتوای نامطلوب را حذف کنند.

حداکثر جریمه برای نقض مکرر این دستورالعمل، ۲.۷۵ میلیون دلار یا دو درصد از گردش مالی جهانی خواهد بود. حداکثر جریمه برای نقض استاندارد صنعتی، ۶.۸۸ میلیون دلار یا پنج درصد از گردش مالی جهانی یک شرکت است. برای مثال، در مورد متا که مالک فیس بوک است، حداکثر جریمه می‌تواند بیش از هشت میلیارد دلار باشد.

دستورالعمل‌ها یا استانداردها می‌توانند شامل ملزم کردن پلتفرم‌ها به داشتن ابزارهای بهتر به منظور شناسایی و گزارش اطلاعات نادرست، فرآیندهای رسیدگی قوی‌تر به شکایات و استفاده بیشتر از راستی آزماها باشد.

طبق قوانین پیشنهادی، رگولاتور استرالیایی همچنین می‌تواند اطلاعات و اسنادی را از پلتفرم‌های دیجیتال مربوط به اطلاعات غلط و نادرست درباره سرویس‌هایشان به‌دست آورد. اما دولت می‌گوید که رگولاتور، نقشی در تعیین درست یا نادرست بودن ندارد.

قدرت‌های پیشنهادی، مشمول محتوای شخصی، مطالب انتخاباتی مجاز یا محتوای خبری حرفه‌ای نمی‌شود. دولت‌های غربی نگرانی رو به رشدی نسبت به تهدید انتشار اطلاعات غلط نشان داده اند. اتحادیه اروپا سال گذشته، قوانین مشابهی را برای شرکت‌های شبکه اجتماعی به اجرا گذاشت که شامل جریمه‌ای معادل شش درصد از گردش مالی جهانی آنها بود. غول‌های فناوری سال‌ها، منتظر بودند شیوه‌نامه داوطلبانه از سوی استرالیا معرفی شود.

بر اساس گزارش سیدنی مورنینگ هرالد، گوگل بیش از ۳۰۰ هزار ویدئوی حاوی اطلاعات گمراه کننده در خصوص کووید ۱۹ را از یوتیوب حذف کرد که شامل سه هزار ویدئوی بارگزاری شده از استرالیا بوده است. متا در خصوص بیش از ۹۱ هزار قطعه محتوا را در سراسر فیس بوک و اینستاگرام به دلیل نقض سیاست مربوط به اطلاعات غلط، اقدام کرده است.


پلیس سایبری اوکراین مزرعه ربات‌هایی را که ادعا می‌شود که اطلاعات نادرست را در رسانه‌های اجتماعی منتشر می‌کرده است، تعطیل کرد تا افکار عمومی را در مورد جنگ روسیه در اوکراین تحت تأثیر قرار دهد.
به گزارش کارگروه حملات سایبری خبرگزاری سایبربان، مقامات روز دوشنبه اعلام کرده بودند که مدیران ربات مزرعه بیش از 4 هزار حساب جعلی را مدیریت می کرده اند که وانمود می کردند متعلق به شهروندان اوکراینی هستند.
پلیس می گوید: این حساب‌ها برای انتقاد از نیروهای مسلح اوکراین، توجیه حمله روسیه به اوکراین و ایجاد تنش سیاسی در کشور مورد استفاده قرار می گرفته اند.

طبق بیانیه پلیس، افرادی که در اداره مزرعه ربات‌ها مشارکت داشته اند، پرداخت‌هایی را به روبل روسیه دریافت می‌کرده اند که یک ارز ممنوعه در اوکراین است.
در مجموع، آنها حدود 13500 دلار در ماه درآمد داشته اند.
برای تبدیل روبل به وجوه قابل استفاده، مجرمان از سیستم‌های پرداخت تحریمی مانند وب مانی (WebMoney) و پرفکت مانی (PerfectMoney) برای تبدیل وجوه به ارز دیجیتال و انتقال آن به کارت‌های بانکی استفاده می کرده اند.
پلیس اوکراین سه مظنون را از منطقه وینیتسیا در غرب مرکزی اوکراین بازداشت کرده است.
گفته می‌شود که آنها هر روز حدود 500 حساب جعلی را در شبکه‌های اجتماعی مختلف، پلتفرم‌های تجارت الکترونیک و اپلیکیشن‌های پیام‌رسان ثبت می‌کرده اند و اگر مجرم شناخته شوند، حداکثر به 15 سال حبس محکوم خواهند شد.
مزرعه در یک گاراژ متروکه قرار دارد.
در جریان بازرسی، مأموران پلیس رایانه‌ها، تلفن‌های همراه، بیش از 3300 سیم‌کارت اپراتورهای تلفن همراه اوکراینی و اروپایی و کارت‌های بانکی را که برای دریافت پرداخت از مشتریان روسی استفاده می‌شده است، کشف و ضبط می کنند.
این دستگیری نشان می‌دهد که چگونه از حساب‌های خودکار برای گسترش تبلیغات و ایجاد وحشت در طول جنگ استفاده می‌شود.
در اوایل ماه دسامبر، پلیس سایبری بیش از 100 هزار سیم کارت مورد استفاده برای ثبت حساب‌های رباتی را که روایت‌های طرفدار روسیه را در سایت‌های مختلف رسانه‌های اجتماعی منتشر می‌کردند، توقیف می کند.
عاملان معمولاً مزارع ربات را در خانه های خود یا در ساختمان های متروکه راه اندازی می کنند، جایی که از سرورها و سیم کارت ها برای ایجاد و اجرای حساب های جعلی استفاده می شود.
مداخله غیرمجاز در عملکرد شبکه های اطلاعاتی و ارتباطی الکترونیکی بر اساس قانون کیفری اوکراین جرم محسوب می شود و موجب حبس خواهد شد.

در پی انتخاب بایدن به عنوان ریاست‌جمهوری آمریکا شایعاتی در باره تقلب در انتخابات انتشار یافت. تاکنون پلتفرم ویدئویی یوتیوب چنین اظهارات نادرستی را حذف می‌کرد. حال با تغییر مقررات، اخبار نادرست اجازه دارند آنلاین بمانند.

پلتفرم ویدئویی یوتیوب از این پس محتواهای حاوی ادعاهای نادرست در مورد تقلب، اشتباهات یا اشکالات گسترده در انتخابات ریاست جمهوری ۲۰۲۰ و سایر انتخابات گذشته ایالات متحده را حذف نخواهد کرد.

به گزارش دویچه وله این شرکت روز جمعه ۲ ژوئن (۱۲ خرداد) ضمن انتشار این خبر اعلام کرد که در حال بازگرداندن سیاست پیشین خود در برخورد با اظهارات نادرست در مورد انتخابات ریاست جمهوری ۲۰۲۰ است.

یوتیوب یک ماه پس از انتخابات ریاست‌جمهوری آمریکا شروع به حذف پست‌هایی کرد که به دروغ ادعا می‌کردند، تقلب یا اشتباهات گسترده در انتخابات نتیجه آن را تغییر داده است.

این شرکت در توضیح اقدام تازه خود توضیح داد: «پس از حذف ده‌ها هزار ویدیو و پس از یک دوره انتخاباتی، به این نتیجه رسیده‌ایم که زمان آن فرارسیده که تأثیر این سیاست خود را بر اساس چشم‌انداز در حال تغییر ارزیابی کنیم.»

یوتیوب می‌افزاید، اگرچه حذف ویدئوها انتشار برخی اطلاعات نادرست را محدود می‌کند، اما می‌تواند "اثرات ناخواسته‌ای داشته باشد که باعث محدودیت در ابراز عقیده سیاسی شود".

در بیانیه یوتیوب آمده است که امکان بحث آشکار درباره ایده‌های سیاسی، حتی اگر مناقشه برانگیز یا مبتنی بر فرضیات اثبات‌نشده باشد، دارای "اهمیت کانونی برای یک جامعه دموکراتیک کارآمد، به ویژه در میانه فصل انتخابات" است.

به همین دلیل، به گفته یوتیوب، مقررات به روز شده از همین لحظه به اجرا درمی‌آیند. دیگر مقررات این شرکت از قرار معلوم به قوت خود باقی می‌مانند، از جمله ممنوعیت محتواهایی که می‌تواند رأی‌دهندگان را گمراه کند یا باعث خلل در پروسه های دموکراتیک شود. 

 

انتقادها به تصمیم یوتیوب

این تصمیم یوتیوب بلافاصله با انتقاداتی مواجه شد. سازمان مستقل "رسانه آزاد" (Free Press) از یوتیوب خواست، فوری از "تصمیم خطرناک" خود عققب‌نشینی کند.

این سازمان گفته است، پلتفرم آنلاین یوتیوب در توجیه تصمیم خود را با دفاع از آزادی بیان توجیه می کند، اما "کاملاً در اشتباه" است. به اعتقاد سازمان "رسانه آزاد" این نشر نفرت‌پراکنی و اطلاعات نادرست است که "دموکراسی ما" را تهدید می‌کند.

سازمان چپ‌گرای "مدیا مَترز" نیز ضمن بیان این که یوتیوب "یکی از آخرین پلتفرم‌های آنلاین بزرگ" بود که مقرراتی برای جلوگیری از اطلاعات نادرست در مورد انتخابات ۲۰۲۰ وضع کرد هشدار داده است که یوتیوب با تصمیم جدید خود "دست افرادی مانند دونالد ترامپ و عواملش را باز می‌گذارد تا بدون هر پیامدی به نشر اکاذیب درباره انتخابات ۲۰۲۰ ادامه دهند".

بحث‌های سیاسی در سطح ایالات متحده آمریکا به طور فزاینده‌ای تشنج‌آمیز می‌شود به همین دلیل شماری از غول‌های فناوری آمریکا اخیراً با این پرسش روبرو هستند که چگونه می‌توان بدون محدود کردن آزادی بیان، با اطلاعات نادرست مبارزه کرد.

فیس‌بوک و اینستاگرام در سال‌های اخیر مورد انتقادهای فزاینده‌ای بوده‌اند که چرا برای مهار موج اطلاعات نادرست و اطلاعات نادرست انتخاباتی دست به اقدامات بیشتر نزده‌اند.

سرویس پیام کوتاه توییتر چند روز پیش از قرارداد خود با اتحادیه اروپا برای مقابله با انتشار اطلاعات نادرست در اینترنت خارج شد. 

خروج توییتر از توافق اروپا و خشم آلمان

يكشنبه, ۷ خرداد ۱۴۰۲، ۰۳:۵۸ ب.ظ | ۰ نظر

سیاستمداران و مقامات آلمانی به شدت از تصمیم توییتر برای خروج از توافق اتحادیه اروپا برای مقابله با اطلاعات نادرست انتقاد کردند و این تصمیم را محکوم کردند.
به گزارش تسنیم، کمیسیون اتحادیه اروپا روز گذشته اعلام کرد که توییتر از توافق اتحادیه اروپا برای مبارزه با اطلاعات نادرست در اینترنت خارج می شود. تیری برتون، کمیسر بازار داخلی اتحادیه اروپا در توییتی اعلام کرد که به این ترتیب این پلتفرم رسانه‌های اجتماعی به آیین نامه رفتار داوطلبانه پشت می کند. او نوشت: اما تعهدات باقی می ماند.

وی افزود: فراتر از تعهدات داوطلبانه، مبارزه با اطلاعات نادرست تحت قانون خدمات دیجیتال اتحادیه اروپا (DSA) از 25 اوت اجباری خواهد بود. تیم‌های ما آماده اجرا خواهند بود.

آیین نامه رفتار داوطلبانه اتحادیه اروپا شرکت‌ها را ملزم می‌کند تا در برابر انتشار اطلاعات نادرست اقدام کنند و به طور منظم در مورد پیشرفت ها در این راستا گزارش دهند. از جمله موارد دیگر، مسئله تعداد حساب‌های جعلی ایجاد و استفاده شده مطرح است یا اینکه چگونه بررسی‌های واقعیت بر انتشار اطلاعات نادرست تأثیر گذاشته است. علاوه بر توییتر، شرکت‌هایی که این کد را امضا کرده‌اند شامل گوگل، تیک‌تاک، مایکروسافت و شرکت مادر فیس‌بوک و اینستاگرام متا هستند.

پیش ازاین علائمی ظاهر شده بود که نشان می‌داد توییتر آمادگی انجام تعهدات خود را ندارد. در ماه فوریه، کمیسیون اتحادیه اروپا گزارش هایی درباره نحوه اجرای قوانین توسط پلتفرم های آنلاین منتشر کرد. مقامات بروکسل در آن زمان اعلام کردند که گزارش توییتر از گزارش های دیگر عقب مانده است. بر اساس اطلاعات این نهاد اروپایی آنچه ارائه شده حاوی اطلاعات کمی است و هیچ داده هدفمندی ندارد.

قانون خدمات دیجیتال (DSA) همچنین در نظر گرفته شده است تا اطمینان حاصل شود که پلتفرم‌ها محتوای غیرقانونی در سایت‌های خود را سریع‌تر حذف می‌کنند. این الزامات در سراسر اتحادیه اروپا از اواسط فوریه 2024 و حتی زودتر برای پلت فرم های به ویژه بزرگ اعمال می شود. تخلفات می تواند منجر به جریمه تا شش درصد از فروش سالانه شود.

پیش از این هشدارهایی نیز در مورد اینکه این شرکت برای مواجهه با قوانین جدید آماده نیست به صاحب این پلتفرم یعنی ایلان ماسک داده شد.

همچنین هشدارهایی به صورت مکرر به توییتر در رابطه با عدم آمادگی لازم این پلتفرم برای قوانین جدید داده شده است. زیرا در صورت نقض قوانین مبلغ 6 درصد از درآمد جهانی این شرکت دریافت خواهد شد و در صورت ادامه بصورت تعلیق در خواهد آمد. از زمان مالکیت ماسک تاکنون نیروی کار توییتر از 7500 نفر به 1500 نفر کاهش یافته است. این موضوع ترس از کاهش استانداردهای نظارت و قابلیت پایبندی به قوانین را افزایش داده است.

ایلان ماسک شرکت توییتر را در نوامبر سال 2022 خریداری کرد. از آن زمان تاکنون این شرکت به عنوان یک پلتفرم آنلاین بسیار بزرگ تحت نظارت اتحادیه اروپا قرار دارد. بنابراین رعایت تدابیری مانند انتشار حسابرسی ها نشان دهنده پایبندی به قوانین این اتحادیه خواهد بود.

به نوشته روزنامه هامبورگر ابند بلات، آلمان خروج توییتر از توافق اتحادیه اروپا برای مبارزه با اطلاعات نادرست در اینترنت را به شدت مورد انتقاد قرار داد.

"فولکر ویزینگ"، وزیر دیجیتال آلمان از حزب لیبرال دموکرات در این باره گفت: اتحادیه اروپا با قانون رفتار در برابر اطلاعات نادرست، ابزاری موثر برای شناسایی و حذف اخبار جعلی دارد. توئیتر باید از مسئولیت ویژه خود در برخورد با اطلاعات نادرست آگاه باشد و تعهد خود را به جای عقب نشینی تقویت کند. وی افزود: در غیر این صورت باید در مورد اقدامات اجباری در رابطه با قانون خدمات دیجیتال صحبت کنیم.

نانسی فایزر ، وزیر کشور فدرال آلمان نیز بر قانون جدید اتحادیه اروپا در مورد خدمات دیجیتال تاکید کرد. وی در توییتر نوشت: این قانون ما برای همه پلتفرم‌ها صدق می‌کند، ما آن را اجرا خواهیم کرد. فایزر خروج احتمالی این پلت فرم متعلق به ایالات متحده آمریکا از منشور رفتار اتحادیه اروپا را "غیر مسئولانه" توصیف کرد. فایزر گفت: اطلاعات نادرست، دروغ و تبلیغات به نفرت دامن می زند و سمی برای دموکراسی است.

توییتر مکررا متهم است که برای جلوگیری از انتشار اطلاعات نادرست در این پلتفرم به اندازه کافی تلاش نکرده است. از سوی دیگر، "ایلان ماسک"، رئیس این شرکت تاکید می‌کند که می‌خواهد محدودیت‌های بیش از حد آزادی بیان را حذف کند.

"ساسکیا اسکن"، رئیس حزب سوسیال دموکرات نیز انتقادات شدیدی را از این پلتفرم ابراز کرد. اسکن در این باره گفت: توئیتر بدیهی است که نمی‌خواهد با افزایش اطلاعات نادرست در شبکه‌اش مقابله کند و به نفرت جنسی، نژادپرستانه و نفرت بد علیه افراد یا گروه‌های به حاشیه رانده شده اجازه می‌دهد تا فضای بیشتری را اشغال کند.

وی افزود: بنابراین، DSA اکنون باید به ویژه به توییتر نشان دهد که آیا کشورهای عضو به طور مؤثر خواهان مسئولیت پلتفرم‌های اصلی در مبارزه با اطلاعات نادرست، علیه نفرت و سخنان نفرت انگیز و محافظت از دموکراسی هستند یا خیر. قوانین DSA "کاملا مناسب برای این است.

DSA همچنین در نظر دارد، از جمله موارد دیگر، اطمینان حاصل کند که پلتفرم‌ها محتوای غیرقانونی در سایت‌های خود را سریع‌تر از قبل حذف می‌کنند. به نوبه خود، گزارش چنین محتوایی برای کاربران آسان تر خواهد بود. اساساً، خدمات بزرگ باید از قوانین بیشتری نسبت به خدمات کوچک پیروی کنند.

"برتون" در اواخر نوامبر گفته بود که توییتر باید تلاش های خود را برای پیروی از قوانین اتحادیه اروپا افزایش دهد. به گفته وی این شبکه اجتماعی باید دستورالعمل های کاربر شفاف را معرفی کند، محتوا را به میزان قابل توجهی تعدیل کند، از آزادی بیان محافظت کند و در برابر اطلاعات نادرست اقدام قاطعانه انجام دهد.

رئیس توییتر، ایلان ماسک، همیشه تاکید کرده بود که محدودیت‌های بیش از حد آزادی بیان در این پلتفرم باید از بین برود.

"اسکن"، رهبر حزب سوسیال دموکرات سال گذشته حساب توییتر خود را تعطیل کرد و از جمله به این مسئله اشاره کرد که این پلتفرم هیچ کاری در مورد پروفایل های جعلی انجام نمی دهد و در برخورد با محتوای مجرمانه گزارش شده بسیار بی دقت است.

وی تاکید کرد: این واقعیت که توییتر اکنون از توافق اتحادیه اروپا علیه انتشار اطلاعات نادرست در اینترنت خارج شده است، ارزیابی من را تأیید می کند و تصمیم من برای تداوم عدم حضور در این پلت فرم را تقویت می کند. وی هم زمان برای استفاه از Mastodon، یک رقیب توییتر توسعه یافته در آلمان، که خودش از آن استفاده می کند، تبلیغ کرد و از همه رسانه ها و سیاستمداران خواست به آن روی آورند.

چین ۱۰۰ هزار حساب ناشر اخبار جعلی را می‌بندد

شنبه, ۳۰ ارديبهشت ۱۴۰۲، ۰۳:۵۹ ب.ظ | ۰ نظر

چین تلاش‌ها برای پاکسازی اینترنت از اخبار و شایعات نادرست را تشدید کرده و طی ماه گذشته بیش از ۱۰۰ هزار حساب برخط را بسته است.
به گزارش خبرگزاری صدا و سیما به نقل از رویترز، تنظیم گر فضای مجازی چین اعلام کرد: این کشور تلاش‌ها برای پاکسازی اینترنت از اخبار و شایعات نادرست را تشدید کرده و طی ماه گذشته بیش از ۱۰۰ هزار حساب برخط را که مجریان خبری و آژانس‌های رسانه‌ای را نادرست معرفی می‌کردند، بسته است.

اداره فضای سایبری چین (CAC) پویش ویژه‌ای را برای پاکسازی اطلاعات برخط با تمرکز بر حساب‌های شبکه‌های اجتماعی که اخبار جعلی را منتشر و رسانه‌های تحت کنترل دولت را جعل می‌کنند، راه اندازی کرد.

این تنظیم گر اعلام کرد: از ۶ آوریل ۱۰۷ هزار حساب واحد‌های خبری جعلی و مجریان اخبار و ۸۳۵ هزار خبر جعلی را پاک کرده است. این پاکسازی در حالی انجام می‌شود که چین و کشور‌های سراسر جهان با هجوم پوشش خبری جعلی برخط دست و پنجه نرم می‌کنند و بسیاری از قوانین اجرایی برای مجازات مجرمان وجود دارد.

با این حال، انتشار اخبار در شبکه‌های اجتماعی چین به شدت کنترل می‌شود، با سکو‌هایی مانند Weibo مانند توئیتر که از هشتگ‌های موضوعی تولید شده توسط رسانه‌های دولتی حمایت می‌کنند، در حالی که هشتگ‌ها را درباره موضوعات یا حوادثی که پکن حساس می‌دانند، سانسور می‌کنند، حتی اگر ویروسی شوند.

اداره فضای سایبری چین گفت: در بررسی‌اش حساب‌هایی را پیدا کرده که با جعل صحنه‌های استودیوی خبری و تقلید از مجریان حرفه‌ای اخبار، با استفاده از هوش مصنوعی (AI) برای ایجاد مجری‌هایی برای گمراه کردن مردم، خود را به عنوان رسانه‌های خبری معتبر  معرفی کرده بودند.

بر اساس بیانیه‌ای که اداره فضای سایبری چین روز دوشنبه در وب سایت خود منتشر کرد، اخبار جعلی شناسایی شده موضوعات داغی مانند حوادث اجتماعی و امور جاری بین المللی را پوشش می‌دهد.

تنظیم گر گفت: اداره فضای سایبری چین سکو‌های برخط را راهنمایی می‌کند تا از حقوق و منافع مشروع اکثر کاربران اینترنت برای به دست آوردن اخبار معتبر و واقعی محافظت کند.

دولت چین مرتبا دستور داده که اقدامات گسترده‌ای برای پاک کردن اینترنت از مطالب و زبان‌هایی که آن را نامناسب، توهین‌آمیز و تهدیدی برای مردم و مشاغل می‌داند، انجام دهند.

اداره فضای سایبری چین به تازگی متعهد شده که نظرات مخرب برخط را که به اعتبار کسب و کار‌ها و کارآفرینان لطمه می‌زند، سرکوب کند.

فناوری هوش مصنوعی مولد نوپا مانند چت‌جی‌پی‌تی لایه دیگری از احتیاط را معرفی کرده است. چین اخیرا مردی را در استان گانسو به اتهام استفاده از این چت بات برای تولید داستان جعلی درباره تصادف قطار دستگیر کرده است.

چگونه می توان با اخبار جعلی مبارزه کرد

چهارشنبه, ۱۶ فروردين ۱۴۰۲، ۰۷:۳۳ ب.ظ | ۰ نظر

شبکه‌های اجتماعی بهترین بستر برای گسترش شایعات و اخبار جعلی است. همین امر بهترین دلیل برای آن است که راه‌هایی را بیابیم که جلوی گسترش اخبار جعلی را بگیریم چرا که بعید است بتوان ذره‌ای از سرعت گسترش شبکه‌های اجتماعی در جوامع کاست.

اخبار جعلی همه‌جا هستند. شاید حتی به توان ریشه‌ی اخبار جعلی و شایعات نادرست را به ابتدای تاریخ و از زمان شکل‌گیری جوامع اولیه برگرداند. هر زمان مردمی در کنار یکدیگر جمع شوند و نیاز به دریافت اطلاعات از اتفاقات پیرامون در آن‌ها شکل پیدا کند، سر و کله‌ی اخبار جعلی و شایعات هم پیدا می‌شود. گاهی این شایعات در حد صحبت‌های کوچک درمیان چند دوست است اما گاهی این اخبار جعلی می‌تواند وسعتی به اندازه‌ی یک شهر یا حتی یک کشور را دربر بگیرد؛ اتفاقی که می‌تواند باعث بروز مشکلات جدی در جوامع شود. 

به گزارش ایرنا گزارش‌گر سایبری و کارشناس اخبار جعلی، جو تیدی، پیرامون خطرات اطلاعات اشتباه در اوج همه‌گیری ویروس کرونا نظرات خود را این‌گونه بیان می‌کند:

«بنده تصور می‌کنم ما شاهد این هستیم که اخبار جعلی دو مشکل متمایز و واقعی ایجاد می‌کنند. اولاً این کار شیوع داستان‌های ساختگی و فریب‌دادن افراد را به همراه دارد. پیش از بیماری کرونا این مشکل جدی بود اما در دنیای کووید و پسا کووید می‌تواند مهلک باشد. هنگامی‌که یک وبلاگ یا وب سایت‌شخصی تأثیرگذار بنویسد که «فلان فرد می‌تواند شما را از ویروس کرونا نجات دهد» موضوع خطرناک می‌شود. مردم به دلیل اخبار جعلی پیرامون این بیماری همه‌گیر، می‌توانند تصمیمات وحشتناک و مهلکی بگیرند.

ثانیاً، اخبار جعلی اعتماد به منابع معمولی مطمئن را از بین می‌برد. بنده تصور می‌کنم گزارش اخیر دولت (ایلات متحده) پیرامون دخالت روسیه در انتخابات، آن را صریحاً بیان می‌ کند؛ هنگامی‌که مردم شروع به گفتن «نمی ‌دانید چه چیزی را باور کنید» یا «همه‌ی آن‌ها به بدی یکدیگر هستند»، دروغ‌ گوها برنده می‌شوند.

بنده شاهد این موضوع در زندگی روزمره‌ام با دوستان و خانواده‌ام هستم که می‌گویند آن‌ها کاملاً با رویدادهای جهانی گیج شده‌اند. من مشاهده می کنم که مردم به دیدگاه‌ها و نظرات مسلم و محکم خود باز می‌گردند. این دیدگاه‌ها اغلب توسط به اصطلاح حباب‌های فیلتر در رسانه‌های اجتماعی تقویت خواهند شد.»

اخبار جعلی می‌توانند خطرناک باشند و زندگی ما را تحت تأثیر خود قرار دهند اما راه‌هایی هم وجود دارد که به آن‌سوی اخبار جعلی بروید و صحت آن‌ها را بررسی کنید. در ادامه بخ برخی از این‌راه‌ها اشاره خواهیم کرد اما قبل از آن، در مورد تأثیرات شبکه‌های اجتماعی و حباب فیلتری حاصل از الگوریتم‌های آن‌ها در مقاله‌های قبلی صحبت کرده‌ایم؛ پیشنهاد می‌کنم مجدداً به آن مقاله‌ها مراجعه کنید.

 

  • آنسوی اخبار جعلی

اگر چیزی بهتر از آن به نظر برسد که حقیقت داشته باشد، بررسی را آغاز کنید. دریابید که چگونه یک ویدیو می‌تواند از مقدار اندکی حقیقت برای ایجاد داستانی دروغین استفاده کند. خوشبختانه منابع فراوانی برای آگاهی ما و کمک به مبارزه با اخبار جعلی وجود دارد. شاید ساده‌ترین آن بررسی اولیه‌ی خبر از منابع رسمی و یا وب سایت‌های طراحی شده برای این موضوع باشد.

همچنین برخی از خدمات رایگان بسیار خوبی در سطح جهانی وجود دارد واقعاً سودمند هستند مانند First Draft که روزانه مسائل بزرگی پیرامون داستان‌ها و رویه‌های اخبار جعلی را ارسال می‌کند. این امر به خصوص از زمان بیماری همه‌گیر و «اینفودمی» (شیوع اطلاعات دروغ) بعدی آن سودمند است.

نقش ما به عنوان خبرنگار، در رابطه با سواد رسانه‌ای کاملا با مأموریت ما جهت «اطلاع رسانی و آموزش» سازگاری دارد و این هدفی است که کم اهمیت‌تر از سایر اهداف خبرنگاری نیست. حتی اگر به عنوان خبرنگار هم فعالیت ندارید بازهم فعالیت در راستای یواد رسانه می‌تواند به عنوان یک وظیفه‌ی شهروندی مهم تلقی شود.

هنگامی‌که یک حساب اینستاگرام می‌تواند بیشتر از سایت‌های خبری رسمی مورد روجع و دارای نفوذ باشد، بر ما واجب است که به آنجا برویم و جهت کمک به مردم تلاش کنیم تا در آب‌های متلاطمی از اطلاعات که در حال حاضر در آن هستیم، حرکت کنند.

 

  • ارتقاء سواد رسانه‌ای

ترول‌ها می‌توانند بحث را ترسناک جلوه دهند و متوقف کنند. بیاموزید که چگونه بدون اینکه قربانی خشم ترول‌ها شوید، فعالانه کنش‌گری کنید.

ارتقاء سواد رسانه‌ای برای مخاطبان کم برخورداری که رسانه‌ی شما در آن کمتر معروف یا مورد اعتماد است، بسیار مهم باشد. این کار نه تنها هدف والایی را دنبال می‌کند و ارزش‌هایی همچون حقیقت را گسترش می‌دهد بلکه می‌تواند پیوند قوی‌تری میان شما و مخاطبان در روزنامه ‌نگاری ایجاد کند.

به اشتراک گذاشتن نکاتی پیرامون اجتناب از اطلاعات دروغ به صورت آنلاین می‌تواند بسیار سخت باشد. احتمالاً همه‌ی ما تجربه کرده‌ایم که ارسال پیوند (لینک) منبع یک خبر جعلی در گروه‌های مختلف خانوادگی و دوستی و توضیح مسئله چقدر ‌ می‌تواند سخت و طاقت‌فرسا باشد. ممکن است یک دیدار خانوادگی به خاطر بحث بر سر خوب بودن یا نبودن استفاده از یک وسیله‌ی جدید و بحث‌برانگیز به چالش و در نهایت جدال کشیده شود!

به همین دلیل بسیار خوب است که توضیح‌ دهنده‌های ویدیویی دیجیتالی کوتاهی پیرامون سواد رسانه‌ای داشته‌باشیم که بتوانیم آن‌ها را به ‌صورت آنلاین به اشتراک بگذاریم. این مدل ویدئوها بسیار کوتاه هستند و به صورت مختصر با دام‌های بالقوه‌ی رسانه‌های اجتماعی برخورد می‌کنند. تولید و انتشار چنین تولیداتی می‌تواند مردم را با تفکر انتقادی آشنا کند تا آنچه را که در ذهن خودشان درست تصور می‌کنند، زیر سؤال ببرند. گسترش تفکر انتقادی می‌تواند بسیاری از مشکلات پیرامون اخبار جعلی را حل کند. به قول معروف: «به یک نفر ماهیگیری یاد بده تا یک عمر سیرش کنی!»

 

  • آینده اخبار جعلی

چگونه چیزی را پیش از اشتراک‌ گذاری تأیید می ‌کنید؟ نحوه شناسایی و توقف اخبار جعلی را بیابید.

هنگامیکه صحبت از نحوه‌ی پیشرفت این موضوع در چند سال آینده می‌شود، سخت است که با قطعیت سخن گفت. بسیاری از منتقدان بر این باورند که اخبار جعلی و اطلاعات دروغ با پیشرفت زمان و هرچه بیشتر جا باز کردن رسانه‌های اجتماعی در میان مردم، بدتر خواهند شد. حتی این خطر وجود دارد که ارائه‌دهندگان اخبار معتبر و قابل اعتماد همچنان سهم و ارتباط خود را در بازار اطلاعات از دست بدهند؛ زیرا مخربان بر اساس سیاست‌های قطبی و همه‌گیری، دنبال کنندگان خود را ایجاد می‌کنند. درحالیکه باید از دیدگاه اخبار متنوع و پرشور و مشارکت در تولید اخبار و اطلاعات استقبال کرد، این نگرانی وجود دارد که شاهد تفرقه و اغتشاش بیشتری باشیم.

برخی افراد هم معتقدند که در طول زمان افراد کمتر مستعد پذیرش اخبار جعلی می‌شوند و نسبت به حیله‌ها و شیوه‌های به کار رفته جهت شیوع این داستان‌ها ادراک بیشتری خواهند داشت. این امیدواری وجود دارد که نسل‌های جوان‌تر، توانایی بیشتری در مشاهده عناوین و زیرسؤال بردن مسائل داشته باشند.

البته این امر بدین معنی است که شغل روزنامه‌نگاری حتی سخت‌تر هم خواهد شد چون اعتماد عمومی باید مجدد به دست آید و بازتولید شود.

اگر یک چیز را باید در میان مردم درونی کرد آن این است که رسانه‌های اجتماعی میدان مین پیچیده‌ای محسوب می‌شود که باید با دقت و تفکر آن را هدایت کرد.

فاجعه ChatGPT در گسترش اخبار جعلی

شنبه, ۵ فروردين ۱۴۰۲، ۱۲:۴۰ ب.ظ | ۰ نظر

غلامرضا فلسفی - از زمان بهره‌مندی از چت‌جی‌بی‌تی[1] تا هویدا شدن اثرات مخربِ این نرم‌افزار کاربردی هوش مصنوعی بر روزنامه‌نگاری، زمانی بسیار کوتاه لازم بود. یک ستون نویس حوزه فناوری نیویورک‌تایمز نوشت که یک چت‌بات (دستیار سایبری هوشمند) احساسات را بیان می‌کند[2] (که غیرممکن است). رسانه‌های دیگر نیز مملو از ارائه نمونه‌هایی[3] از عملکرد سیدنی[4] بودند که نتایج جست‌وجوی بینگ جدید[5] را که مبتنی بر هوش مصنوعی[6] است، سرشار از بی‌نزاکتی و قلدری بیان کرده بودند (که این هم غیرممکن است). بن تامپسون[7] مؤسس و نویسنده نشریه‌ای راهبردی که درباره وجوه تجاریِ فناوری و رِسانه همچنین تأثیر فناوری بر جامعه تحلیل ارائه می‌دهد، می‌گوید[8] که کار با سیدنی هیجان‌انگیزترین تجربه رایانه‌ای زندگی‌اش محسوب می‌شود. وی در ادامه نتیجه‌گیری کرد که هوش مصنوعی شیوه‌های برانگیختن واکنش‌های احساسی را آموخته و به نظر می‌رسد در انجام این مهم موفق هم عمل می‌کند.

سکویی که تقریرات انسانی را غیر متعهدانه و مقلدانه بازآفرینی می‌کند، عطیه‌ای به تبهکاران دیجیتالی است که از

اطلاعات نادرست عمدی منتفع می‌شوند. اکنون زمان آن است که حدودوثغورِ بهره‌مندی از این امکان مشخص شود

برای روشن‌تر شدن ابعاد موضوع ابتدا تصریح می‌شود که دارای احساسات بودن هوش مصنوعی همچون چت‌جی‌بی‌تی[9] و سیدنی تا به این لحظه امری غیرممکن است. دیگر این‌که چت‌جی‌بی‌تی و سیدنی نمی‌توانند در رابطه با معنی‌دار یا منطقی بودن تولیداتشان اعلام نظر کنند. آنچه این مدل‌ها در انجام آن بسیار عالی عمل می‌کنند عبارت از تقلید نثر انسان و پیش‌بینی کلمات صحیح در کنار یکدیگر است. این مدل‌های زبانی گسترده[10] نرم‌افزارهای کاربردی هوش مصنوعی مانند چت‌جی‌بی‌تی می‌توانند به این امر مبادرت ورزند چراکه خوراک مناسبی شامل میلیاردها مقاله و مجموعه‌هایی از داده‌های منتشرشده در اینترنت در اختیارشان قرارگرفته و بر این اساس آن‌ها قادر به پاسخگویی به انواع پرسش‌ها می‌شوند.

در چارچوب اهداف روزنامه‌نگاری، این چت‌بات‌ها می‌توانند در کم‌ترین زمان ممکن حجمی عظیم از محتوا را شامل کلمات، عکس‌ها، اصوات و فیلم‌ها بسازند؛ اما مشکل اینجاست که آن‌ها در ساخت محتوا به‌طور مطلق هیچ تعهدی به حقیقت ندارند. لحظه‌ای را تصور کنید که یک کاربر چت‌جی‌بی‌تی[11] با چه سرعتی می‌تواند اینترنت را از اخباری جعلی آکنده کند که به نظر ‌رسد توسط انسان تقریر شده است.

با عنایت بدین اوصاف از نوامبر 2022 میلادی که نسخه آزمایشی چت‌جی‌بی‌تی توسط شرکت هوش مصنوعی اُپن‌اِی‌آی[12] رونمایی شد و در اختیار عموم قرار گرفت، حواشی فراوان پیرامون این نرم‌افزار کاربردی بر اساس مشکلات بالقوه آن شکل گرفت که نگران‌کننده اما قابل پیش‌بینی بود. فضای حاکم بر این رویداد فناورانه همانند روزگار رونمایی از رسانه‌های اجتماعی با افزایش استقبال و حضور سرمایه‌گذاران و صاحبان شرکت‌ها همراه شده که به‌نوبه خود موجبات بیان مواضع صریح را فراهم کرده است. کریستوفر منینگ[13] مدیر آزمایشگاه هوش مصنوعی استنفورد در توئیتی اظهار کرد[14]: «از ابتدای سال 2023 میلادی گروه‌های اخلاق‌گرا در حوزه هوش مصنوعی درباره نمونه‌های هوش مصنوعیِ تولیدشده که برای استفاده از آن‌ها بیش‌ازحد تمایل وجود داشته و درعین‌حال غیرقابل‌اعتماد و خطرناک‌اند، به بیان موسع روایت‌هایی مشغول‌اند اما در پی طرح چنین مواضعی مردم علاقه‌مندند بدانند که این نمونه‌ها چگونه ظرفیت‌هایی جدید را برای تغییر در شیوه انجام امور، کسب اطلاعات و ایجاد سرگرمی برایشان فراهم می‌کنند.» من که خود عضوی از این جماعت اخلاق مدار محسوب می‌شوم تصریح می‌کنم که اگر می‌خواهیم از خطاهای وحشتناک 30 سال گذشته در حوزه فناوریِ مصرفی احتراز کنیم –از افشای اطلاعات کاربران فیس‌بوک و نشر اطلاعات نادرست غیرعمدی[15] که مخل در انتخابات است گرفته تا تحریک و دامن زدن به نسل‌کشی- بدون فوت وقت به استماع دغدغه‌ها و نگرانی‌های کارشناسان در مورد آسیب‌های احتمالی این فناوری نیازمندیم.

نگران‌کننده‌ترین واقعیتی که به‌طور مرتب باید تکرار و یادآوری شود آن است که چت‌جی‌بی‌تی هیچ تقیدی به حقیقت ندارد. همان‌طور که در بخش بررسی فناوری ام‌آی‌تی آمده[16] چت‌بات‌های مدل زبانی گسترده، یاوه‌گویانی بدنام محسوب می‌شوند. بدیهی است که اطلاعات نادرست عمدی[17]، شیادی و جنایت نیاز به التزام به حقیقت ندارد. اگر از اتاق‌های گفت‌وگوی تارنمای Black Hat World که در حوزه تجارت غیرقانونی فعال بوده و ایده‌هایی برای کسب انتفاع از محتوای جعلی در آن ارائه می‌شود، بازدید کنید؛ می‌بینید که چت‌جی‌بی‌تی در مقام برگی برنده برای ساختن دیدگاه‌های باورپذیرترِ جعلی و همچنین نظرات و نمایه‌های متقاعدکننده معرفی می‌شود.

اگر به موضوع چت‌بات‌های مدل زبانی گسترده از منظر روزنامه‌نگاری نیز توجه شود باید گفت چند صباحی است که بسیاری از اتاق‌های خبر از هوش مصنوعی بهره می‌برند. اگر به‌تازگی دریافته‌اید که برای کمک مالی به یک تارنما یا پرداخت هزینه خواندن یک مقاله به صفحه مالک تارنما هدایت‌شده‌اید یا اگر به هنگام وبگردی با تبلیغاتی تجاری مواجه می‌شوید که بیش‌ازپیش به ذائقه و سلیقه‌تان نزدیک است، می‌توانید نسبت به وجود رد و نشان هوش مصنوعی در آن گمانه‌زنی کنید.

امروزه برخی ناشران و مدیران رسانه تا مرحله‌ای که از هوش مصنوعی برای نوشتن گزارش استفاده ‌کنند پیش رفته‌اند که البته نتایجی متفاوت در پی داشته است. به‌طور مثال کاشف به‌عمل‌آمده که نشریه Cnet که در حوزه تجارت فناوری فعال است، با استفاده از مقالاتی که از سوی نرم‌افزارهای کاربردی تقریر می‌شده، انتشار می‌یافت. این امر زمانی افشا شد که یکی از کارکنان سابق این نشریه در استعفانامه الکترونیکی خود[18] مدعی شد محتوای ساخته‌شده توسط هوش مصنوعیِ این نشریه‌ با انتشار اطلاعاتی غلط همچون یک خبرنامه سایبریِ امنیتی، می‌تواند به‌طور مستقیم به خوانندگانش خسران وارد کند.

فلیکس سایمون[19] پژوهشگر ارتباطات در موسسه اینترنت آکسفورد درباره آینده هوش مصنوعی در اتاق‌های خبر، با بیش از 150 روزنامه‌نگار و صاحبان مؤسسات خبری مصاحبه کرد. او می‌گوید هوش مصنوعی ظرفیت لازم را دارد که نگارش مصاحبه‌ها یا خواندن سریع مجموع اطلاعات جمع‌آوری‌شده را برای روزنامه‌نگاران بسیار تسهیل کند اما مشکلات ریشه‌دار پیشین مانند بررسی صحت، بی‌طرفی و آگاهی از منبع داده‌ها همچنان به‌شدت به قضاوت انسانی وابسته است. چارلی بکت[20] که مدیر یک برنامه مرتبط با روزنامه‌نگاری و هوش مصنوعی در مدرسه علوم اقتصادی و سیاسی لندن است می‌گوید: حدود %90 بهره‌مندی از هوش مصنوعی در روزنامه‌نگاری در قالب کارهایی چون شخصی‌سازی تجمیع اخبار یا ایجاد دیوارهای پرداخت هوشمند برای مطالعه کاربران که اموری به نسبت ملال‌آور محسوب می‌شوند، به کار گرفته می‌شود. وی می‌افزاید که بلومبرگ سال‌هاست قسمت‌هایی فراوان از جمع‌بندی پوشش اخبار مالی خود را با این امکان به‌طور خودکار انجام می‌دهد. بااین‌حال ایده استفاده از برنامه‌هایی چون چت‌جی‌بی‌تی برای ساختن محتوا بسیار نگران‌کننده است. بکت اظهار می‌کند: برای اتاق‌های خبری که انتشار اخبار دروغ را غیراخلاقی می‌دانند، پیاده‌سازی طرح استفاده از چت‌جی‌بی‌تی بدون بهره‌مندی از ویراستاری انسانی و راستی آزمایی محتوا امری به‌غایت دشوار است.

فارغ از مشکلات مبتلابه نرم‌افزارهایِ کاربردی هوش مصنوعی، موضوعات اخلاقی همواره ماهیت عملکرد شرکت‌های فناوری را تحت تأثیر خود قرار داده است. افشاگری تایم[21] نشان داد شرکت اَپن‌اِی‌آی که شرکت پشتیبان چت‌جی‌بی‌تی است، به کارگرانی کنیایی کمتر از دو دلار در ساعت دستمزد می‌داد تا محتواهایی مانند کودک‌آزاری، خودکشی، زنای با محارم و شکنجه را که جزو محتوای مضر گرافیکی می‌دانسته، شناسایی کنند تا بتواند به چت‌جی‌بی‌تی آموزش دهد که این قبیل محتواها را موهن بداند. سایمون در این رابطه می‌گوید: در مقام فردی که از خدمات چت‌جی‌بی‌تی استفاده می‌کند تصریح می‌کنم که شرکت مذکور در رابطه با این قبیل محتواها، کنترلی روی نرم‌افزار کاربردیِ هوش مصنوعی خود ندارد.

طی مطالعه‌ای[22] در سال 2021 میلادی دانشگاهیان توجه خود را به مدل‌هایی از هوش مصنوعی مانند DALL-E[23] و Stable Diffusion[24] که نوشته را به‌عکس بدل می‌کنند، معطوف کردند. آن‌ها دریافتند که این سامانه‌ها «کلیشه‌های جمعیت‌شناختی» را در مقیاس بزرگ بازتولید کرده، تعمیم می‌دهند. به‌طور مثال وقتی از آنان خواسته شد تصویری از «شخصی که در حال نظافت است» تولید کنند، تمام عکس‌های ساخته‌شده ناظر به زنان بود. پژوهشگران همچنین اظهار کردند که وقتی از سامانه‌ها، تولید عکسِ یک فرد جذاب خواسته شد؛ همه چهره‌های بازتولید شده، نمایشگر و ناظر به «سفیدپوست ایدئال» بود.

مردیت بروسارد[25] استاد دانشگاه نیویورک که تحقیقاتش بر نقش هوش مصنوعی در روزنامه‌نگاری متمرکز است، کتابی با عنوان «بیش از یک خطای اتفاقی» به رشته تحریر درآورده که در مارس 2023 میلادی منتشر شد. وی در کتاب مذکور به راه‌های مقابله با مواردی چون تبعیض نژادی و تعصب جنسیتی و شایستگی در فناوری پرداخته است. بروسارد می‌گوید همه آن چیزی که تشکیل‌دهنده مدل‌های مولد کنونی مانند چت‌جی‌بی‌تی محسوب می‌شوند – از مجموعه داده‌ها تا منابع و سرمایه – همه و همه بازتاب‌دهنده عدم تنوع است. بروسارد می‌افزاید که این مسئله برگرفته از تک فرهنگی بودن ابر شرکت‌های فناوری است، بدین معنی که قریب به‌اتفاق محصولات فناورانه از تولیدات این ابر شرکت‌ها محسوب می‌شوند؛ لذا اتاق‌های خبر با تمسک به فناوری نمی‌توانند به‌راحتی از آن حذر کنند. امروزه اتاق‌های خبر در خدمت سرمایه‌گذاری‌های فناورانه از سوی ‌چنین شرکت‌هایی قرار دارند چراکه رسانه هیچ‌گاه سرمایه مالی مکفی برای رشد مستقل نداشته است.

در روزهای آغازین سال 2023 میلادی جونا پرتی[26] بنیان‌گذار و مدیرعامل بازفید[27] یادداشتی برای کارکنانش ارسال و اعلام کرد که مشتاقانه قصد دارد برای ارتقاء کار و کسب بازفید از چت‌جی‌بی‌تی استفاده کند. او در بخشی از یادداشت خود[28] نوشت: ما پیشرفت‌هایی را در حوزه هوش مصنوعی شاهدیم که دروازه عصری جدید از خلاقیت را با فرصت‌ها و برنامه‌های نامحدود برای همیشه به روی ما و دیگر رسانه‌های دیجیتال می‌گشاید. او در ادامه ‌اظهار کرد که محتوای الهام گرفته از هوش مصنوعی بازفید سال 2023 راه‌اندازی می‌شود تا فهرست‌ها، تجربه آزمونک‌ها و سایر محتواهای سرگرم‌کننده را تقویت، طوفان فکری ما را اطلاع‌رسانی و محتواهای ما را برای کاربران شخصی‌سازی ‌کند. این یادداشت باعث شد بلافاصله ارزش سهام خاموش این شرکت رسانه‌ای، خبری و اینترنتی در معاملات %150 افزایش‌یافته و به بیش از دو دلار به ازای هر سهم برسد. اتخاذ چنین راهبردی بسیار نگران‌کننده است چراکه این امر به‌طورقطع و یقین به ساخت و انتشار انبوهی از محتوای نازل از سوی این نرم‌افزار کاربردی هوش مصنوعی می‌انجامد. این قبیل روایت‌های نظام‌مندِ جدید، نه یک مدل کار و کسب آرمانی بلکه باید بدترین نوع برنامه‌ریزی آینده‌نگرانانه از سوی شرکت‌های رسانه‌ای تلقی شود. البته این میزان ذوق‌مندی نسبت به تولیدات هوش مصنوعیِ مولد می‌تواند این رویکرد مثبتِ فراگیر را دچار تزلزل کند، مبنی بر این‌که ممکن است این نرم‌افزارهای کاربردی، خیلی هم خوب و کارآمد از آب درنیایند.

ما در مرکز تحقیقاتی خود در دانشکده روزنامه‌نگاری دانشگاه کلمبیا درباره تلاش‌های انجام‌شده جهت تأمین منابع مالی شبکه‌های پول سیاه از طریق بودجه‌های سیاسی مطالعه می‌کنیم؛ شبکه‌هایی که صدها هزار روایت از اخبار محلی جوامع را جهت منافع سیاسی و تجاری هدف می‌گیرند و از تاکتیک (راهکنش) تکرارشونده بهره می‌برند. مطالعات مرکزمان نشان می‌دهد قابلیت‌های چت‌جی‌بی‌تی، این قسم خبرسازی‌ها را افزایش داده، آن را بسیار آسان‌تر و در اختیار مخاطبانی زیادتر قرار می‌دهد. همچنین در مقاله منتشرشده[29] طی سپتامبر 2022 میلادی درباره اطلاعات نادرست عمدی و هوش مصنوعی گفته‌شده پژوهشگران دانشگاه استنفورد شبکه‌ای از نمایه‌های جعلی را با استفاده از هوش مصنوعی مولد در لینکدین شناسایی کرده‌اند. البته به نظر می‌رسد ردوبدل کردن متن گمراه‌کننده‌ با چت‌بات‌ها که روزنامه‌نگاران آن را بسیار وسوسه‌انگیز می‌دانند در مقایسه با گفت‌وگو با کاربرانی آسیب‌پذیر که اطلاعات شخصی و جزئیات حساب بانکی خود را اعلان می‌کنند، از جذابیتی کمتر برخوردار است!

درباره ظرفیت فیلم‌ها و اصوات دیپ‌فیک – به ساخت تصاویر و اصوات واقع‌گرایانه بر پایه هوش مصنوعی گفته می‌شود که چهره‌ها و صداهای افراد به‌خصوص افراد مشهور جعل می‌شود. از مشهورترین نمونه‌های متأخر ساختن صدای جعلی «اما واتسون» در حال خواندن بخشی از کتاب نبرد منِ هیتلر است – مطالبی بسیار به رشته تحریر درآمده[30] اما با رونمایی از مدل‌های مولد کنونی به نظر می‌رسد خطر واقعی نمونه‌هایی مانند چت‌جی‌بی‌تی محسوب می‌شوند که مرزهای دنیای فریب آنی مانند جعل عمیق را درنوردیده‌اند چراکه در مقایسه با این نرم‌افزار کاربردی افراد را به‌راحتی می‌توان نسبت به خطرات جعل ژرف آگاه کرد. چت‌جی‌بی‌تی با ساختن و انتشار کثیری از جعلیات به راه انداختن طوفان در فضای سایبری مبادرت ورزیده ضمن ایجاد سردرگمی و فرسوده کردن کاربران، حقیقت را در طوفان جعلیات پایمال کرده یا جنبه‌های فکری میانه و متعادل را به حاشیه می‌برد.

برای برخی چون من که از دریچه اخلاق به فناوری می‌نگریم باورنکردنی است که از روند 20 سال گذشته و شیوه بسیار ضعیف مدیریت و نظارت بر فناوری‌های رسانه‌های اجتماعی آن‌هم در دو دهه‌ای که این رسانه‌ها به‌سرعت در حال گسترش بودند درس نگرفتیم و کاهلی در این امر سبب شد به‌جای بهبود شرایط، تشدید مشکلات اجتماعی و دموکراتیک را به نظاره بنشینیم. به نظر می‌رسد تاریخ در حال تکرار است و ما همچون دو دهه قبل توسط گروه‌هایی مشابه متشکل از شرکت‌های همسو و متمول حوزه فناوری همچنین صندوق‌هایی مالی در زمینه سرمایه‌گذاری در تولیداتی با ریسک بالا به سمت مسیرهایی به بوته آزمون سپرده نشده و فاقد مقررات رهنمون می‌شویم، با این تفاوت که این بار خطر بزرگ‌تر و توجه به امنیت کاربران کمتر از گذشته است. (منبع:شفقنا)

 

*این نوشتار ترجمه آزاد مقاله‌ای با عنوان A fake news frenzy: why ChatGPT could be disastrous for truth in journalism نوشته امیلی بل استاد دانشکده تحصیلات تکمیلی روزنامه‌نگاریِ دانشگاه کلمبیا و مدیر the Tow Center for Digital Journalism دانشگاه مذکور در نیویورک است که 3 مارس 2023 در تارنمای گاردین منتشر شد

 

[1] Chat Generative Pre-trained Transformers (ChatGPT)

[2] www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html

[3] www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy-employees-webcams

[4]  Sydney اسم رمز پروژه موتور جست‌وجوی جدید مایکروسافت

[5] The New Bing

[6] Artificial intelligence (AI)

[7] Ben Thompson

[8] https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai

[9] www.theguardian.com/technology/chatgpt

[10] LLMs

[11] www.theguardian.com/technology/chatgpt

[12] https://openai.com

[13] Christopher Manning

[14] https://twitter.com/chrmanning/status/1625178544010838019?s=20&t=IPLveAStaG6PI0B_EgYGFA

[15] Misinformation

[16] www.technologyreview.com/2023/02/14/1068498/why-you-shouldnt-trust-ai-search-engines

[17] Disinformation

[18] www.theverge.com/2023/1/19/23562966/cnet-ai-written-stories-red-ventures-seo-marketing

[19] Felix Simon

[20] Charlie Beckett

[21] https://time.com/6247678/openai-chatgpt-kenya-workers

[22] https://arxiv.org/pdf/2211.03759.pdf

[23] https://openai.com/research/dall-e

[24] https://stablediffusionweb.com

[25] Meredith Broussard

[26] Jonah Peretti

[27] www.buzzfeed.com

[28] www.wsj.com/articles/buzzfeed-to-use-chatgpt-creator-openai-to-help-create-some-of-its-content-11674752660

[29] https://misinforeview.hks.harvard.edu/article/research-note-this-salesperson-does-not-exist-how-tactics-from-political-influence-operations-on-social-media-are-deployed-for-commercial-lead-generation

[30] https://vrgl.ir/ZJIDI

«اخبار جعلی»؛ سلاح جدید ارتش آمریکا

چهارشنبه, ۱۲ بهمن ۱۴۰۱، ۰۱:۲۹ ب.ظ | ۰ نظر

آسیه فروردین – برخی رسانه‌های غربی مانند واشنگتن‌پست و بی‌بی‌سی، اخیرا فاش کردند وزارت دفاع ایالات متحده (DOD) با پلتفرم‌های شبکه‌های اجتماعی مانند فیس‌بوک و توییتر، توافق‌نامه‌های محرمانه امضا کرده است

به گفته کارشناسان، ژاپن از هوش مصنوعی برای دفاع در برابر اخبار جعلی استفاده می‌کند.
به گزارش سایبربان؛ ژاپن قصد دارد استفاده از هوش مصنوعی را برای تجزیه و تحلیل کمپین‌های اطلاعات نادرست خارجی آغاز و واکنش خود را به انتشار اخبار جعلی در رسانه‌های اجتماعی تقویت کند.

کمپین‌های اطلاعات غلط، بخشی از چیزی است که جنگ شناختی نامیده می‌شود و شامل دستکاری افکار عمومی و ایجاد مخالفت از طریق رسانه‌های اجتماعی و کانال‌های دیگر است. این حوزه با توجه به دامنه بالقوه آن، به طور فزاینده‌ای ششمین حوزه درگیری پس از زمین، دریا، هوا، فضا و قلمرو سایبری در نظر گرفته می‌شود.

کارشناسان معتقدند که ژاپن در حال حاضر برای مبارزه با این کمپین‌های اطلاعات غلط مجهز نیست و یک آژانس اختصاصی برای نظارت بر اخبار جعلی خارج از کشور یا قوانینی که مداخله در انتخابات را مجازات می‌کند، ندارد.

وزارت امور خارجه ژاپن یک سیستم مبتنی بر هوش مصنوعی را در سال مالی 2023 راه‌اندازی خواهد کرد تا اطلاعات جعلی را در رسانه‌های اجتماعی و سایر پلتفرم‌ها جمع‌آوری و تجزیه و تحلیل کند و به آن اجازه می‌دهد تا چگونگی تلاش عوامل خارجی برای تأثیرگذاری بر افکار عمومی در میان مدت تا بلندمدت را ردیابی کند.

این چارچوب نه تنها اطلاعاتی را که برای مخاطبان ژاپنی طراحی شده، پوشش می‌دهد، بلکه اطلاعاتی را نیز با هدف آسیب رساندن به برداشت‌های خارجی از ژاپن پوشش می‌دهد.

کارشناسان بخش خصوصی برای شناسایی منظم اخبار جعلی در رسانه‌های اجتماعی در سال مالی 2023 استخدام می‌شوند.

نیروی پدافند (SDF) زمینی شخصی نیز ظرف یک دهه یک واحد اطلاعاتی اختصاصی ایجاد خواهد کرد. نیروی پدافند دریایی واحدی را با قابلیت‌های سایبری و ارتباطات ترکیبی راه‌اندازی خواهد کرد.

کارشناسان ادعا کردند که جنگ شناختی به عنوان یک نگرانی جهانی با دخالت روسیه در انتخابات ریاست جمهوری 2016 ایالات متحده ظاهر شد. گمان می‌رود که مقاله‌های خبری جعلی درباره هیلاری رادهام کلینتون، نامزد دموکرات، که از طریق رسانه‌های اجتماعی منتشر شده، به تغییر رقابت به نفع رقیب او، دونالد ترامپ، کمک کرده است.

بنابه گفته محققان، اطلاعات غلط در جنگ اوکراین نیز نقش داشته است؛ گزارش‌های جعلی درباره فرار ولودیمیر زلنسکی، رئیس‌جمهور اوکراین از کیِف، بلافاصله پس از حمله روسیه و اوکراین در شبکه‌های اجتماعی منتشر شد. تحریم‌های غرب به دلیل افزایش جهانی قیمت مواد غذایی و جلب حمایت روسیه از سوی برخی کشورهای در حال توسعه مقصر شناخته شدند.

کارشناسان اعلام کردند که در پاسخ به اقدامات اخیر چین و روسیه، راهبرد امنیت ملی ژاپن که در ماه دسامبر گذشته تصویب شد، شامل طرح‌هایی برای تقویت توانایی این کشور در پاسخ به جنگ در حوزه شناختی، از جمله انتشار اطلاعات نادرست است.

چندین کشور در حال حاضر مکانیسم‌هایی برای پاسخ به جنگ شناختی دارند. در ایالات متحده، آژانس امنیت سایبری و امنیت زیرساخت وظیفه نظارت و هشدار به مردم در مورد اطلاعات نادرست را بر عهده دارد. ترامپ در سپتامبر 2018 فرمان اجرایی امضا کرد تا عوامل خارجی دخیل در انتخابات آمریکا، از جمله با مسدود کردن دارایی‌هایشان در ایالات متحده، را تحریم کند.

بریتانیا شبکه‌های اجتماعی را 24 ساعته رصد می‌کند. در حالیکه این کشور مجازات‌های رسمی برای مداخله در انتخابات ندارد، یک کمیته ویژه پارلمانی گزارشی را در سال 2019 منتشر کرد و از دولت خواست که به انتخابات گذشته رسیدگی کند.

در آسیا، سنگاپور در اکتبر 2021 قانونی را تصویب کرد که به مقامات اجازه می‌داد محتوای آنلاین را برای جلوگیری از دخالت خارجی محدود کنند.

موتوهیرو سوچیا (Motohiro Tsuchiya)، استاد و کارشناس فناوری اطلاعات در دانشگاه کیو (Keio) در توکیو، گفت : «واکنش ژاپن به اطلاعات غلط تاکنون تا حدی با ماده 21 قانون اساسی که مخفی بودن ارتباطات را تضمین می‌کند، متوقف شده است. دولت باید با فیس‌بوک و سایر اپراتورهای رسانه‌های اجتماعی برای ایجاد چارچوبی با هدف حذف اطلاعات نادرست همکاری کند.»

بازنشر خبر دروغ هم جرم است

سه شنبه, ۲۰ دی ۱۴۰۱، ۰۲:۳۵ ب.ظ | ۰ نظر

وکیل پایه یک دادگستری با اشاره بازنشر اخبار کذب در فضای مجازی گفت: بازنشر خبر کذب مصداق نشر اکاذیبی است که در صورت تشویش اذهان عمومی فرد با بازنشر یک پست و یا خبر کذب، دو عمل مجرمانه را مرتکب شده است.

حمیدرضا محمدی وکیل پایه یک دادگستری در گفت‌وگو با فارس گفت: زمانی که فرد موضوعی را مطرح می‌کند اگر به ضرر خود  باشد به آن «اقرار» و اگر به ضرر دیگری باشد به آن «ادعا» می‌گویند.

این حقوقدان بیان کرد: زمانی که فرد اقرار می‌کند کسی نمی‌تواند از او بپرسد که چرا به ضرر خود اقدام کرده است. اما  زمانی که فرد به ضرر دیگری ادعایی را مطرح می کند باید بتواند ادعای خود را اثبات کند

وی ادامه داد: اگر فرد نتواند ادعای خود را اثبات کند، این موضوع جرم نگاری شده و قانون برای آن مجازات در نظر گرفته است که مجازات آن به نوع ادعای مطرح شده بستگی دارد. به طور مثال فردی خانومی را به داشتن رابطه با یک مرد متهم میکند اگر فرد مدعی نتواند این ادعا را اثبات کند به قذف محکوم می شود.

این وکیل پایه یک دادگستری با تاکید بر اینکه اکنون هر فرد دارای اکانت در فضای مجازی دارنده یک رسانه است، گفت: اکنون با وجود فضای مجازی و صفحاتی که در آن ایجاد می‌کنند، صاحب رسانه ای می شوند و می‌توانند از چند صد تا چندین میلیون مخاطب داشته باشند.

وی در ادامه اظهار کرد: فردی که یک خانم و آقا را متهم به رابطه میکند، اگر این موضوع را در فضای مجازی مطرح کند و منجر به تشویش اذهان عمومی شود، با یک فعل دو عنصر مادی جرم را مرتکب شده است.

این حقوقدان در ادامه تشریح کرد: در این مواقع هم آن خانم و آقایی که مورد اتهام قرار گرفتن می‌توانند شکایت کنند و هم دادستانی می‌تواند اعلام کند که این خانوم همسر و یا دختر آقای فلانی است و فرد این اقدام، نشر اکاذیب به قصد تشویش اذهان عمومی کرده که مجازات آن نیز زندان است.

محمدی ادامه داد: بازنشر خبر کذب نیز مصداق نشر اکاذیب است و اگر ذهن جامعه را مشوش کند، نشر اکاذیب به قصد تشویش اذهان عمومی که مجازات آن حبس می باشد.

این وکیل پایه یک دادگستری اظهار کرد: دادستان به عنوان مدعی‌العموم باید در جایی که یک ادعا منجر به تشویش اذهان عمومی شده باید ورود کند، به طور مثال اخیراً آقای برهانی در خصوص انتخاب قاضی برای پرونده های اغتشاشات اخیر (پرونده های امنیتی) ادعاهایی را مطرح کرده که منجر به تشویش اذهان عمومی شده است. دادستان باید این ادعاها را پیگیری کند و در صورتی که فرد نتواند این ادعای خود را اثبات کند با توجه به شرایط کنونی جامعه باید به مجازات عمل خود برسد.

محمدی تصریح کرد: افراد چهره و  سرشناس جامعه که در فضای مجازی فعالیت دارند باید حدود و ثغور قانون را بدانند و آنها باید توجه داشته باشند که در صورت انتشار دروغ فرقی نمی‌کند که خود آن دروغ و یا ادعا را مطرح کرده باشند و یا آن را از صفحات و یا اشخاص دیگر بازنشر کرده باشند، ممکن است بازنشر برخی از اخبار کذب منجر به تشویش اذهان عمومی شود. در این صورت فرد منتشر کننده با بازنشر یک پست و یا یک خبر، دو فعل جرم را مرتکب شده است.

وی با اشاره به ماده ۲ قانون مجازات اسلامی خاطرنشان کرد: بر اساس این ماده قانونی هر فعل یا ترک فعل که مطابق قانون مجازات یا مستلزم اقدامات تامینی با تربیتی باشد جرم محسوب است و هیچ امری دانه می توان جرم دانست مگر آنکه به موجب قانون برای آن مجازات و یا اقدامات تامینی یا تربیتی تعیین شده باشد.

طبق اعلام وزیر دیجیتال آلمان، وی اخیرا با ایلان ماسک دیدار کرده تا انتظارات دولت این کشور از توئیتر به خصوص درباره مقابله با اخبار جعلی را شفاف سازی کند.

به گزارش خبرگزاری مهر به نقل از رویترز، «ولکر ویسینگ» وزیر دیجیتال و حمل ونقل آلمان که در آغاز ۲۰۲۳ میلادی در ایالت کالیفرنیا به سر می برد، به ماسک گفته این کشور انتظار دارد توئیتر به طور داوطلبانه از تعهدات مبارزه با اخبار جعلی پیروی کند.

همچنین ویسینگ معتقد است توئیتر باید در آینده از قانون سرویس های دیجیتال نیز پیروی کند. اعضای اتحادیه اروپا در آوریل ۲۰۲۲ میلادی درباره این قانون به توافق رسیدند و طبق آن پلتفرم های آنلاین باید اقدامات بیشتری برای نظارت بر محتوای غیرقانونی انجام دهند.

سخنگوی این وزارتخانه در بیانیه ای اعلام کرد: این ملاقات بسیار طولانی بود و ماسک به ویسینگ اطمینان خاطر داد.

همچنین به گفته وی دولت آلمان به دقت وضعیت توئیتر را تحت نظر دارد.

سخنگوی کمیسیون حقوقی و قضایی مجلس شورای اسلامی از آماده شدن طرحی مبنی بر پیگیری حقوقی اخبار کذب در فضای مجازی در این کمیسیون خبر داد.
کاظم دلخوش سخنگوی کمیسیون حقوقی و قضایی مجلس شورای اسلامی در گفت‌وگو با تسنیم، از آماده شدن طرحی مبنی بر پیگیری حقوقی اخبار کذب در فضای مجازی در این کمیسیون خبر داد.

وی گفت: امروزه فضای مجازی تبدیل به یک بستری شده است که هر شخصی در هر عنوانی و بدون اطلاع از درست بودن یا نبودن خبری آن را نشر می‌دهد یا کسانی هستند که برای اهداف خود دست به خبرسازی و شایعه‌سازی می‌زنند که باید پاسخگوی این حرکتشان باشند.

سخنگوی کمیسیون قضایی مجلس افزود: کمیسیون قضایی مجلس طرحی را تهیه و تدوین کرده است که هرکسی در فضای مجازی اخبار نادرستی را نشر دهد یا آن را بزرگنمایی کند باید پاسخگوی عملکرد خود در دادگاه باشد و این موضوع برای فرد یا رسانه‌ای تفکیک قائل نیست و همه را در بر می‌گیرد.

دلخوش تصریح کرد: این دست قوانین در همه کشورهای دنیا وجود دارد و کشور ما نیز باید از این دست قوانین وضع کند تا بتوانیم از نشر اخبار کذب در فضای مجازی جلوگیری کنیم. در حوادث اخیر هم شاهد نشر بیش از حد اخبار کذب در فضای مجازی بودیم که افرادی بدون تحقیق بر درست بودن یا نبودن خبر آن را انتشار دادند که باعث شد فضای جامعه ملتهب شود.

وی بیان داشت: در این طرح برای افراد و رسانه‌هایی که اخبار کذب منتشر یا شایعه‌سازی می‌کنند و باعث تشویش اذهان عمومی می‌شوند مجازات‌های سنگین در نظر گرفته شده است که دیگر مرتکب این عمل نشوند زیرا این درست نیست که هرکسی با خبرسازی کاذب فضای جامعه را ملتهب کند و سپس بدون پرداخت تاوان پای خود را از ماجرا بکشد بیرون.

سخنگوی کمیسیون قضایی مجلس تأکید کرد: طرح مجازات ناشران اخبار کذب در فضای مجازی در کمیسیون حقوقی و قضایی به تصویب رسیده است و به‌زودی در دستورکار صحن علنی مجلس شورای اسلامی قرار خواهد گرفت و این احتمال وجود دارد که این طرح با فوریت به صحن مجلس بیاید.

مرکز ملی فضای مجازی با استانداری سمنان تفاهم نامه همکاری در حوزه مدیریت و توسعه فضای مجازی در استان ها امضا کرد.

به گزارش مرکز ملی فضای مجازی، ابوالحسن فیروزآبادی، دبیر شورای عالی و رئیس مرکز ملی فضای مجازی، در مراسم امضای این تفاهم نامه گفت: «باید برای مقابله با اخبار جعلی و روایت های دروغ علیه کشور، نسبت به هدایت تیم های تولید محتوا به صورت منطقه ای با راهبری ملی اقدام شود.»

وی افزود: «در فضای مجازی که از خصایص آن اجتماعی و شبکه ای بودن است، ارایه روایت اول با تصویرسازی مبتنی بر نخبگی از اهمیت ویژه ای برخوردار است که باید بتوانیم با تشکیل شوراهای فضای مجازی در استان های سراسر کشور، در این حوزه اقدام کنیم.»

در ادامه این مراسم، محمدرضا هاشمی، استاندار سمنان، با اشاره به این که این استان در حوزه اقتصاد دیجیتال در رتبه دوم قرار دارد، گفت: «در استان سمنان برای ترسیم مسیر و رفع موانع برای فعالان این حوزه و پاسخگویی مسئولان و مدیران مرتبط همایشی برگزار شده و همچنین به لحاظ ایجاد زیرساخت مناسب در این استان در دولت بودجه مناسبی در نظر گرفته شده است.»

گفتنی است مرکز ملی فضای مجازی کشور در راستای همسو سازی دستگاه ها و نهادهای استان های کشور با مصوبات و تصمیمات شورای عالی فضای مجازی و تعیین اولویت های اجرایی مرتبط با فضای مجازی در هر استان نسبت به امضای دومین تفاهم نامه همکاری و مشارکت با استانداری های کشور اقدام کرده است.

پخش اطلاعات ساختگی یک استراتژی جهانی است

سه شنبه, ۸ آذر ۱۴۰۱، ۰۹:۰۴ ق.ظ | ۰ نظر

افسران ارشد سایبری، اطلاعات و سیگنال ارتش ایالات متحده، اخیرا در قالب یک نشست تخصصی، به یک سناتور آمریکایی، مشاور ارشد سایبری غیرنظامی ارتش و یکی از مدیران شرکت سایبری پیوستند تا درباره مزیت اطلاعاتی و آینده سایبری ارتش گفت‌وگو کنند.

وزیر ارشاد: مجوز بیش از ۵۰۰ سایت لغو شد

شنبه, ۲۱ آبان ۱۴۰۱، ۰۷:۱۵ ب.ظ | ۰ نظر

محمدمهدی اسماعیلی، وزیر فرهنگ و ارشاد اسلامی دولت ابراهیم رئیسی، به روزنامه اطلاعات گفته «در چند هفته اخیر بالغ بر ۵۰۰ سایت به دلایلی نظیر نشر اکاذیب و افترا به افراد حقیقی و حقوقی لغو مجوز شده‌اند.»
وزیر ارشاد به روزنامه اطلاعات گفته وزارتخانه او ۵۰۰ سایت اینترنتی را لغو مجوز کرده است.

براساس گزارش اعتمادآنلاین، محمدمهدی اسماعیلی، وزیر فرهنگ و ارشاد اسلامی دولت ابراهیم رئیسی، به روزنامه اطلاعات گفته «در چند هفته اخیر بالغ بر ۵۰۰ سایت به دلایلی نظیر نشر اکاذیب و افترا به افراد حقیقی و حقوقی لغو مجوز شده‌اند.»

او گفته «تمامی سایت‌های اینترنتی غیرفعال یا آن دسته از شبکه‌های خبری که کار خبری نمی‌کنند، مورد بازنگری قرار می‌گیرند و در صورت احراز تخلف، مجوز آن‌ها لغو خواهد شد.»

به گفته وزیر ارشاد، قرار است «کارگروه مقابله با اخبار جعلی» در وزارتخانه او تقویت شود و در جلسه هفته گذشته شورا‌ی عالی مجازی به ریاست ابراهیم رئیسی گزارش عملکرد هم داده است. وزیر این را هم گفته که قرار است آئین‌نامه این کارگروه تغییر کند و «پس از تصویب نهایی، مفاد آن به‌زودی به مردم اعلام خواهد شد.»

وزیر گفته با «شایعه‌سازان» و «منتشرکنندگان اخبار جعلی» به شدت برخورد خواهد شد. اسماعیلی ادعا کرده دلیل این شدت عمل آن است که «حریم امن کارآفرینان و صاحبان کسب‌وکار حفظ شود.»

اسماعیلی همچنین نسبت به هر گونه همکاری با رسانه‌های فارسی‌زبان خارج از کشور هشدار داده و گفته «مسلماً تعامل و همکاری با این شبکه‌های تروریستی با مجازات و محرومیت روبروست.»

طبق ماده ۶۹۸ بخش تعزیرات قانون مجازات اسلامی هر گونه گزارش یا توزیع هر گونه اوراق چاپی یا خطی با امضا با بدون امضا، به قصد اضرار به غیر یا تشویش اذعان عمومی یا مقامات رسمی، مستوجب حبس- از دو ماه تا دو سال- و یا شلاق تا ۷۴ ضربه خواهد بود.

با این حال به نظر می‌رسد این مجازات که مستلزم شکایت و نظر دادگاه است، نظر دولت را تامین نکرده و قوه اجرایی در نظر دارد بر حسب آئین‌نامه مصوب مورد نظر خود راساً و بدون نظر دادگاه اقدام به مجازات آن هم در حد لغو مجوز کند.

همچنین لغو مجوز وب‌سایت‌هایی که فعالیت ندارند، کاری است ملهم از بندی در قانون مطبوعات که مجلس پنجم تصویب کرد.

در حالی که فعالیت رسانه‌ای از حقوق شهروند‌ی است که با صدور مجوز از سوی وزارت ارشاد محدود شده، حالا این وزارتخانه دست خود را آن‌قدر باز دیده که مجوز خودش را بدون طی شدن روال قانونی و صرفاً به صلاحدید خود لغو کند.

در هفته‌های اخیر، موجی از خبر‌های تایید‌نشده علیه استارت‌آپ‌ها و شرکت‌های تولیدی و خدماتی کشور آغاز شد. اولین خبر‌ها در این زمینه را شبکه تلویزیونی ایران‌اینترنشنال که دفتر مرکزی آن در لندن مستقر است، منتشر کرد. این شبکه تلویزیونی شرکت‌های ایرانی را به همکاری با حاکمیت متهم کرد؛ از جمله ادعا کرد شرکت میهن جهت برخورد با اعتراضات، ماشین‌های حمل کالای خود را در اختیار نیروی انتظامی قرار داده و یا شرکت دیجی‌کالا «سهام حاکمیتی» دارد.

هر دو شرکت این اتهامات را رد کرده‌اند. دیجی‌کالا نقشه سهام خود را منتشر کرد و گفت هیچ نهاد دولتی یا حاکمیتی در این شرکت سهام ندارد.

در حالی که منشاء خبر، شبکه‌ای تلویزیونی در خارج از کشور بود، معلوم نیست چرا وزیر ارشاد، وب‌سایت‌های داخلی را هدف گرفته و در میان آن‌ها به وب‌سایت‌هایی گیر داده که طبق صبحت خودش اصلاً فعالیتی ندارند.

قانون ترکیه برای ناشران اخبار جعلی

شنبه, ۳۰ مهر ۱۴۰۱، ۰۳:۵۱ ب.ظ | ۰ نظر

طبق قانونی جدید در ترکیه، شبکه های اجتماعی و شرکت های فناوری باید اطلاعات کاربرانی که اخبار جعلی و محتوای غیرقانونی به اشتراک می گذارند را در اختیار مقامات قرار دهند.

به گزارش خبرگزاری مهر به نقل از رویترز، به گفته کارشناسان احتمال کمی وجود دارد شبکه‌های اجتماعی کاملاً از قانون جدید ترکیه برای حذف اخبار جعلی و اشتراک گذاری داده‌های کاربران با دولت پیروی کنند. به این ترتیب احتمال دارد قبل از برگزاری انتخابات ریاست جمهوری این کشور در ۲۰۲۳ میلادی اختلالاتی در شبکه‌ها ایجاد شود.

طبق قانون ترکیه که از هفته قبل اجرایی شد، در صورتیکه کاربران محتوایی پست کنند که حاوی جرایم از جمله اطلاعات گمراه کننده باشد، باید اطلاعات آنها با مقامات به اشتراک گذاشته شود.

همچنین شبکه‌های اجتماعی ملزم می‌شوند نمایندگانی در ترکیه تعیین کنند. علاوه بر آن اگر دادگاهی به این نتیجه برسد که نماینده شرکت نتوانسته اطلاعات مورد نیاز را در اختیار مقامات قرار دهد، مؤسسه مذکور با کاهش ۹۰ درصد پهنای باند روبرو خواهد شد.

طبق این قانون، اگر شرکت‌ها محتوای غیرقانونی را ظرف ۴ ساعت حذف نکنند، به طور مستقیم مسئولیت محتوای غیرقانونی و تگ ها را برعهده خواهند داشت.

فیس بوک، توئیتر، گوگل و دیگر شرکت‌های فناوری ملزم شده اند تا آوریل به طور کامل از قانون جدید ترکیه پیروی کنند یا با ممنوعیت تبلیغات آنلاین و به تدریج قطع سرویس تا کاهش پهنای باند روبرو می‌شوند. انتخابات ریاست جمهوری ترکیه در ماه ژوئن ۲۰۲۳ برگزار می‌شود.

تحلیلگران و مشاوران معتقدند این شرکت‌ها استانداردهای حریم خصوصی جهانی اجرا می‌کنند و احتمال اندکی درباره نقض آنها در ترکیه وجود دارد. زیرا ممکن است با نقض آن در ترکیه مبنایی برای کنترل بیشتر بر شبکه‌های اجتماعی در کشورهای دیگر به وجود بیاید.

سینان اولگون یکی از بنیانگذاران شرکت «استانبول اکونومیکز» در این باره می‌گوید: احتمال کمی وجود دارد برخی از شرکت‌ها از این قانون پیروی کنند. زیرا قانون جدید ترکیه هنجارهای آنها درباره حریم خصوصی را هدف گرفته است.

نماینده مردم نهاوند در مجلس شورای اسلامی گفت: با توجه به اینکه در طرح صیانت هدف اصلی ساماندهی فضای مجازی است در این طرح موارد و شیوه‌های قانونی برخورد با شایعه‌سازان و کسانی که اقدام به اکاذیب می‌کنند تعیین تکلیف می‌شود.
علیرضا شهبازی، نماینده مردم نهاوند در مجلس در گفت‌وگو با فارس اظهار کرد: ما برای برخورد با افرادی که بدون سند اقدام به شایعه و یا نشر اکاذیب نمایند قانون مشخص داریم که در صورت نیاز می‌توان از آن استفاده کرده و آن را اجرایی کرد.

وی در پاسخ به اینکه راهکار قانونی برخورد با جرایم فضای مجازی و افرادی که در این فضا اقدام به نشر اکاذیب چگونه است افزود: با توجه به اینکه در طرح صیانت هدف اصلی ساماندهی فضای مجازی است در این طرح موارد و شیوه‌های قانونی برخورد با شایعه‌سازان و کسانی که اقدام به اکاذیب می‌کنند تعیین تکلیف می‌شود.

نماینده مردم نهاوند در مجلس شورای اسلامی گفت: در حال حاضر طرح صیانت فضای مجازی به منظور جلوگیری از وقوع جرایم مجازی در کمیسیون مربوطه در حال بررسی است که لازم است همه موارد و ابعاد قانونی در آن دیده شود.

قانون برخورد با شایعه‌پراکنی در فضای مجازی به زودی مصوب می‌شود
نماینده مردم شوش در مجلس گفت: راهکار مقابله با اخبار دروغ در شبکه‌های اجتماعی مشخص و مجلس ظرف روزهای آینده قانونی را برای این منظور مصوب می‌کند.

محمد کعب عمیر نماینده مردم شوش در مجلس شورای اسلامی در گفت‌وگو با فارس در رابطه با اهمیت تصویب قانونی به منظور برخورد با افرادی که با شایعه‌پراکنی افکار عمومی  را متشنج می‌کنند، اظهار کرد: لزوم تصویب قانونی برای  برخورد با دروغ و شایعه‌پراکنی در شبکه‌های اجتماعی در جلسه غیر علنی مجلس مطرح شده است.

وی با بیان اینکه راهکار مقابله با اخبار دروغ و غلط پیدا شده است، افزود: قطعاً در روزهای آینده قوه مقننه راه حل و یا قانونی برای این موضوعات تصویب خواهد کرد.

نماینده مردم شوش در مجلس شورای اسلامی گفت: اینگونه نیست که این موضوعات برای ما اهمیتی نداشته باشد، ظرف روزهای آینده‌های موارد مورد بررسی به صورت قانون مصوب و به دولت ابلاغ می‌شود.

کعب عمیر با بیان اینکه رسانه‌های معاند از شرایط اخیر سوءاستفاده کرده و مطالبات مردم رو بهانه کردند تا به اهداف خود برسند، عنوان کرد: هدف سناریوی طراحی شده براندازی نظام و مقابله با اعتقادات مردم است.

وی با طرح این سوال مبنی بر اینکه چرا زمانی که شرایط مشابه کشور ما در کشورهای دیگر اتفاق بیفتاد هیچ کدام از رسانه‌های خارجی به مسائل داخلی آن کشورها دامن نمی‌زنند، بیان کرد: در آمریکا و سایر کشورهای غربی صدها نفر را به عناوین مختلف کشته می‌شوند چرا رسانه‌های بین المللی و رسانه‌های معاند به آن‌ها نمی‌پردازند؟

کعب عمیر با تاکید بر اینکه نظام جمهوری اسلامی با اقتدار ایستاده است، گفت: پروژه‌ براندازی نظام در برهه‌های مختلف اجرا شده اما دشمنان تا کنون راه به جایی نبرده و نمی‌برند.

مرکز پژوهش های مجلس شورای اسلامی در گزارشی ابعاد مسئله اطلاعات، اخبار و محتوای خلاف واقع در فضای مجازی را بررسی و بر نیاز جدی نسبت به ورود مجلس از باب تقنین در این زمینه تأکید کرد.

به گزارش خبرگزاری مهر، گزارشی با عنوان بررسی ابعاد مسئله اطلاعات، اخبار و محتوای خلاف واقع در فضای مجازی و ارائه پیش‌نویس قانونی در مرکز پژوهش های مجلس منتشر شده است که خلاصه آن به شرح زیر است؛

پس از ابتکار شورای عالی فضای مجازی در تصویب «الزامات پیشگیری و مقابله با نشر اطلاعات، اخبار و محتوای خبری خلاف واقع در فضای مجازی» مورخ ۱۶ دی ماه ۱۳۹۹ با وجود مفاد قانونی که قبلاً در خصوص نشر اکاذیب به تصویب رسیده بود، نیاز جدی نسبت به ورود مجلس از باب تقنین در این زمینه احساس می شود، با وجود قوانین فعلی، چالش های جدی برای پیشگیری و مقابله با محتوای خلاف واقع وجود دارد، ازجمله اینکه، رسیدگی به مطالب خلاف واقع منوط به شکایت شاکی خصوصی است.

ضمانت اجراها از کفایت لازم برخوردار نیستند و به دلیل عدم توجه به ابعاد پیام های توده شده و ابزارهای ارتباطی جدید و هنجارهای ارتباطی زیست بوم ارتباطی، بازدارندگی نخواهند داشت. در قوانین فعلی نسبت به روش های پیشگیرانه قبل از تولید و نشر اطلاعات (Proactive) و بعد از آن (Reactive) خلأ وجود دارد و نسبت به مسئولیت سکوی نشر، درگاه نشر، تولیدکننده محتوا، نشردهنده محتوا و بازنشردهنده آن تفکیکی وجود ندارد.

به همین دلیل امکان تعیین و تصریح مسئولیت ذی نفعان مختلف در زیست بوم فضای مجازی در رابطه با محتوای خلاف واقع وجود ندارد. از این رو با ابتنا بر محورهای زیر پیش نویس «طرح پیشگیری و مقابله با انتشار اطلاعات، اخبار و محتوای خلاف واقع در فضای مجازی» تهیه و در پیوست گزارش حاضر ارائه شده است:

۱. رویکرد جامع نسبت به انواع محتوای خلاف واقع

۲. تفکیک مسئولیت های نهاد تنظیم گر، سکوی نشر، درگاه نشر و کاربران فضای مجازی

۳. آگاهی بخشی به موازات جرم انگاری در موارد ضروری

۴. خودتنظیم گری و استفاده از خرد جمعی و ظرفیت عمومی کاربران در امتداد نهادهای حاکمیتی و دستگاه های اجرایی به مثابه تنظیم گران بخشی

۵. تفکیک شئون قانونگذاری و تنظیم گری

۶. تکمیل کننده قوانین پیشین در حوزه محتوای خلاف واقع

فصل اول این پیشنویس با عنوان کلیات واژگان و اصطلاحات به کار رفته در طرح را با ابتنا بر مصوبات شورای عالی فضای مجازی تعریف نموده است. فصل دوم با عنوان وظایف دستگاههای اجرایی به کارگیری فناوری های بهروز در جهت اقدامات پیشگیرانه و ثبت درخواست ها و استعلام از دستگاههای مسئول پاسخگویی را پیشبینی کرده است. فصل سوم به مسئولیت سکوها و درگاههای نشر اختصاص یافته است.

این فصل درگاه های نشر یک سویه و چند سویه را تفکیک کرده، چراکه مطالعه و بررسی های پیرامون نشر اخبار خلاف واقع در فضای مجازی نشان می دهد، انتشار گسترده محتوای خلاف واقع عمدتاً از مسیر درگاه های یک سویه اتفاق می افتد.

یعنی درگاه هایی که ماهیت «خبرگزاری و رسانه ای» دارند و صاحبان این درگاه ها نسبت به انتشار محتوا در آن مسئولیت خواهند داشت. صفحات شخصی کاربرانی که دنبال کنندگان زیادی دارند یا کانال هایی که نشر محتوا در آنها توسط یک یا چند نفر مدیریت می شود از انواع درگاه های یک سویه هستند.

از این رو تعریف درگاه های یک سویه و مسئولیت ویژه صاحبان درگاه های نشر یک سویه به عنوان موجودیت هایی مهم و اثرگذار در مسئلة محتوای خلاف واقع به احکام این قانون اضافه شد. فصل آخر نیز به تخلفات و جرائم بازیگران این زیست بوم اختصاص دارد.

لینک کامل این گزارش در (اینجا) قابل مشاهده است.

یک زیرمجموعه گوگل هفته آینده کمپینی برای مقابله با اخبار جعلی مربوط به پناهجویان اوکراینی در لهستان، اسلکواکی و جمهوری چک  راه اندازی می کند.

به گزارش خبرگزاری مهر به نقل از رویترز، این کمپین براساس تحقیقات روانشناسان در ۲ دانشگاه انگلیس انجام می شود.

روانشناسان دانشگاه های کمبریج و بریستول با همکاری جیگساو کلیپ های ۹۰ ثانیه ای برای آگاه سازی مردم در مقابل محتوای مخرب در شبکه های اجتماعی تولید کرده اند.

این کلیپ ها که در بازه های پخش آگهی در یوتیوب و همچنین پلتفرم های دیگر مانند توئیتر، تیک تاک و فیس بوک نیز پخش می شود تا در شناسایی دستکاری احساسی و قربانی سازی در سرتیتر خبرها به مردم کمک کند.

جان روزن بیک مولف گزارشی درباره تحقیقات مربوط به این کمپین در یک مصاحبه گفت: اگر به مردم بگویید چه چیز درست و چه چیز غلط است، عده زیادی بحث و گمانه زنی می کنند. اما می توان روش هایی را پیش بینی کرد که برای گسترش اخبار جعلی به کار می رود.

این کمپین با همکاری سازمان های محلی غیر دولتی، بازبین های حقیقت یاب و کارشناسان اخبار جعلی برای مقابله در برابر روایت های ضد پناهجویی طراحی شده است.

گسترش اخبار جعلی و گمراه کننده در آمریکا و اروپا از طریق شبکه های اجتماعی سبب شده دولت های مختلف قوانین جدید برای مقابله با کمپین های اخبار جعلی وضع کنند.

فیسبوک خط‌مشی خود را اصلاح کرده و می‌خواهد نظرات و بررسی‌های جعلی و پولی را ممنوع کند.
به گزارش باشگاه خبرنگاران فیسبوک مدت‌ها است که برای محدود کردن بررسی‌های جعلی اقدام کرده، اما اکنون این موضع را رسمی کرده است. شرکت مادر فیسبوک (متا) خط مشی بازخورد خود را در آمریکا به روز کرده است تا به صراحت، بررسی‌های جعلی و پولی را در سیستم عامل‌های خود ممنوع کند.

به این ترتیب دیگر کاربران نمی‌توانند به امید دریافت یک وعده غذایی رایگان، برای یک رستوران نظر جعلی ارسال کنند، یا برای ارائه نظرات درخشان در مورد یک محصول، پول بگیرند.

همچنین این خط‌مشی اصلاح‌شده، بررسی‌های بی‌ربط و هرزنامه را ممنوع می‌کند. متا نظراتی که خط‌مشی‌ها را نقض می‌کنند را بررسی می‌کند و این حق را برای خود محفوظ داشته که دسترسی افراد به برخی یا همه محصولات خود را تعلیق کند. ناقضان معمولی ممکن است با تعلیق یا ممنوعیت دائمی حساب‌های فیس بوک خود مواجه شوند و کسب و کار‌ها ممکن است دسترسی به فهرست‌ها و برچسب‌های محصولات خود را از دست بدهند.
البته مشخص نیست که این تعهد چقدر پایدار خواهد بود. فیسبوک سال گذشته ۱۶۰۰۰ گروه بازبینی جعلی را در پاسخ به نگرانی‌های یک ناظر انگلیسی حذف کرد. یک سیاست رسمی، نشان دهنده تعهد به مقابله با مشکل است و می‌تواند به متا در توجیه ممنوعیت‌ها در صورت شکایت مجرمان، کمک کند.

طبق به روز رسانی دستورالعملی در اتحادیه اروپا، متا، گوگل، توئیتر و مایکروسافت توافق کرده اند موضع سختگیرانه تری نسبت به اخبار جعلی اتخاذ کنند.

به گزارش خبرگزاری مهر به نقل از رویترز، به گفته کمیسیون اتحادیه اروپا بیش از ۳۰ شرکت از جمله سازمان‌های تبلیغاتی دستورالعمل به روز رسانی شده مربوط به اخبار جعلی را امضا کرده‌اند.

به گفته یک مقام ارشد اتحادیه اروپا امضا کنندگان توافق کرده‌اند اقدامات بیشتری برای مقابله با دیپ فیک، حساب‌های کاربری جعلی و تبلیغات سیاسی انجام دهند.

عدم پیروی از این دستورالعمل جریمه ای تا ۶ درصد درآمد جهانی شرکت را در پی خواهد داشت. همچنین ممکن است شرکت‌های متخلف از فعالیت در اتحادیه اروپا منع شوند.

این شرکت‌ها که تیک تاک و پلتفرم بازی رایانه‌ای توییچ (متعلق به آمازون) را نیز شامل می‌شوند، ۶ ماه فرصت دارند تا به تعهد خود عمل کنند. همچنین آنها باید گزارشی از میزان پیشرفت خود در ۲۰۲۳ میلادی ارائه کنند.

ورا یوروا معاون رییس کمیسیون اتحادیه اروپا در این باره می‌گوید: دستورالعمل جدید نشان می‌دهد اروپا به خوبی از گذشته درس گرفته و ما دیگر ساده انگارانه با چنین موضوعاتی برخورد نمی‌کنیم.

به گفته او حمله روسیه به اوکراین، پاندمی کووید ۱۹ و خروج انگلیس از اتحادیه اروپا، اقدامات این منطقه برای مقابله با اخبار جعلی را سرعت بخشیده است.