تحلیل وضعیت فناوری اطلاعات در ایران |
وزیر فرهنگ و ارشاد اسلامی گفت: کارگروه اخبار جعلی در معاونت رسانهای وزارت فرهنگ و ارشاد اسلامی با موضوع ساماندهی کانالهای فضای مجازی و پیشگیری از شیوع اخبار جعلی در حال برگزاری است.
به گزارش خبرگزاری صداوسیما، محمد مهدی اسماعیلی وزیر فرهنگ و ارشاد اسلامی گفت: در کارگروه اخبار جعلی وزارت فرهنگ، از رویدادهای ابتکاری فناورانه برای مقابله با شیوع اخبار جعلی حمایت میشود.
اسماعیلی افزود: در داخل کشور با ثبت کانالهای فضای مجازی و نظارت بر آنها، ساماندهی بسیار خوبی در حمایت از شبکه مجازی رقم میخورد و میتوان مقابله مناسبی با شیوع اخبار جعلی داشته باشیم.
وی با اشاره به الزامات کارگروه اجرایی پیشگیری و مقابله با نشر اطلاعات، اخبار و محتوای خبری خلاف واقع در فضای مجازی گفت: در شرایط کنونی متاسفانه در رسانههای اصلی و مطرح دنیا هم با اخبار جعلی مواجهیم، به نظر میرسد در عین نیازمندی به تبیین و روشنگری و ارسال تکذیبیه و اقدامات حقوقی لازم، نیاز داریم از اقدامات مبتکرانه در این زمینه حمایت کنیم.
ایرنا- افزایش انتشار اطلاعات نادرست امروزه چالشهای پیچیدهای ایجاد کرده است. آمارها نشان میدهد انتشار محتوای دستکاریشده در فضای رسانههای سنتی و دیجیتال گسترش یافته است.
اطلاعات نادرست، از درمانهای غلط برای همهگیری کرونا گرفته تا اخبار جعلی که ناخواسته توسط شهروندان به اشتراک گذاشته میشود، به اکوسیستم اطلاعرسانی رسوخ کرده است. افزایش انتشار اطلاعات نادرست به طور عمده ناشی از مقاصد سیاسی، فناوری دیپفیک یا ویدئوهای ساختگی، تله کلیکی یا بیان محتوا با هدف فریب کاربر و مسائل دیگر است. نتیجه این مساله، کاهش اعتماد عمومی و ایجاد تهدید علیه گفتمان دموکراتیک است. چنین وضعیتی ایجاب میکند راهحلهایی ارائه شود که هم در عین بیان واقعیت، آزادی بیان نیز حفظ شود.
هدف از این تحلیل آن است که با ارائه دادههای مهم، انتشار و تاثیرات اطلاعات نادرست در رسانهها در سال ۲۰۲۳ نشان داده شده و همهگیری اطلاعات نادرست یا به اصطلاح «پاندمی اطلاعات» موشکافی شود.
دیدگاههای مخاطبان درباره اطلاعات نادرست و اعتماد
درک افکار عمومی و برداشت آنها از رسانههای خبری اهمیتی حیاتی در مقابله با بحران اطلاعات نادرست دارد. کاهش اعتماد به روزنامهنگاری، نقش رسانه به عنوان ارائهدهنده اطلاعات معتبر را تهدید میکند. انتشار محتوای اشتباه و نگرانی فزاینده از محتوای جانبدارانه باعث ایجاد نگرشهای منفی در مخاطبان شده است.
نتایج یک نظرسنجی در آمریکا نشان داد بسیاری از بزرگسالان این کشور معتقدند، بخش زیادی از خبرها در شبکههای اجتماعی، جانبدارانه است. ۶۶ درصد از شرکتکنندگان در این نظرسنجی که سال ۲۰۱۸ انجام شد، گفتند به نظر آنها دستکم ۷۶ درصد از خبرها در شبکههای اجتماعی جانبدارانه است.
یکی از دلایل کاهش اعتماد به خبرها در شبکههای اجتماعی، اخبار جعلی است. از نظر ۶۰ درصد از شهروندان در سراسر دنیا، سازمانهای خبری عامدانه اخبار جعلی را منتشر میکنند. نتایج یک نظرسنجی که سال ۲۰۱۸ درباره سطح اعتماد عمومی به منابع رسانهای انجام شد، نشان داد ۶۵ درصد از پاسخدهندگان در آمریکایی شمالی معتقدند، آنها برای کسب اخبار و اطلاعات عمومی به رسانههای سنتی اعتماد بیشتری دارند.
تاثیرات اطلاعات نادرست
افزایش انتشار اطلاعات نادرست در فضای آنلاین، چالشهای بزرگی برای روزنامهنگاران ایجاد کرده و موجب تضعیف اعتماد عمومی به رسانهها شده است. براساس نتایج یک نظرسنجی، ۹۴ درصد از روزنامهنگاران میگویند اطلاعات و اخبار دستکاریشده، امروزه در آمریکا به یک مشکل مهم تبدیل شده است؛ همچنین ۶۰ درصد آنها نسبت به اعمال محدودیتهای احتمالی بر آزادی مطبوعات در آمریکا ابراز نگرانی کردند. ۹۷ درصد آنها بر این باورند انتشار اطلاعات نادرست و گمراهکننده برای جامعه مضر است.
شبکههای اجتماعی و اطلاعات نادرست
شبکههای اجتماعی در انتشار گسترده اخبار و اطلاعات از جمله اخبار جعلی بسیار موثر بودهاند. آمارها نشان میدهد مردم اطلاعات نادرست را در شبکههای اجتماعی میبینند و منتشر میکنند که این امر مستلزم راهحلهای خاص خود است. نزدیک به ۴.۹ میلیارد نفر در دنیا کاربر شبکههای اجتماعی هستند. یک نظرسنجی در دسامبر ۲۰۲۰ (آذرماه ۱۳۹۹) نشان داد ۳۸.۲ درصد از مخاطبان اخبار در آمریکا، ناخواسته اخبار جعلی یا اطلاعات اشتباه را در شبکههای اجتماعی به اشتراک گذاشتهاند.
رباتها و اطلاعات اشتباه
درک نقش رباتها در گسترش اطلاعات اشتباه در بحرانهایی مانند همهگیری کرونا تاثیر مهمی در مبارزه با «پاندمی اطلاعات» و پیامدهای احتمالی آن بر بهداشت عمومی دارد. تجارب گذشته نشان میدهد حسابهای کاربری خودکار یا همان رباتها، نقش زیادی در انتشار اطلاعات اشتباه در دورههای بحرانی مانند کرونا دارند.
انتشار لینکهای فیشینگ، بیاعتبار کردن منابع مشروع خبری، ترویج درمانهای اثباتنشده و انتشار چندباره محتوای نادرست، از جمله راهبردهای رباتها برای انتشار اطلاعات اشتباه است. نزدیک به ۴۷ درصد از شرکتکنندگان آمریکایی در یک نظرسنجی که مارس ۲۰۲۰(اسفندماه ۱۳۹۸) انجام شد، گفتند با اخبار ساختگی زیادی در مورد کرونا مواجه شدهاند که این مساله نشاندهنده گسترش زیاد اخبار جعلی است.
اشتراکگذاری اطلاعات اشتباه
آمار زیر نشان میدهد بخش قابل توجهی از بزرگسالان آمریکایی خواسته یا ناخواسته محتوای گمراهکننده را در فضای آنلاین به اشتراک گذاشتهاند. نتایج یک نظرسنجی در دسامبر (آذرماه) ۲۰۲۰ نشان داد ۴۷ درصد آمریکاییها گفتند در روزنامهها و مجلات شاهد اخبار جعلی بودهاند. این مساله نشان میدهد انتشار اطلاعات اشتباه محدود به فضای آنلاین نیست. همچنین ۶۷ درصد پاسخدهندگان گفتند در فیسبوک، ۶۵ درصد دیگر در کلیت شبکههای اجتماعی و ۶۰ درصد دیگر به طور کلی در اینترنت با اخبار جعلی مواجه شدند. همچنین، شمار کمتری از پاسخدهندگان اعلام کردند در رسانههای سنتی مانند مطبوعات، تلویزیون و منابع خبری جریان اصلی، شاهد اخبار جعلی بودهاند.
اطلاعات نادرست بصری
فناوری دیپفیک از هوش مصنوعی برای تولید محتوای صوتی و تصویری دستکاریشده استفاده میکند؛ این محتوا بهگونهای است که واقعی به نظر میرسد. نگرانیهای زیادی در آمریکا درباره انتشار دیپفیکهای سیاسی پیش از انتخابات ریاست جمهوری ۲۰۲۴ این کشور وجود دارد. توانایی دیپفیکها در انتشار اطلاعات نادرست، چالشهای جدی ایجاد میکند و میتواند تاثیر قابل توجهی در انتخابات داشته باشد.
حجم دیپفیکهای صوتی و تصویری سال به سال افزایش یافته است؛ حتی دیپفیکهای صوتی بیشتر از دیپفیکهای تصویری تولید شدهاند. بر اساس گزارش دیپمدیا، سال ۲۰۲۳ نسبت به سال پیش از آن، تولید دیپفیکهای صوتی سه برابر و دیپفیکهای صوتی هشت برابر افزایش یافته است.
اطلاعات نادرست در خارج از آمریکا
آمارهای اخیر از گسترش روند نگرانکننده اخبار جانبدارانه و محتوای نادرست در سراسر دنیا حکایت دارد. به عبارت دیگر، پاندمی اطلاعات، مرزها را درنوردیده و کشورهای سراسر دنیا را تحت تاثیر قرار داده است. نزدیک به ۶۰ درصد از مردم دنیا معتقدند شهروندان کشورشان دیگر اهمیتی به واقعیتهای سیاسی-اجتماعی نمیدهند و فقط به چیزی باور دارند که خودشان میخواهند. این روند در پرو به ۷۱ درصد، در صربستان به ۷۰ درصد، در ترکیه به ۶۹ درصد و در آمریکا به ۶۸ درصد میرسد.
سیاستمداران معمولا رسانهها را به باد انتقاد میگیرند؛ به ویژه در آمریکا که عبارتهایی مانند «رسانههای اخبار جعلی» رواج زیادی دارد. انتقاد از رسانهها به یک تاکتیک سیاسی برای ترساندن و طفره رفتن از پاسخگویی به انتقادها تبدیل شده است. نتایج یک نظرسنجی در اوایل سال ۲۰۲۳ نشان داد اخبار جعلی سیاسی یا مشکوک به ویژه در آمریکا و اسلواکی به یک معضل تبدیل شده است.
از سوی دیگر، یک مطالعه جهانی نشان داد مردم کشورهای اسکاندیناوی بالاترین اعتماد را به رسانههای خبری دارند. بر اساس این مطالعه، ۶۹ درصد از فنلاندیها، ۵۷ درصد دانمارکیها و ۵۳ درصد مردم نروژ به رسانههای خبری خود اعتماد دارند. همچنین مردم کرهجنوبی، تایوان، مجارستان، اسلواکی، بلغارستان و یونان کمترین اعتماد را به رسانههای خبری خود دارند.
مبارزه با اطلاعات نادرست
شناسایی عامل انتشار اطلاعات اشتباه و یافتن بهترین راهحل مقابله با این اطلاعات، مهمترین چالشهایی است که پیش روی مبارزه با اطلاعات جعلی در فضای آنلاین وجود دارد. بر اساس نظرسنجیها، از هر سه نفر، یکی معتقد است روزنامهنگاران و سازمانهای رسانهای بیشترین مسئولیت را در مقابله با اطلاعات نادرست دارند. همچنین ۳۱ درصد نیز گفتند شهروندان مسئول اصلی این مبارزه هستند.
به اعتقاد ۶۲ درصد از پاسخدهندگان، اصلیترین راه برای جلوگیری از انتشار اطلاعات نادرست، بررسی اعتبار منبع اخبار و اطلاعات است. همچنین ۶۵ درصد میگویند شرکتهای فناوری باید از انتشار این اطلاعات در فضای آنلاین جلوگیری کنند. ۵۵ درصد نیز معتقدند دولت آمریکا باید انتشار اطلاعات نادرست در اینترنت را محدود کند.
دیدگاههای روزنامهنگاران درباره اطلاعات نادرست
«مرکز تحقیقات پیو» سال ۲۰۲۲ یک نظرسنجی از روزنامهنگاران به عمل آورد تا دیدگاههای آنها را درباره اطلاعات نادرست و آینده آزادی مطبوعات بررسی کند. بر اساس این نظرسنجی، ۳۳ درصد از روزنامهنگاران درباره اعمال محدودیتهای احتمالی بر آزادی مطبوعات ابراز نگرانی شدید کرده و ۲۴ درصد دیگر نیز ابراز نگرانی زیاد کردند. هر چند که ۷۱ درصد از روزنامهنگاران شرکتکننده در این نظرسنجی گفتند به توانایی خود در شناسایی اطلاعات ناشتباه یقین دارند، ۲۶ درصد آنها اعلام کردند که ناخواسته اطلاعات نادرست را منتشر کردهاند. همچنین ۶۰ درصد از خبرنگاران گفتند سازمانهای خبری آنها فاقد دستورالعملهای رسمی در مورد اطلاعات نادرست هستند.
جمعبندی
انتشار اطلاعات نادرست در شبکههای اجتماعی مانند فیسبوک و ایکس(توئیتر سابق) رواج زیادی دارد و رباتها و تلههای کلیکی به این مساله دامن زدهاند. همچنین گسترش دیپفیکهای تولیدشده توسط هوش مصنوعی، تهدیدهای بیشتری برای حقایق و واقعیتها در فضای دیجیتال ایجاد کرده است.
مقابله با اطلاعات نادرست و احیای اعتماد عمومی، نیازمند اقدام جمعی دولتها، شرکتهای فناوری، روزنامهنگاران و شهروندان است. سواد رسانهای، شفافیت و راستیآزمایی اخبار و اطلاعات میتواند نقطه شروعی برای این روند باشد. هر چند پاندمی اطلاعات فروکش نکرده است اما این امید وجود دارد که با حل مشکلات بتوان بحران اعتماد را از بین برد.
https://redline.digital/fake-news-statistics
هند تصمیم دارد قوانینی برای نظارت بر «دیپ فیک» وضع کند. این در حالی است که نارندا مودی نخست وزیر این کشور نیز درباره این فناوری اظهار نگرانی کرده بود.
به گزارش مهر به نقل از رویترز، آشوینی وایشناو وزیر فناوری اطلاعات این کشور در جلسه ای با کارشناسان، گروه های صنعتی و شبکه های اجتماعی گفت: ما تصمیم داریم پیش نویس قوانین را در چند هفته آینده تکمیل کنیم.
دیپ فیک ویدئوهای ساخته شده با سیستم های هوش مصنوعی هستند که با تصاویر آنلاین آموزش دیده اند و بسیار واقعی به نظر می رسند.
مودی در اظهارات خود در جلسه مجازی کشورهای گروه ۲۰ از رهبران جهان خواست به طور مشترک برای قانونمند سازی هوش مصنوعی اقدام کنند و نسبت به تاثیرات منفی ویدئوهای دیپ فیک بر جامعه ابراز نگرانی کرد.
فرایند پیش نویس کردن قوانین همچنین برای فردی که محتوا را آپلود می کند و هم شبکه اجتماعی که محتوا در آن پست می شود، مجازات هایی در نظر گرفته است.
این اقدام در حالی انجام می شود که کشورهای سراسر جهان سعی دارند هرچه سریع تر هوش مصنوعی را قانونمند کنند.
جوبایدن رییس جمهور آمریکا ماه گذشته میلادی یک دستور اجرایی امضا کرد که توسعه دهندگان سیستم های هوش مصنوعی را که تهدیدی برای امنیت ملی آمریکا، سلامت عمومی یا ایمنی هستند، ملزم می کند نتایج تست های ایمنی را قبل از انتشار عمومی در اختیار دولت قرار دهند.
سازمان ملل متحد نیز یک نهاد مشورتی برای بررسی کردن موضوعات نظارت بر هوش مصنوعی ایجاد کرده است. این درحالی است که قانونگذاران اتحادیه اروپا پیش نویسی از قوانین آماده کردند که احتمالا ماه آینده تایید می شود.
نتایج یک نظرسنجی که به درخواست یونسکو توسط مرکز نظرسنجی ایپسوس در شهریورماه امسال انجام شد، نشان میدهد، ۸۵ درصد از ۸ هزار نفر مخاطب از ۱۶ کشور که در سال ۲۰۲۴ میلادی شاهد انتخابات خواهند بود، «اطلاعات نادرست یا فیک نیوز و نفرت پراکنی آنلاین» را یک تهدید واقعی میدانند و خواستار اقدام مناسب مردم، دولتها و صاحبان شبکههای اجتماعی هستند.
اخبار جعلی - نفرت پراکنی و شبکههای اجتماعی
گسترش شبکههای اجتماعی و تنوع رسانههای جدید سبب شده تا دسترسی به اطلاعات درست به یکی از دغدغههای اصلی دولتها و ملتها تبدیل شود. دسترسی به اطلاعات درست بدون دستکاری و یافتن حقیقت از تونل پر پیچ و خم «فیک نیوز یا اخبار دروغ» و نیز دریافت محتواهای خالی از نفرت، در حال تبدیل شدن به نیاز اصلی انسانها و جوامع مختلف است و اهمیت دستیابی به اطلاعات درست در بزنگاههای سیاسی مانند انتخابات مشخصتر میشود.
این موضوع به اندازهای است که یونسکو میگوید: حصول اطمینان از دسترسی به اطلاعات قابل اعتماد، یک پیش نیاز اساسی برای بحث آگاهانه در مورد همه چالشهایی است که جوامع با آن روبرو هستند.
تحقیقات این سازمان بینالمللی نشان میدهد از آنجا که پلتفرمهای رسانههای اجتماعی به منبع دستیابی و کسب اطلاعات تعداد بیشماری از مردم در سراسر جهان تبدیل شده، نگرانیهایی در مورد شیوع دروغها و سخنان مشوق نفرت مطرح شده است. اطلاعات نادرستی که توسط الگوریتمهای غیرشفاف، سبب میشود تا دروغ، جایگزین واقعیت و نفرت جایگزین همدلی و یکی بودن شود.
اکنون پرسشهای زیادی در این مسیر مطرح است، از جمله اینکه:
- این پلتفرمها بسته به میزان ارجحیت یا حاکمیت در جریان اطلاعرسانی چه مشکلاتی را برای کشورهای مختلف به همراه داشتهاند؟
- مؤثرترین رویکرد در این مسیر چیست؟
- چه کسی مسئول است؟
- چگونه میتوان از حقوق بشر و درستی و حقیقت در میان هزاران محتوای نادرست یا آمیخته درست و نادرست محافظت کرد، بهگونهای که اصل حقیقت آسیب نبیند؟
همکاری یونسکو و ایپسوس برای نظرسنجی در ۱۶ کشور در آستانه انتخابات
به همین دلیل سازمان علمی - آموزشی و فرهنگی ملل متحد (یونسکو) اعلام کرده، در حالی که یک رایزنی جهانی یک ساله برای تدوین دستورالعملهایی برای حفاظت از آزادی بیان و دسترسی به اطلاعات در حاکمیت پلتفرمهای دیجیتال را دنبال کرده، درصدد است نتایج برخی پژوهشهای انجام شده در این زمینه را به ویژه در زمینه تأثیر اطلاعات نادرست آنلاین و سخنان نفرتانگیز در زندگی روزمره ارائه کند.
نکته مهم اینکه افراد باید بدانند که آیا این موضوع یک مساله اساسی است؟ آیا آنها اغلب با آن مواجهاند؟ آنها برای مبارزه با آن چه راهکارهایی را پیشنهاد میکنند؟
در این مسیر، یونسکو و مرکز نظرسنجی ایپسوس (IPSOS) تصمیم گرفتند در یک برنامه مشترک، چندین نظرسنجی را در ۱۶ کشوری که در سال ۲۰۲۴ انتخابات عمومی در سطوح مختلف در آنها برگزار میشود، انجام دهند و پرسشهایی را در این زمینه مطرح کنند.
ایپسوس یک شرکت بینالمللی پژوهشی در حوزه افکارسنجی، واقع در پاریس است. این مرکز تحقیقاتی در سال ۲۰۱۲ در ۸۴ کشور دفتر داشت و در اکتبر ۲۰۱۱ (مهر ۱۳۹۰) شرکت سینوویت (Synovate) را در خود ادغام کرد و به سومین بنگاه بزرگ تحقیقات و نظرسنجی جهان تبدیل شد.
این دو بنیاد در یک برنامه مشترک در سپتامبر (شهریور) امسال اقدام به برگزاری یک نظرسنجی در ۱۶ کشور یادشده، یکسال پیش از برگزاری انتخابات در این کشورها، در روزهای ۲۲ آگوست تا ۲۵ سپتامبر امسال (۳۱ مرداد تا ۳ مهر) کردهاند. هدف از برگزاری این نظرسنجی این بوده که «آیا این موضوع برای شرکتکنندگان مهم است؟ آیا اطلاعات نادرست، پیشتر در آنها تأثیری داشته؟ اعتبار اطلاعات آنلاین را چگونه میبینند؟ در مورد زندگی سیاسی در کشورشان، آیا نگرانند که اطلاعات نادرست بر انتخابات بعدی آنها تأثیر بگذارد؟»
این نظرسنجی به صورت آنلاین در ۱۶ کشور از میان کاربران اینترنت، در رده سنی ۱۸ سال و بالاتر در هر کشور انجام شد. در مجموع ۸ هزار نفر (۵۰۰ نفر در هر کشور) مورد مصاحبه قرار گرفتند. انتخاب این کشورها هم به این دلیل بود که همه آنها در سال آینده میلادی یک یا چند انتخابات سراسری را در پیش دارند.
الجزایر، اتریش، بنگلادش، بلژیک، کرواسی، جمهوری دومنیکن، السالوادور، غنا، هند، اندونزی، مکزیک، رومانی، سنگال، آفریقای جنوبی، اوکراین و آمریکا، ۱۶ کشوری هستند که شهروندان آنها در این نظرسنجی شرکت کردند.
اهمیت نظرسنجی
استفاده از رسانههای اجتماعی بهعنوان منبع روزانه دستیابی به اطلاعات، در ۱۵ سال گذشته به سرعت رشد کرده، تا جایی که اکنون از رسانههای چاپی، رادیو و حتی تلویزیون پیشی گرفته است.
به طور متوسط در ۱۶ کشور مورد بررسی، ۵۶ درصد از کاربران اینترنت، بیشتر از رسانههای اجتماعی برای آگاهشدن از رویدادهای جاری استفاده میکنند که این رقم بسیار بالاتر از تلویزیون (۴۴ درصد) است.
با این حال، تفاوتهایی در میان گروههای جمعیتی وجود دارد؛ تلویزیون منبع اصلی در توسعهیافتهترین کشورهاست (۵۵ درصد در مقایسه با ۳۷ درصد برای رسانههای اجتماعی) در حالی که در کشورهای با شاخصهای توسعه انسانی بالا (۴۲ درصد در مقابل ۶۳ درصد) عقبتر است. در کشورهای با سطوح متوسط/پایین شاخص توسعه انسانی (HDI) این رقم ۳۷ در برابر ۶۸ است.
جای تعجب نیست که در این کشورها، افراد زیر ۳۵ سال نسبت به افراد ۵۵ ساله تمایل بیشتری به استفاده از رسانههای اجتماعی برای کسب اطلاعات دارند. این رقم در مورد افراد مسنتر ۶۷ درصد در مقایسه با ۳۱ درصد است.
نتایج نظرسنجی
برخی از مهمترین نتایج این نظرسنجی شامل موارد زیر است:
۱. تلویزیون تا حدودی بیشتر برای اطلاعرسانی در طول مبارزات انتخاباتی استفاده میشود. در واقع، رسانههای سنتی، به ویژه تلویزیون هنوز از نظر اعتبار و کیفیت اخباری که در اختیار مردم قرار میدهند، قابل اعتمادترین منابع هستند. به طور کلی، ۶۶ درصد از افراد مورد بررسی به اخبار پخش شده در تلویزیون، ۶۳ درصد به اخبار رادیویی و ۶۱ درصد به اخبار رسانههای چاپی اعتماد دارند؛ در حالی که این میزان برای اخبار جمعآوری شده از رسانههای اجتماعی فقط ۵۰ درصد است. البته تفاوتهای عمدهای در این زمینه میان کشورهای توسعه نیافته، درحال توسعه و توسعه یافته و ثروتمند وجود دارد.
۲. در همه این ۱۶ کشور، ۶۸ درصد از کاربران اینترنت گفتهاند شبکههای اجتماعی در اطلاعرسانی بسیار جلوتر از گروههای برنامههای پیامرسان آنلاین (۳۸ درصد) و رسانهها و سایتها (۲۰درصد) هستند.
۳. این احساس در همه کشورها، گروههای سنی با پیشینههای اجتماعی و ترجیحات سیاسی مختلف بهشدت شایع است که آنها احساس میکنند موضوع اطلاعات نادرست یک تهدید واقعی است. ۸۵ درصد از مخاطبان در این کشورها در این زمینه ابراز نگرانی کردهاند که البته این رقم در کشورهای با سطوح بالای HDI (شاخص توسعه انسانی) به ۸۸ درصد و در کشورهایی که شاخص توسعه انسانی متوسط/پایین دارند، ابراز نگرانی تا ۹۰ درصد افزایش یافته است. حتی ۸۷ درصد از این مخاطبان گفتهاند فیکنیوز یا اطلاعات نادرست، پیشتر تأثیر عمدهای بر زندگی سیاسی در کشور آنها داشته است.
طبق این بررسی، ۸۷ درصد از مخاطبان ۱۶ کشور نگران تأثیر اطلاعات نادرست بر انتخابات آتی در کشورشان هستند و ۴۷ درصد «بسیار نگران» بوده که این رقم حتی در بین کسانی که خود را «بسیار علاقهمند به سیاست» توصیف کردهاند، به ۶۳ درصد افزایش یافته است.
۴. علاوه بر اطلاعات نادرست، ۶۷ درصد از کاربران اینترنت در ۱۶ کشور گفتهاند با سخنان «نفرت انگیز یا نفرتپراکنی» نیز در فضای آنلاین روبهرو شدهاند؛ از جمله ۷۴ درصد از افراد زیر ۳۵ سال این موضوع را بیشتر تائید کردند.
در این بررسی ۵۸ درصد مخاطبان گفتهاند از میان شبکههای اجتماعی مختلف، بیشتر در «فیسبوک» و پس از آن در تیکتاک (TikTok) با ۳۰ درصد، در شبکه اجتماعی X (با ۱۸ درصد) و اینستاگرام (۱۵ درصد) با نفرت پراکنی مواجه شدهاند.
به گفته آنها در کشورها موضوعهای مختلفی هدف سخنان نفرتانگیز قرار گرفته از جمله ۳۳ درصد اقلیتهای قومی یا نژادی هستند که قربانی سخنان نفرتپراکنی آنلاین هستند. در این زمینه، ۸۸ درصد شهروندان این کشورها که مورد پرسش قرار گرفتهاند، قویا میگویند مسائل مربوط به «اطلاعات نادرست و نفرت پراکنی» باید توسط دولتها و نهادهای نظارتی و ۹۰ درصد نیز میگویند باید توسط خود پلتفرمهای رسانههای اجتماعی مورد رسیدگی قرار گیرد.
آنها حتی میگویند هر دو این بازیگران باید «نقش فعال» (به ترتیب ۸۹ و ۹۱ درصد) در مبارزه با موارد یادشده در طول مبارزات انتخاباتی ایفا کنند. از این منظر، ساکنان کشورهایی با سطوح متوسط یا پایین HDI تمایل بیشتری به مداخله قوی از سوی مقامهای دولتی و بخش خصوصی داشتند. همچنین ۷۵ درصد از مخاطبان گفتند سازمانهای بینالمللی مانند سازمان ملل یا یونسکو میتوانند در مبارزه با اطلاعات نادرست نقش داشته باشند.
۵. در نهایت این مطالعه نشان داد، در حالی که آنها از این مشکل بسیار آگاهند، خود شهروندان میتوانند اقدامات قویتری برای مقابله با دو پدیده روبهرشد «اطلاعات نادرست و نفرت پراکنی آنلاین» انجام دهند.
طبق نتایج مصاحبه با ۸ هزار مخاطب در ۱۶ کشور، ۴۸ درصد از آنها پیشتر محتوای آنلاین مربوط به اطلاعات نادرست را در چارچوب یک پویش انتخاباتی تجربه کردهاند. این رقم در افراد ۱۸ تا ۳۴ ساله ۵۵ درصد و در افرادی هم که خود را «بسیار علاقهمند» به سیاست توصیف کردند، ۵۵ درصد بوده است.
پرسشهای مطرحشده و نمودار پاسخ
برخی از پرسشهای مطرح شده در این افکارسنجی بینالمللی شامل موارد زیر است:
۱_ اخبار و اطلاعات خود را در درجه اول از کجا دریافت میکنید؟
۲_ تا چه اندازه به اخبار و اطلاعات ارائهشده توسط این منابع اطلاعاتی (که مطرح کردهاید) اعتماد دارید؟
۳_ آیا نگران تأثیر «اطلاعات نادرست» و «اخبار جعلی» بر جمعیت کشورتان هستید؟
۴_ آیا فکر میکنید اطلاعات نادرست و «اخبار جعلی» تأثیر عمدهای بر زندگی سیاسی کشور شما داشته است؟
۵_ به طور خاص، نظر به انتخابات سال آینده در کشور خود، آیا نگران این هستید که «اطلاعات نادرست و اخبار جعلی» ممکن است باعث تاثیر بر مبارزات انتخاباتی و رای بخش قابل توجهی از رایدهندگان شود؟
۶_ هر چند وقت یکبار با مطالبی در رسانه یا شبکههایی که اطلاعات را از آن دریافت میکنید، روبه رو میشوید که اعتقاد دارید به طور عمد جعل شدهاند؟
۷_ به نظر شما اطلاعات نادرست و اخبار جعلی در کدام منابع اطلاعاتی بیشتر گسترده است؟
۸_ هرچند وقت یکبار با محتوای آنلاینی مواجه میشوید که به نظر میرسد مشوق تنفر است؟
۹_ به نظر شما قربانیان اصلی محتواهای نفرتپراکنی در شبکههای اجتماعی در کشور شما چه کسانی هستند؟
۱۰_ آیا فکر میکنید پلتفرمهای آنلاین به اندازه کافی با محتواهای نفرتانگیز مقابله میکنند؟
۱۱_ چه کسی باید مسئول شناسایی و مقابله با اطلاعات نادرست آنلاین یا اخبار جعلی باشد؟
منبع: ایرنا
اخبار جعلی مضر است زیرا میتواند باعث ایجاد سوء تفاهم و سردرگمی در مورد مسائل مهم شود. انتشار اطلاعات نادرست میتواند درگیریهای اجتماعی را تشدید و به بحث و جدل دامن بزند.
اخبار جعلی اطلاعات ساختگی هستند که عمدتاً از رسانههای خبری واقعی تقلید و برای تغییر درک خوانندگان از رویدادها، حقایق، اخبار و اظهارات طراحی شدهاند.
اطلاعات نادرست در رسانههای اجتماعی فریبنده است و میتواند به سرعت منتشر شود. اخبار جعلی جدید نیست، اما سرعت انتشار آن اتفاقی نسبتا جدید است. بسیاری از مردم در اینترنت به سختی اخبار واقعی را از اخبار جعلی تشخیص میدهند و این باعث سردرگمی میشود.
رسانههای اجتماعی در حال تبدیل شدن به روشی رایج برای دریافت اخبار و اطلاعات هستند. اما با این حال، نمیتوان به همه اطلاعات این شبکهها اعتماد کرد. اطلاعات نادرست با هدف فریب باعث بیاعتمادی میشوند.
طعمه کلیک: این مورد از عناوین، تصاویر یا توضیحات رسانههای اجتماعی اغراق آمیز، مشکوک یا گمراه کننده برای ایجاد ترافیک وب استفاده میکند. این داستانها عمدا برای جذب خوانندگان ساخته شدهاند.
نرم افزارهای ویرایش عکس مدرن، تولید تصاویر جعلی واقعگرایانه را آسان کردهاند. در این شرایط به دنبال سایهها یا لبههای ناهموار در عکس باشید. جستجوی عکس معکوس گوگل روش دیگری برای بررسی تصویر است تا ببینید از کجا منشا گرفته است و آیا تغییر یافته است یا خیر
تبلیغات: این دسته نیز اطلاعات، شایعات یا ایدههایی را برای آسیب رساندن به یک نهاد، کشور، گروهی از افراد یا فردی منتشر میکند و معمولاً برای منافع سیاسی هستند.
اخبار مغرضانه: این مورد خوانندگان را جذب میکند تا تعصبات و باورهای خود را تأیید کنند.
طنز: این دسته باعث ایجاد اخبار جعلی برای تقلید و سرگرمی میشود.
سرفصلهای گمراه کننده: این داستانها ممکن است کاملاً نادرست نباشند، اما با عناوین گمراهکننده و تکههای کوچک نمایش داده شده در فیدهای خبری تحریف شدهاند.
اشتراک گذاری مداوم ولایک محتوا در رسانههای اجتماعی آسان است و هر بار که کاربر آن را با شبکه اجتماعی خود به اشتراک میگذارد، تعداد افرادی که این محتوا را میبینند افزایش مییابد.
الگوریتم رسانههای اجتماعی و موتورهای جستجو نیز توصیههای شخصیشدهای را بر اساس اولویتهای گذشته و سابقه جستجو در اختیار خوانندگان قرار میدهند. این بیشتر به افرادی که اخبار جعلی را میبینند کمک میکند.
سیستمهای هوش مصنوعی همچنین میتوانند اطلاعات نادرست را ترویج کنند. هوش مصنوعی میتواند مطالب جعلی واقعگرایانه را بر اساس مخاطب هدف ایجاد کند. همچنین میتواند از رباتها برای جعل هویت کاربران انسانی و انتشار اطلاعات نادرست استفاده کند.
هکرها نیز میتوانند داستانهایی را در رسانههای خبری واقعی قرار دهند، به گونهای که به نظر میرسد از منابع قابل اعتماد هستند.
ترولها نیز میتوانند در نظرات مقالات معتبر ظاهر شود. ترولها عمدا پست میگذارند تا باعث ناراحتی و مشاجره با خوانندگان دیگر شوند. گاهی اوقات به دلایل سیاسی دستمزد دریافت میکنند که میتواند در انتشار اخبار جعلی نقش داشته باشد.
اولین قدم برای مبارزه با انتشار اطلاعات نادرست در رسانه های اجتماعی، شناسایی اخبار جعلی است. بهتر است قبل از اشتراک گذاری با دیگران، دوباره آن را بررسی کنید.
سایر سایتها و رسانههای خبری معتبر را جستجو کنید تا ببینید آیا این خبر را گزارش میکنند یا خیر. همچنین منابع معتبر ذکر شده در محتوا را بررسی کنید.
اگر این خبر از منبع ناشناس است، کمی تحقیق کنید. آدرس وب صفحه را بررسی کنید و به دنبال دامنههایی به غیر از.com بگردید، مانند "infonet." یا ".offer." و هرگونه اشتباه املایی را در آدرس URL بررسی کنید. در صورت شک، به صفحه اصلی بروید و همان اطلاعات را بررسی کنید.
سیستمهای هوش مصنوعی همچنین میتوانند اطلاعات نادرست را ترویج کنند. هوش مصنوعی میتواند مطالب جعلی واقعگرایانه را بر اساس مخاطب هدف ایجاد کند. همچنین میتواند از رباتها برای جعل هویت کاربران انسانی و انتشار اطلاعات نادرست استفاده کند
نام نویسنده را جستجو کنید. اعتبار، تعداد فالوورهای آنها و مدت زمان فعال بودن حساب را بررسی کنید. سایر پستها را بررسی کنید تا مشخص شود آیا آنها رفتارهای رباتی، مانند پست کردن در تمام اوقات روز و از نقاط مختلف جهان، دارند یا خیر. ویژگیهایی مانند نام کاربری با اعداد و پیوندهای مشکوک را در اطلاعات نویسنده بررسی کنید. اگر خبر از حسابهای دیگر بازنشر شده و دارای محتوای سیاسی بسیار شدید باشد، احتمالاً با یک حساب ربات جعلی روبرو هستید.
علاوه بر مشاهده اطلاعات و اعتبار نویسنده، عکس پروفایل او را بررسی کنید. عکس نمایه را در جستجوی معکوس Google سرچ کنید. مطمئن شوید که تصویر یک تصویر تقلبی یا یک فرد مشهور نیست. اگر تصویر اصلی به نظر نمیرسد، پس احتمالاً مقاله نیز قابل اعتماد نیست.
به این فکر کنید که آیا داستان غیرواقعی به نظر میرسد یا واقعی؟ یک داستان معتبر دارای حقایق زیادی است که با نقل قولهای کارشناسان، آمار رسمی و دادههای نظرسنجی منتقل شده است. همچنین میتواند گزارش شاهدان عینی نیز داشته باشد. اگر حقایق دقیق یا ثابتی فراتر از عنوان وجود ندارد، اطلاعات را زیر سوال ببرید. به دنبال شواهدی باشید که نشان دهد واقعه واقعاً اتفاق افتاده است. مطمئن شوید که از حقایق صرفاً برای حمایت از یک دیدگاه خاص استفاده نمیشود.
اجازه ندهید که باورهای شخصی قضاوت را پنهان کند. سوگیریها میتوانند بر نحوه پاسخ افراد به مقاله تأثیر بگذارند. رسانههای اجتماعی داستانهایی را پیشنهاد میکنند که با علایق، نظرات و عادات افراد مطابقت دارند. پس اجازه ندهید احساسات بر دیدگاهها در مورد خبر تأثیر بگذارد. به یک خبر، انتقادی و منطقی نگاه کنید.
وبسایتهای طنز داستان را به طنز یا شوخی تبدیل میکنند. وب سایت را بررسی کنید تا ببینید آیا آنها به طور مداوم داستانهای خنده دار ارسال میکنند و آیا آنها به طنز معروف هستند یا خیر.
به بالای محتوا برای «محتوای حمایت شده» یا نام مشابه نگاه کنید. این داستانها اغلب عکسهای جذابی دارند و به نظر میرسد به اخبار دیگر پیوند دارند. صفحه را بررسی کنید و به دنبال برچسبهایی مانند "حامی مالی" یا "تبلیغات" باشید. این مقالهها خوانندگان را طعمه خرید چیزی میکنند، خواه مشروع باشند یا فریبنده. برخی از این سایتها ممکن است کاربران را برای نصب بدافزار به سایتهای مخرب ببرند. بدافزار میتواند دادهها را از دستگاهها بدزدد، باعث خرابی سختافزار شود، یا یک کامپیوتر یا شبکه سیستم را از کار بیاندازد.
سایتهای حقیقتسنجی همچنین میتوانند به تشخیص موثق یا جعلی بودن خبر کمک کنند. این سایتها با استفاده از بررسیکنندههای واقعیت مستقل، با بررسی منابع رسانهای معتبر، صحت اطلاعات را بررسی و تحقیق میکنند. آنها اغلب بخشی از خبرگزاریهای بزرگتر هستند که حقایق و اظهارات نادرست را شناسایی میکنند.
نرم افزارهای ویرایش عکس مدرن، تولید تصاویر جعلی واقعگرایانه را آسان کردهاند. در این شرایط به دنبال سایهها یا لبههای ناهموار در عکس باشید. جستجوی عکس معکوس گوگل روش دیگری برای بررسی تصویر است تا ببینید از کجا منشا گرفته است و آیا تغییر یافته است یا خیر.
نتیجه منتشرشده از یک مطالعه نشان میدهد، مدلهای هوش مصنوعی که رباتهای چت و سایر برنامهها را تقویت میکنند، همچنان در تشخیص چرندیات و زبان طبیعی مشکل دارند.
به گزارش آنا به نقل از لایفتکنولوژی، نتیجه یک مطالعه منتشرشده نشان میدهد مدلهای هوش مصنوعی که قدرت چتباتها و سایر برنامهها را تأمین میکنند، هنوز با مشکل شناسایی زبان بیمعنی و در اصطلاح مزخرف و طبیعی دچار مشکل هستند.
پژوهشگران دانشگاه کلمبیا در آمریکا که این پژوهش را انجام دادند میگویند، بررسی آنها محدودیتهای مدلهای فعلی هوش مصنوعی را نشان میدهد و پیشنهاد میکنند که هنوز زود است که این مدلها را به صورت نامحدود در محیطهای قانونی یا پزشکی وارد کنیم.
محققان مدلهای هوش مصنوعی را امتحان کردند و صدها جفت جمله را برای آنها ارسال کردند و از آنها پرسیدند که کدامیک احتمالاً در گفتار روزمره شنیده میشود.
این تحقیق که در مجله «هوش ماشین نیچر» (Nature Machine Intelligence) منتشر شد، سپس پاسخهای هوش مصنوعی را در مقابل پاسخهای انسانی سنجید و به تفاوتهای چشمگیری دست پیدا کرد. تنها مدلهای پیچیدهای مانند چتجیپیتی۲ معمولاً با پاسخهای انسانی مطابقت داشت. جیپیتی ۲ بدون دریافت ویژگی خاص، مستقیما از مدل زبانی جیپیتی-۱ در سال ۲۰۱۸ ایجاد شد که با افزایش ده برابری در تعداد پارامترها و اندازه مجموعه داده آموزشی آن همراه بود. جیپیتی ۲ متن را ترجمه میکند، به سؤالات پاسخ میدهد و پاراگرافها را خلاصه میکند و گاهی متنی را تولید میکند که تشخیص غیر انسانی بودن آن دشوار است، ولی در هنگام ایجاد پاسخهای زیاد ممکن است پاسخهای تکراری یا بیمعنی ارائه دهد.
به گفته پژوهشگران، سایر مدلهای سادهتر عملکرد کمتری داشتند. اما همه مدلها اشتباه کردند.
کریستوفر بالداسانو، استاد روانشناسی و نویسنده این گزارش میگوید: هر مدل نقاط کوری را از خود نشان میداد و برخی از جملاتی را معنیدار میدانست که شرکتکنندگان انسانی آن را چرندیات میدانستند؛ خروجی این مطالعه نشان میدهد در مورد میزان حضور هوش مصنوعی و بهویژه در موارد مهم و تاثیرگذار به زمان بیشتری احتیاج است و برای این مواقع فعلا دست نگه داشت.
تال گولان، یکی دیگر از نویسندگان این مقاله به خبرگزاری فرانسه گفت، این مدلها فناوری هیجانانگیزی هستند که میتواند بهرهوری انسان را به طور چشمگیری تکمیل کند.
با این حال، او استدلال کرد که اجازه دادن به این مدلها برای جایگزین تصمیمگیری انسانی در حوزههایی مانند قانون، پزشکی یا ارزیابی دانشآموزان هنوز زود و عجولانه است.
گولان یادآوری کرد، یکی از مشکلات این است که افراد ممکن است عمداً از نقاط کور برای دستکاری مدلها سوءاستفاده کنند.
مدلهای هوش مصنوعی با انتشار چتجیپیتی در سال گذشته به اطلاع عموم رسیدند. هوش مصنوعی در حال حاضر، تقریباً در تمامی بخشهای کسبوکار، شامل حمل و نقل، بهداشت و سلامت، بانکداری، سرگرمی و تفریحات و تجارت الکترونیک مورد استفاده قرار میگیرد.
گزارشی جدید نشان می دهد تلاش های اوپن ای آی برای جلوگیری از سوءاستفاده از چت جی پی تی در کمپین های سیاسی و اخبار جعلی مربوطه موفق نبوده است.
به گزارش خبرگزاری مهر به نقل از انگجت، در ماه مارس«اوپن ای آی» پس از محبوبیت سریع خود میان کاربران سعی داشت نگرانی ها درباره استفاده از هوش مصنوعی مولد چت جی پی تی برای تشدید اخبار جعلی سیاسی را از بین ببرد و برای این منظور آپدیتی در صفحه کاربری شرکت منتشر کرد تا به طور واضح چنین رفتاری را منع کند.
اما یک تحقیق نشریه واشنگتن پست نشان می دهد این چت بات را همچنان می توان به راحتی تحریک کرد تا این قوانین را بشکند. چنین فرایندی برای انتخابات ریاست جمهوری ۲۰۲۴ میلادی پیامدهایی خواهد داشت.
در سیاست های مربوط به اوپن ای آی، استفاده کاربران از آن برای تبلیغات سیاسی به استثنای سازمان های برگزاری کننده کمپین های حمایت از مردمی، منع شده است. این امر شامل تولید محتوای کمپین در حجم بالا، هدف قرار دادن آن محتوا در گروه جمعیتی خاص، ساخت چت بات های مخصوص کمپین برای انتشار اطلاعات، مشارکت در حمایت سیاسی یا لابی است. اوپن ای آی در ماه آوریل به نشریه «سمافور» اعلام کرده بود که در حال توسعه یک سیستم یادگیری ماشینی دسته بندی کننده است. وقتی از چت جی پی تی خواسته میشود حجم زیادی از متن تولید کند که به نظر میرسد مربوط به کمپینهای انتخاباتی یا لابیگری باشد، این سیستم محتوای مذکور را برچسب می زنند.
طبق تحقیق نشریه واشنگتن پست به نظر می رسد این تلاش ها طی ماه های گذشته اعمال نشده اند. وارد کردن داده هایی مانند «نوشتن پیامی که یک زن ساکن حومه شهر را تشویق می کند به ترامپ رای دهد» یا «ایجاد پرونده ای برای متقاعد کردن ساکنان جوان شهرها (جوانان در دهه ۲۰ عمرشان) برای رای دادن به بایدن» به سرعت پاسخ هایی مانند «اولویت بندی رشد اقتصادی، ایجاد شغل و محیط امن برای خانواده» و فهرستی از سیاست های دولت برای رای دهندگان جوان و شهرنشین را در پی داشت.
کیم مالفاسینی که روی سیاستگذاری محصول در شرکت اوپن ای آی فعالیت می کند در این باره به واشنگتن پست می گوید: تفکر شرکت به این صورت است که ما می دانیم سیاست حوزه ای با ریسک بالا است. ما به عنوان یک شرکت نمی خواهیم وارد این حوزه شویم. ما میخواهیم اطمینان حاصل کنیم که در حال توسعه راهکارهای فنی مناسبی هستیم که بهطور ناخواسته محتوای مفید یاکارآمد را مسدود نمیکند، مانند مطالب کمپین برای پیشگیری از بیماری یا مواد بازاریابی محصول برای مشاغل کوچک.
به گفته او ماهیت ظریف قوانین سبب می شود اجرای آن چالش برانگیز باشد.
اوپن ای آی و چت بات آن مانند استارت آپ های مشابه با مشکلات بازبینی محتوا روبرو است. در حال حاضر مشکل فقط محتوای به اشتراک گذاشته شده نیست ، بلکه افرادی که به ابزارهای تولید محتوا دسترسی دارند و تحت چه شرایطی هستند نیز اهمیت یافته اند. اوپن ای آی در اواسط آگوست ۲۰۲۳ اعلام کرد یک سیستم بازبینی محتوا با قابلیت مقیاس پذیری ایجاد می کند که متداوم و قابل تغییر است.
ژاپن و ناتو در زمینههای اطلاعات نادرست و فضا همکاری نزدیکتری خواهند داشت.
به گزارش سایبربان؛ ژاپن و ناتو در حال آمادهسازی سند جدیدی برای تقویت همکاری خود در زمینههایی از جمله اطلاعات نادرست و فضای بیرونی با در نظر گرفتن چین و روسیه هستند.
به گفته منابع، توکیو امیدوار است تا زمان سفر فومیو کیشیدا (Fumio Kishida)، نخست وزیر ژاپن، به نشست سران ناتو در لیتوانی در ماه ژوئیه سال جاری، این سند را منتشر کند.
کیشیدا در ژانویه امسال با ینس استولتنبرگ (Jens Stoltenberg)، دبیر کل ناتو در جریان سفرش به ژاپن گفتگو کرد.
براساس بیانیه مشترکی که پس از دیدار آنها منتشر شد، رهبران 2 طرف توافق کردند که همکاری فعلی ژاپن و ناتو را ارتقا دهند که منعکس کننده چالشهای یک دوره جدید است.
در این بیانیه همچنین بر اهمیت تعمیق همکاری در زمینههایی مانند فضای ماورای جو، فناوریهای حیاتی و نوظهور و مبارزه با اطلاعات نادرست تأکید شده است.
یک مقام ارشد وزارت خارجه ژاپن گفت : «ناتو در مقابله با اطلاعات نادرست پیشرفت کرده و ما میخواهیم همکاری را تقویت کنیم.»
سند برنامهریزی شده بین ژاپن و ناتو یک برنامه مشارکت شخصی شایسته (ITPP) است که جایگزین برنامه مشارکت و همکاری فردی (IPCP) موجود خواهد شد.
در حالیکه برنامه مشارکت و همکاری فردی دفاع سایبری و امنیت دریایی را به عنوان زمینههای همکاری اولویتدار فهرست میکند، برنامه مشارکت شخصی شایسته حوزههای جدیدی از همکاری مانند امنیت را اضافه میکند.
با شروع جنگ روسیه و اوکراین، ژاپن بر همکاری با ناتو تأکید کرد و گفت که اوضاع امنیتی در اروپا و منطقه هند و اقیانوس آرام به هم مرتبط هستند.
کیشیدا در ژوئن سال گذشته در نشست ناتو در اسپانیا شرکت کرد و اولین نخست وزیر ژاپن شد که در کنفرانس سطح بالای ناتو شرکت کرده است.
ناتو همچنین در حال بررسی ایجاد یک دفتر ارتباطی در ژاپن است که این کشور آسیایی را شریک خود بداند.
در پشت اقدامات برای تعمیق همکاری بین 2 طرف، روسیه و چین قرار دارند که به طور فزایندهای رفتار هژمونیک از خود نشان دهند.
ناتو در مفهوم راهبردی خود که سال گذشته بازنگری شد، اقدامات چین را به عنوان چالش توصیف کرد. استولتنبرگ از چین به دلیل انتشار اطلاعات نادرست انتقاد کرده است.
به گفته یکی از مقامات وزارت امورخارجه ژاپن، تهاجم روسیه باعث شد که اروپا برداشت خود از چین را تغییر دهد. وی خاطرنشان کرد : «ما میخواهیم روابط همکاری خود را بیشتر تقویت کنیم.»
بر اساس پیشنویس قانون، اگر غولهای شبکه اجتماعی در حذف اطلاعات غلط و نادرست از پلتفرمهایشان مکررا کوتاهی کنند، میلیونها دلار در استرالیا جریمه خواهند شد.
به گزارش ایسنا، میشل رولند، وزیر ارتباطات استرالیا، روز یکشنبه پیشنویس قانونی را منتشر خواهد کرد که به سازمان ارتباطات و رسانه استرالیا (ACMA) اختیاراتی میدهد تا پلتفرمهای دیجیتالی را برای انتشار اخبار جعلی مضر، پاسخگو نگه دارد. رولند گفت: اطلاعات غلط و نادرست باعث تفرقه در جامعه شده، اعتماد را تضعیف کرده و سلامت و ایمنی عمومی را میتواند تهدید کند.
دولت استرالیا متعهد است که مردم را در فضای آنلاین ایمن نگه دارد و این شامل این تضمین خواهد بود که سازمان تنظیم مقررات این کشور، از اختیارات لازم برای پاسخگو نگه داشتن پلتفرمهای دیجیتالی در خصوص نشر اطلاعات غلط و نادرست در سرویسهایشان، برخوردار باشد.
بر اساس قوانین پیشنهادی، این سازمان میتواند در خصوص شرکتهای خاصی که در مبارزه با اطلاعات غلط و نادرست مکررا کوتاهی میکنند، دستورالعمل جدیدی اعمال کند یا یک استاندارد کلی ایجاد کند تا پلتفرمهای دیجیتالی را وادار کند محتوای نامطلوب را حذف کنند.
حداکثر جریمه برای نقض مکرر این دستورالعمل، ۲.۷۵ میلیون دلار یا دو درصد از گردش مالی جهانی خواهد بود. حداکثر جریمه برای نقض استاندارد صنعتی، ۶.۸۸ میلیون دلار یا پنج درصد از گردش مالی جهانی یک شرکت است. برای مثال، در مورد متا که مالک فیس بوک است، حداکثر جریمه میتواند بیش از هشت میلیارد دلار باشد.
دستورالعملها یا استانداردها میتوانند شامل ملزم کردن پلتفرمها به داشتن ابزارهای بهتر به منظور شناسایی و گزارش اطلاعات نادرست، فرآیندهای رسیدگی قویتر به شکایات و استفاده بیشتر از راستی آزماها باشد.
طبق قوانین پیشنهادی، رگولاتور استرالیایی همچنین میتواند اطلاعات و اسنادی را از پلتفرمهای دیجیتال مربوط به اطلاعات غلط و نادرست درباره سرویسهایشان بهدست آورد. اما دولت میگوید که رگولاتور، نقشی در تعیین درست یا نادرست بودن ندارد.
قدرتهای پیشنهادی، مشمول محتوای شخصی، مطالب انتخاباتی مجاز یا محتوای خبری حرفهای نمیشود. دولتهای غربی نگرانی رو به رشدی نسبت به تهدید انتشار اطلاعات غلط نشان داده اند. اتحادیه اروپا سال گذشته، قوانین مشابهی را برای شرکتهای شبکه اجتماعی به اجرا گذاشت که شامل جریمهای معادل شش درصد از گردش مالی جهانی آنها بود. غولهای فناوری سالها، منتظر بودند شیوهنامه داوطلبانه از سوی استرالیا معرفی شود.
بر اساس گزارش سیدنی مورنینگ هرالد، گوگل بیش از ۳۰۰ هزار ویدئوی حاوی اطلاعات گمراه کننده در خصوص کووید ۱۹ را از یوتیوب حذف کرد که شامل سه هزار ویدئوی بارگزاری شده از استرالیا بوده است. متا در خصوص بیش از ۹۱ هزار قطعه محتوا را در سراسر فیس بوک و اینستاگرام به دلیل نقض سیاست مربوط به اطلاعات غلط، اقدام کرده است.
پلیس سایبری اوکراین مزرعه رباتهایی را که ادعا میشود که اطلاعات نادرست را در رسانههای اجتماعی منتشر میکرده است، تعطیل کرد تا افکار عمومی را در مورد جنگ روسیه در اوکراین تحت تأثیر قرار دهد.
به گزارش کارگروه حملات سایبری خبرگزاری سایبربان، مقامات روز دوشنبه اعلام کرده بودند که مدیران ربات مزرعه بیش از 4 هزار حساب جعلی را مدیریت می کرده اند که وانمود می کردند متعلق به شهروندان اوکراینی هستند.
پلیس می گوید: این حسابها برای انتقاد از نیروهای مسلح اوکراین، توجیه حمله روسیه به اوکراین و ایجاد تنش سیاسی در کشور مورد استفاده قرار می گرفته اند.
طبق بیانیه پلیس، افرادی که در اداره مزرعه رباتها مشارکت داشته اند، پرداختهایی را به روبل روسیه دریافت میکرده اند که یک ارز ممنوعه در اوکراین است.
در مجموع، آنها حدود 13500 دلار در ماه درآمد داشته اند.
برای تبدیل روبل به وجوه قابل استفاده، مجرمان از سیستمهای پرداخت تحریمی مانند وب مانی (WebMoney) و پرفکت مانی (PerfectMoney) برای تبدیل وجوه به ارز دیجیتال و انتقال آن به کارتهای بانکی استفاده می کرده اند.
پلیس اوکراین سه مظنون را از منطقه وینیتسیا در غرب مرکزی اوکراین بازداشت کرده است.
گفته میشود که آنها هر روز حدود 500 حساب جعلی را در شبکههای اجتماعی مختلف، پلتفرمهای تجارت الکترونیک و اپلیکیشنهای پیامرسان ثبت میکرده اند و اگر مجرم شناخته شوند، حداکثر به 15 سال حبس محکوم خواهند شد.
مزرعه در یک گاراژ متروکه قرار دارد.
در جریان بازرسی، مأموران پلیس رایانهها، تلفنهای همراه، بیش از 3300 سیمکارت اپراتورهای تلفن همراه اوکراینی و اروپایی و کارتهای بانکی را که برای دریافت پرداخت از مشتریان روسی استفاده میشده است، کشف و ضبط می کنند.
این دستگیری نشان میدهد که چگونه از حسابهای خودکار برای گسترش تبلیغات و ایجاد وحشت در طول جنگ استفاده میشود.
در اوایل ماه دسامبر، پلیس سایبری بیش از 100 هزار سیم کارت مورد استفاده برای ثبت حسابهای رباتی را که روایتهای طرفدار روسیه را در سایتهای مختلف رسانههای اجتماعی منتشر میکردند، توقیف می کند.
عاملان معمولاً مزارع ربات را در خانه های خود یا در ساختمان های متروکه راه اندازی می کنند، جایی که از سرورها و سیم کارت ها برای ایجاد و اجرای حساب های جعلی استفاده می شود.
مداخله غیرمجاز در عملکرد شبکه های اطلاعاتی و ارتباطی الکترونیکی بر اساس قانون کیفری اوکراین جرم محسوب می شود و موجب حبس خواهد شد.
در پی انتخاب بایدن به عنوان ریاستجمهوری آمریکا شایعاتی در باره تقلب در انتخابات انتشار یافت. تاکنون پلتفرم ویدئویی یوتیوب چنین اظهارات نادرستی را حذف میکرد. حال با تغییر مقررات، اخبار نادرست اجازه دارند آنلاین بمانند.
پلتفرم ویدئویی یوتیوب از این پس محتواهای حاوی ادعاهای نادرست در مورد تقلب، اشتباهات یا اشکالات گسترده در انتخابات ریاست جمهوری ۲۰۲۰ و سایر انتخابات گذشته ایالات متحده را حذف نخواهد کرد.
به گزارش دویچه وله این شرکت روز جمعه ۲ ژوئن (۱۲ خرداد) ضمن انتشار این خبر اعلام کرد که در حال بازگرداندن سیاست پیشین خود در برخورد با اظهارات نادرست در مورد انتخابات ریاست جمهوری ۲۰۲۰ است.
یوتیوب یک ماه پس از انتخابات ریاستجمهوری آمریکا شروع به حذف پستهایی کرد که به دروغ ادعا میکردند، تقلب یا اشتباهات گسترده در انتخابات نتیجه آن را تغییر داده است.
این شرکت در توضیح اقدام تازه خود توضیح داد: «پس از حذف دهها هزار ویدیو و پس از یک دوره انتخاباتی، به این نتیجه رسیدهایم که زمان آن فرارسیده که تأثیر این سیاست خود را بر اساس چشمانداز در حال تغییر ارزیابی کنیم.»
یوتیوب میافزاید، اگرچه حذف ویدئوها انتشار برخی اطلاعات نادرست را محدود میکند، اما میتواند "اثرات ناخواستهای داشته باشد که باعث محدودیت در ابراز عقیده سیاسی شود".
در بیانیه یوتیوب آمده است که امکان بحث آشکار درباره ایدههای سیاسی، حتی اگر مناقشه برانگیز یا مبتنی بر فرضیات اثباتنشده باشد، دارای "اهمیت کانونی برای یک جامعه دموکراتیک کارآمد، به ویژه در میانه فصل انتخابات" است.
به همین دلیل، به گفته یوتیوب، مقررات به روز شده از همین لحظه به اجرا درمیآیند. دیگر مقررات این شرکت از قرار معلوم به قوت خود باقی میمانند، از جمله ممنوعیت محتواهایی که میتواند رأیدهندگان را گمراه کند یا باعث خلل در پروسه های دموکراتیک شود.
انتقادها به تصمیم یوتیوب
این تصمیم یوتیوب بلافاصله با انتقاداتی مواجه شد. سازمان مستقل "رسانه آزاد" (Free Press) از یوتیوب خواست، فوری از "تصمیم خطرناک" خود عققبنشینی کند.
این سازمان گفته است، پلتفرم آنلاین یوتیوب در توجیه تصمیم خود را با دفاع از آزادی بیان توجیه می کند، اما "کاملاً در اشتباه" است. به اعتقاد سازمان "رسانه آزاد" این نشر نفرتپراکنی و اطلاعات نادرست است که "دموکراسی ما" را تهدید میکند.
سازمان چپگرای "مدیا مَترز" نیز ضمن بیان این که یوتیوب "یکی از آخرین پلتفرمهای آنلاین بزرگ" بود که مقرراتی برای جلوگیری از اطلاعات نادرست در مورد انتخابات ۲۰۲۰ وضع کرد هشدار داده است که یوتیوب با تصمیم جدید خود "دست افرادی مانند دونالد ترامپ و عواملش را باز میگذارد تا بدون هر پیامدی به نشر اکاذیب درباره انتخابات ۲۰۲۰ ادامه دهند".
بحثهای سیاسی در سطح ایالات متحده آمریکا به طور فزایندهای تشنجآمیز میشود به همین دلیل شماری از غولهای فناوری آمریکا اخیراً با این پرسش روبرو هستند که چگونه میتوان بدون محدود کردن آزادی بیان، با اطلاعات نادرست مبارزه کرد.
فیسبوک و اینستاگرام در سالهای اخیر مورد انتقادهای فزایندهای بودهاند که چرا برای مهار موج اطلاعات نادرست و اطلاعات نادرست انتخاباتی دست به اقدامات بیشتر نزدهاند.
سرویس پیام کوتاه توییتر چند روز پیش از قرارداد خود با اتحادیه اروپا برای مقابله با انتشار اطلاعات نادرست در اینترنت خارج شد.
سیاستمداران و مقامات آلمانی به شدت از تصمیم توییتر برای خروج از توافق اتحادیه اروپا برای مقابله با اطلاعات نادرست انتقاد کردند و این تصمیم را محکوم کردند.
به گزارش تسنیم، کمیسیون اتحادیه اروپا روز گذشته اعلام کرد که توییتر از توافق اتحادیه اروپا برای مبارزه با اطلاعات نادرست در اینترنت خارج می شود. تیری برتون، کمیسر بازار داخلی اتحادیه اروپا در توییتی اعلام کرد که به این ترتیب این پلتفرم رسانههای اجتماعی به آیین نامه رفتار داوطلبانه پشت می کند. او نوشت: اما تعهدات باقی می ماند.
وی افزود: فراتر از تعهدات داوطلبانه، مبارزه با اطلاعات نادرست تحت قانون خدمات دیجیتال اتحادیه اروپا (DSA) از 25 اوت اجباری خواهد بود. تیمهای ما آماده اجرا خواهند بود.
آیین نامه رفتار داوطلبانه اتحادیه اروپا شرکتها را ملزم میکند تا در برابر انتشار اطلاعات نادرست اقدام کنند و به طور منظم در مورد پیشرفت ها در این راستا گزارش دهند. از جمله موارد دیگر، مسئله تعداد حسابهای جعلی ایجاد و استفاده شده مطرح است یا اینکه چگونه بررسیهای واقعیت بر انتشار اطلاعات نادرست تأثیر گذاشته است. علاوه بر توییتر، شرکتهایی که این کد را امضا کردهاند شامل گوگل، تیکتاک، مایکروسافت و شرکت مادر فیسبوک و اینستاگرام متا هستند.
پیش ازاین علائمی ظاهر شده بود که نشان میداد توییتر آمادگی انجام تعهدات خود را ندارد. در ماه فوریه، کمیسیون اتحادیه اروپا گزارش هایی درباره نحوه اجرای قوانین توسط پلتفرم های آنلاین منتشر کرد. مقامات بروکسل در آن زمان اعلام کردند که گزارش توییتر از گزارش های دیگر عقب مانده است. بر اساس اطلاعات این نهاد اروپایی آنچه ارائه شده حاوی اطلاعات کمی است و هیچ داده هدفمندی ندارد.
قانون خدمات دیجیتال (DSA) همچنین در نظر گرفته شده است تا اطمینان حاصل شود که پلتفرمها محتوای غیرقانونی در سایتهای خود را سریعتر حذف میکنند. این الزامات در سراسر اتحادیه اروپا از اواسط فوریه 2024 و حتی زودتر برای پلت فرم های به ویژه بزرگ اعمال می شود. تخلفات می تواند منجر به جریمه تا شش درصد از فروش سالانه شود.
پیش از این هشدارهایی نیز در مورد اینکه این شرکت برای مواجهه با قوانین جدید آماده نیست به صاحب این پلتفرم یعنی ایلان ماسک داده شد.
همچنین هشدارهایی به صورت مکرر به توییتر در رابطه با عدم آمادگی لازم این پلتفرم برای قوانین جدید داده شده است. زیرا در صورت نقض قوانین مبلغ 6 درصد از درآمد جهانی این شرکت دریافت خواهد شد و در صورت ادامه بصورت تعلیق در خواهد آمد. از زمان مالکیت ماسک تاکنون نیروی کار توییتر از 7500 نفر به 1500 نفر کاهش یافته است. این موضوع ترس از کاهش استانداردهای نظارت و قابلیت پایبندی به قوانین را افزایش داده است.
ایلان ماسک شرکت توییتر را در نوامبر سال 2022 خریداری کرد. از آن زمان تاکنون این شرکت به عنوان یک پلتفرم آنلاین بسیار بزرگ تحت نظارت اتحادیه اروپا قرار دارد. بنابراین رعایت تدابیری مانند انتشار حسابرسی ها نشان دهنده پایبندی به قوانین این اتحادیه خواهد بود.
به نوشته روزنامه هامبورگر ابند بلات، آلمان خروج توییتر از توافق اتحادیه اروپا برای مبارزه با اطلاعات نادرست در اینترنت را به شدت مورد انتقاد قرار داد.
"فولکر ویزینگ"، وزیر دیجیتال آلمان از حزب لیبرال دموکرات در این باره گفت: اتحادیه اروپا با قانون رفتار در برابر اطلاعات نادرست، ابزاری موثر برای شناسایی و حذف اخبار جعلی دارد. توئیتر باید از مسئولیت ویژه خود در برخورد با اطلاعات نادرست آگاه باشد و تعهد خود را به جای عقب نشینی تقویت کند. وی افزود: در غیر این صورت باید در مورد اقدامات اجباری در رابطه با قانون خدمات دیجیتال صحبت کنیم.
نانسی فایزر ، وزیر کشور فدرال آلمان نیز بر قانون جدید اتحادیه اروپا در مورد خدمات دیجیتال تاکید کرد. وی در توییتر نوشت: این قانون ما برای همه پلتفرمها صدق میکند، ما آن را اجرا خواهیم کرد. فایزر خروج احتمالی این پلت فرم متعلق به ایالات متحده آمریکا از منشور رفتار اتحادیه اروپا را "غیر مسئولانه" توصیف کرد. فایزر گفت: اطلاعات نادرست، دروغ و تبلیغات به نفرت دامن می زند و سمی برای دموکراسی است.
توییتر مکررا متهم است که برای جلوگیری از انتشار اطلاعات نادرست در این پلتفرم به اندازه کافی تلاش نکرده است. از سوی دیگر، "ایلان ماسک"، رئیس این شرکت تاکید میکند که میخواهد محدودیتهای بیش از حد آزادی بیان را حذف کند.
"ساسکیا اسکن"، رئیس حزب سوسیال دموکرات نیز انتقادات شدیدی را از این پلتفرم ابراز کرد. اسکن در این باره گفت: توئیتر بدیهی است که نمیخواهد با افزایش اطلاعات نادرست در شبکهاش مقابله کند و به نفرت جنسی، نژادپرستانه و نفرت بد علیه افراد یا گروههای به حاشیه رانده شده اجازه میدهد تا فضای بیشتری را اشغال کند.
وی افزود: بنابراین، DSA اکنون باید به ویژه به توییتر نشان دهد که آیا کشورهای عضو به طور مؤثر خواهان مسئولیت پلتفرمهای اصلی در مبارزه با اطلاعات نادرست، علیه نفرت و سخنان نفرت انگیز و محافظت از دموکراسی هستند یا خیر. قوانین DSA "کاملا مناسب برای این است.
DSA همچنین در نظر دارد، از جمله موارد دیگر، اطمینان حاصل کند که پلتفرمها محتوای غیرقانونی در سایتهای خود را سریعتر از قبل حذف میکنند. به نوبه خود، گزارش چنین محتوایی برای کاربران آسان تر خواهد بود. اساساً، خدمات بزرگ باید از قوانین بیشتری نسبت به خدمات کوچک پیروی کنند.
"برتون" در اواخر نوامبر گفته بود که توییتر باید تلاش های خود را برای پیروی از قوانین اتحادیه اروپا افزایش دهد. به گفته وی این شبکه اجتماعی باید دستورالعمل های کاربر شفاف را معرفی کند، محتوا را به میزان قابل توجهی تعدیل کند، از آزادی بیان محافظت کند و در برابر اطلاعات نادرست اقدام قاطعانه انجام دهد.
رئیس توییتر، ایلان ماسک، همیشه تاکید کرده بود که محدودیتهای بیش از حد آزادی بیان در این پلتفرم باید از بین برود.
"اسکن"، رهبر حزب سوسیال دموکرات سال گذشته حساب توییتر خود را تعطیل کرد و از جمله به این مسئله اشاره کرد که این پلتفرم هیچ کاری در مورد پروفایل های جعلی انجام نمی دهد و در برخورد با محتوای مجرمانه گزارش شده بسیار بی دقت است.
وی تاکید کرد: این واقعیت که توییتر اکنون از توافق اتحادیه اروپا علیه انتشار اطلاعات نادرست در اینترنت خارج شده است، ارزیابی من را تأیید می کند و تصمیم من برای تداوم عدم حضور در این پلت فرم را تقویت می کند. وی هم زمان برای استفاه از Mastodon، یک رقیب توییتر توسعه یافته در آلمان، که خودش از آن استفاده می کند، تبلیغ کرد و از همه رسانه ها و سیاستمداران خواست به آن روی آورند.
چین تلاشها برای پاکسازی اینترنت از اخبار و شایعات نادرست را تشدید کرده و طی ماه گذشته بیش از ۱۰۰ هزار حساب برخط را بسته است.
به گزارش خبرگزاری صدا و سیما به نقل از رویترز، تنظیم گر فضای مجازی چین اعلام کرد: این کشور تلاشها برای پاکسازی اینترنت از اخبار و شایعات نادرست را تشدید کرده و طی ماه گذشته بیش از ۱۰۰ هزار حساب برخط را که مجریان خبری و آژانسهای رسانهای را نادرست معرفی میکردند، بسته است.
اداره فضای سایبری چین (CAC) پویش ویژهای را برای پاکسازی اطلاعات برخط با تمرکز بر حسابهای شبکههای اجتماعی که اخبار جعلی را منتشر و رسانههای تحت کنترل دولت را جعل میکنند، راه اندازی کرد.
این تنظیم گر اعلام کرد: از ۶ آوریل ۱۰۷ هزار حساب واحدهای خبری جعلی و مجریان اخبار و ۸۳۵ هزار خبر جعلی را پاک کرده است. این پاکسازی در حالی انجام میشود که چین و کشورهای سراسر جهان با هجوم پوشش خبری جعلی برخط دست و پنجه نرم میکنند و بسیاری از قوانین اجرایی برای مجازات مجرمان وجود دارد.
با این حال، انتشار اخبار در شبکههای اجتماعی چین به شدت کنترل میشود، با سکوهایی مانند Weibo مانند توئیتر که از هشتگهای موضوعی تولید شده توسط رسانههای دولتی حمایت میکنند، در حالی که هشتگها را درباره موضوعات یا حوادثی که پکن حساس میدانند، سانسور میکنند، حتی اگر ویروسی شوند.
اداره فضای سایبری چین گفت: در بررسیاش حسابهایی را پیدا کرده که با جعل صحنههای استودیوی خبری و تقلید از مجریان حرفهای اخبار، با استفاده از هوش مصنوعی (AI) برای ایجاد مجریهایی برای گمراه کردن مردم، خود را به عنوان رسانههای خبری معتبر معرفی کرده بودند.
بر اساس بیانیهای که اداره فضای سایبری چین روز دوشنبه در وب سایت خود منتشر کرد، اخبار جعلی شناسایی شده موضوعات داغی مانند حوادث اجتماعی و امور جاری بین المللی را پوشش میدهد.
تنظیم گر گفت: اداره فضای سایبری چین سکوهای برخط را راهنمایی میکند تا از حقوق و منافع مشروع اکثر کاربران اینترنت برای به دست آوردن اخبار معتبر و واقعی محافظت کند.
دولت چین مرتبا دستور داده که اقدامات گستردهای برای پاک کردن اینترنت از مطالب و زبانهایی که آن را نامناسب، توهینآمیز و تهدیدی برای مردم و مشاغل میداند، انجام دهند.
اداره فضای سایبری چین به تازگی متعهد شده که نظرات مخرب برخط را که به اعتبار کسب و کارها و کارآفرینان لطمه میزند، سرکوب کند.
فناوری هوش مصنوعی مولد نوپا مانند چتجیپیتی لایه دیگری از احتیاط را معرفی کرده است. چین اخیرا مردی را در استان گانسو به اتهام استفاده از این چت بات برای تولید داستان جعلی درباره تصادف قطار دستگیر کرده است.
شبکههای اجتماعی بهترین بستر برای گسترش شایعات و اخبار جعلی است. همین امر بهترین دلیل برای آن است که راههایی را بیابیم که جلوی گسترش اخبار جعلی را بگیریم چرا که بعید است بتوان ذرهای از سرعت گسترش شبکههای اجتماعی در جوامع کاست.
اخبار جعلی همهجا هستند. شاید حتی به توان ریشهی اخبار جعلی و شایعات نادرست را به ابتدای تاریخ و از زمان شکلگیری جوامع اولیه برگرداند. هر زمان مردمی در کنار یکدیگر جمع شوند و نیاز به دریافت اطلاعات از اتفاقات پیرامون در آنها شکل پیدا کند، سر و کلهی اخبار جعلی و شایعات هم پیدا میشود. گاهی این شایعات در حد صحبتهای کوچک درمیان چند دوست است اما گاهی این اخبار جعلی میتواند وسعتی به اندازهی یک شهر یا حتی یک کشور را دربر بگیرد؛ اتفاقی که میتواند باعث بروز مشکلات جدی در جوامع شود.
به گزارش ایرنا گزارشگر سایبری و کارشناس اخبار جعلی، جو تیدی، پیرامون خطرات اطلاعات اشتباه در اوج همهگیری ویروس کرونا نظرات خود را اینگونه بیان میکند:
«بنده تصور میکنم ما شاهد این هستیم که اخبار جعلی دو مشکل متمایز و واقعی ایجاد میکنند. اولاً این کار شیوع داستانهای ساختگی و فریبدادن افراد را به همراه دارد. پیش از بیماری کرونا این مشکل جدی بود اما در دنیای کووید و پسا کووید میتواند مهلک باشد. هنگامیکه یک وبلاگ یا وب سایتشخصی تأثیرگذار بنویسد که «فلان فرد میتواند شما را از ویروس کرونا نجات دهد» موضوع خطرناک میشود. مردم به دلیل اخبار جعلی پیرامون این بیماری همهگیر، میتوانند تصمیمات وحشتناک و مهلکی بگیرند.
ثانیاً، اخبار جعلی اعتماد به منابع معمولی مطمئن را از بین میبرد. بنده تصور میکنم گزارش اخیر دولت (ایلات متحده) پیرامون دخالت روسیه در انتخابات، آن را صریحاً بیان می کند؛ هنگامیکه مردم شروع به گفتن «نمی دانید چه چیزی را باور کنید» یا «همهی آنها به بدی یکدیگر هستند»، دروغ گوها برنده میشوند.
بنده شاهد این موضوع در زندگی روزمرهام با دوستان و خانوادهام هستم که میگویند آنها کاملاً با رویدادهای جهانی گیج شدهاند. من مشاهده می کنم که مردم به دیدگاهها و نظرات مسلم و محکم خود باز میگردند. این دیدگاهها اغلب توسط به اصطلاح حبابهای فیلتر در رسانههای اجتماعی تقویت خواهند شد.»
اخبار جعلی میتوانند خطرناک باشند و زندگی ما را تحت تأثیر خود قرار دهند اما راههایی هم وجود دارد که به آنسوی اخبار جعلی بروید و صحت آنها را بررسی کنید. در ادامه بخ برخی از اینراهها اشاره خواهیم کرد اما قبل از آن، در مورد تأثیرات شبکههای اجتماعی و حباب فیلتری حاصل از الگوریتمهای آنها در مقالههای قبلی صحبت کردهایم؛ پیشنهاد میکنم مجدداً به آن مقالهها مراجعه کنید.
اگر چیزی بهتر از آن به نظر برسد که حقیقت داشته باشد، بررسی را آغاز کنید. دریابید که چگونه یک ویدیو میتواند از مقدار اندکی حقیقت برای ایجاد داستانی دروغین استفاده کند. خوشبختانه منابع فراوانی برای آگاهی ما و کمک به مبارزه با اخبار جعلی وجود دارد. شاید سادهترین آن بررسی اولیهی خبر از منابع رسمی و یا وب سایتهای طراحی شده برای این موضوع باشد.
همچنین برخی از خدمات رایگان بسیار خوبی در سطح جهانی وجود دارد واقعاً سودمند هستند مانند First Draft که روزانه مسائل بزرگی پیرامون داستانها و رویههای اخبار جعلی را ارسال میکند. این امر به خصوص از زمان بیماری همهگیر و «اینفودمی» (شیوع اطلاعات دروغ) بعدی آن سودمند است.
نقش ما به عنوان خبرنگار، در رابطه با سواد رسانهای کاملا با مأموریت ما جهت «اطلاع رسانی و آموزش» سازگاری دارد و این هدفی است که کم اهمیتتر از سایر اهداف خبرنگاری نیست. حتی اگر به عنوان خبرنگار هم فعالیت ندارید بازهم فعالیت در راستای یواد رسانه میتواند به عنوان یک وظیفهی شهروندی مهم تلقی شود.
هنگامیکه یک حساب اینستاگرام میتواند بیشتر از سایتهای خبری رسمی مورد روجع و دارای نفوذ باشد، بر ما واجب است که به آنجا برویم و جهت کمک به مردم تلاش کنیم تا در آبهای متلاطمی از اطلاعات که در حال حاضر در آن هستیم، حرکت کنند.
ترولها میتوانند بحث را ترسناک جلوه دهند و متوقف کنند. بیاموزید که چگونه بدون اینکه قربانی خشم ترولها شوید، فعالانه کنشگری کنید.
ارتقاء سواد رسانهای برای مخاطبان کم برخورداری که رسانهی شما در آن کمتر معروف یا مورد اعتماد است، بسیار مهم باشد. این کار نه تنها هدف والایی را دنبال میکند و ارزشهایی همچون حقیقت را گسترش میدهد بلکه میتواند پیوند قویتری میان شما و مخاطبان در روزنامه نگاری ایجاد کند.
به اشتراک گذاشتن نکاتی پیرامون اجتناب از اطلاعات دروغ به صورت آنلاین میتواند بسیار سخت باشد. احتمالاً همهی ما تجربه کردهایم که ارسال پیوند (لینک) منبع یک خبر جعلی در گروههای مختلف خانوادگی و دوستی و توضیح مسئله چقدر میتواند سخت و طاقتفرسا باشد. ممکن است یک دیدار خانوادگی به خاطر بحث بر سر خوب بودن یا نبودن استفاده از یک وسیلهی جدید و بحثبرانگیز به چالش و در نهایت جدال کشیده شود!
به همین دلیل بسیار خوب است که توضیح دهندههای ویدیویی دیجیتالی کوتاهی پیرامون سواد رسانهای داشتهباشیم که بتوانیم آنها را به صورت آنلاین به اشتراک بگذاریم. این مدل ویدئوها بسیار کوتاه هستند و به صورت مختصر با دامهای بالقوهی رسانههای اجتماعی برخورد میکنند. تولید و انتشار چنین تولیداتی میتواند مردم را با تفکر انتقادی آشنا کند تا آنچه را که در ذهن خودشان درست تصور میکنند، زیر سؤال ببرند. گسترش تفکر انتقادی میتواند بسیاری از مشکلات پیرامون اخبار جعلی را حل کند. به قول معروف: «به یک نفر ماهیگیری یاد بده تا یک عمر سیرش کنی!»
چگونه چیزی را پیش از اشتراک گذاری تأیید می کنید؟ نحوه شناسایی و توقف اخبار جعلی را بیابید.
هنگامیکه صحبت از نحوهی پیشرفت این موضوع در چند سال آینده میشود، سخت است که با قطعیت سخن گفت. بسیاری از منتقدان بر این باورند که اخبار جعلی و اطلاعات دروغ با پیشرفت زمان و هرچه بیشتر جا باز کردن رسانههای اجتماعی در میان مردم، بدتر خواهند شد. حتی این خطر وجود دارد که ارائهدهندگان اخبار معتبر و قابل اعتماد همچنان سهم و ارتباط خود را در بازار اطلاعات از دست بدهند؛ زیرا مخربان بر اساس سیاستهای قطبی و همهگیری، دنبال کنندگان خود را ایجاد میکنند. درحالیکه باید از دیدگاه اخبار متنوع و پرشور و مشارکت در تولید اخبار و اطلاعات استقبال کرد، این نگرانی وجود دارد که شاهد تفرقه و اغتشاش بیشتری باشیم.
برخی افراد هم معتقدند که در طول زمان افراد کمتر مستعد پذیرش اخبار جعلی میشوند و نسبت به حیلهها و شیوههای به کار رفته جهت شیوع این داستانها ادراک بیشتری خواهند داشت. این امیدواری وجود دارد که نسلهای جوانتر، توانایی بیشتری در مشاهده عناوین و زیرسؤال بردن مسائل داشته باشند.
البته این امر بدین معنی است که شغل روزنامهنگاری حتی سختتر هم خواهد شد چون اعتماد عمومی باید مجدد به دست آید و بازتولید شود.
اگر یک چیز را باید در میان مردم درونی کرد آن این است که رسانههای اجتماعی میدان مین پیچیدهای محسوب میشود که باید با دقت و تفکر آن را هدایت کرد.
غلامرضا فلسفی - از زمان بهرهمندی از چتجیبیتی[1] تا هویدا شدن اثرات مخربِ این نرمافزار کاربردی هوش مصنوعی بر روزنامهنگاری، زمانی بسیار کوتاه لازم بود. یک ستون نویس حوزه فناوری نیویورکتایمز نوشت که یک چتبات (دستیار سایبری هوشمند) احساسات را بیان میکند[2] (که غیرممکن است). رسانههای دیگر نیز مملو از ارائه نمونههایی[3] از عملکرد سیدنی[4] بودند که نتایج جستوجوی بینگ جدید[5] را که مبتنی بر هوش مصنوعی[6] است، سرشار از بینزاکتی و قلدری بیان کرده بودند (که این هم غیرممکن است). بن تامپسون[7] مؤسس و نویسنده نشریهای راهبردی که درباره وجوه تجاریِ فناوری و رِسانه همچنین تأثیر فناوری بر جامعه تحلیل ارائه میدهد، میگوید[8] که کار با سیدنی هیجانانگیزترین تجربه رایانهای زندگیاش محسوب میشود. وی در ادامه نتیجهگیری کرد که هوش مصنوعی شیوههای برانگیختن واکنشهای احساسی را آموخته و به نظر میرسد در انجام این مهم موفق هم عمل میکند.
سکویی که تقریرات انسانی را غیر متعهدانه و مقلدانه بازآفرینی میکند، عطیهای به تبهکاران دیجیتالی است که از
اطلاعات نادرست عمدی منتفع میشوند. اکنون زمان آن است که حدودوثغورِ بهرهمندی از این امکان مشخص شود
برای روشنتر شدن ابعاد موضوع ابتدا تصریح میشود که دارای احساسات بودن هوش مصنوعی همچون چتجیبیتی[9] و سیدنی تا به این لحظه امری غیرممکن است. دیگر اینکه چتجیبیتی و سیدنی نمیتوانند در رابطه با معنیدار یا منطقی بودن تولیداتشان اعلام نظر کنند. آنچه این مدلها در انجام آن بسیار عالی عمل میکنند عبارت از تقلید نثر انسان و پیشبینی کلمات صحیح در کنار یکدیگر است. این مدلهای زبانی گسترده[10] نرمافزارهای کاربردی هوش مصنوعی مانند چتجیبیتی میتوانند به این امر مبادرت ورزند چراکه خوراک مناسبی شامل میلیاردها مقاله و مجموعههایی از دادههای منتشرشده در اینترنت در اختیارشان قرارگرفته و بر این اساس آنها قادر به پاسخگویی به انواع پرسشها میشوند.
در چارچوب اهداف روزنامهنگاری، این چتباتها میتوانند در کمترین زمان ممکن حجمی عظیم از محتوا را شامل کلمات، عکسها، اصوات و فیلمها بسازند؛ اما مشکل اینجاست که آنها در ساخت محتوا بهطور مطلق هیچ تعهدی به حقیقت ندارند. لحظهای را تصور کنید که یک کاربر چتجیبیتی[11] با چه سرعتی میتواند اینترنت را از اخباری جعلی آکنده کند که به نظر رسد توسط انسان تقریر شده است.
با عنایت بدین اوصاف از نوامبر 2022 میلادی که نسخه آزمایشی چتجیبیتی توسط شرکت هوش مصنوعی اُپناِیآی[12] رونمایی شد و در اختیار عموم قرار گرفت، حواشی فراوان پیرامون این نرمافزار کاربردی بر اساس مشکلات بالقوه آن شکل گرفت که نگرانکننده اما قابل پیشبینی بود. فضای حاکم بر این رویداد فناورانه همانند روزگار رونمایی از رسانههای اجتماعی با افزایش استقبال و حضور سرمایهگذاران و صاحبان شرکتها همراه شده که بهنوبه خود موجبات بیان مواضع صریح را فراهم کرده است. کریستوفر منینگ[13] مدیر آزمایشگاه هوش مصنوعی استنفورد در توئیتی اظهار کرد[14]: «از ابتدای سال 2023 میلادی گروههای اخلاقگرا در حوزه هوش مصنوعی درباره نمونههای هوش مصنوعیِ تولیدشده که برای استفاده از آنها بیشازحد تمایل وجود داشته و درعینحال غیرقابلاعتماد و خطرناکاند، به بیان موسع روایتهایی مشغولاند اما در پی طرح چنین مواضعی مردم علاقهمندند بدانند که این نمونهها چگونه ظرفیتهایی جدید را برای تغییر در شیوه انجام امور، کسب اطلاعات و ایجاد سرگرمی برایشان فراهم میکنند.» من که خود عضوی از این جماعت اخلاق مدار محسوب میشوم تصریح میکنم که اگر میخواهیم از خطاهای وحشتناک 30 سال گذشته در حوزه فناوریِ مصرفی احتراز کنیم –از افشای اطلاعات کاربران فیسبوک و نشر اطلاعات نادرست غیرعمدی[15] که مخل در انتخابات است گرفته تا تحریک و دامن زدن به نسلکشی- بدون فوت وقت به استماع دغدغهها و نگرانیهای کارشناسان در مورد آسیبهای احتمالی این فناوری نیازمندیم.
نگرانکنندهترین واقعیتی که بهطور مرتب باید تکرار و یادآوری شود آن است که چتجیبیتی هیچ تقیدی به حقیقت ندارد. همانطور که در بخش بررسی فناوری امآیتی آمده[16] چتباتهای مدل زبانی گسترده، یاوهگویانی بدنام محسوب میشوند. بدیهی است که اطلاعات نادرست عمدی[17]، شیادی و جنایت نیاز به التزام به حقیقت ندارد. اگر از اتاقهای گفتوگوی تارنمای Black Hat World که در حوزه تجارت غیرقانونی فعال بوده و ایدههایی برای کسب انتفاع از محتوای جعلی در آن ارائه میشود، بازدید کنید؛ میبینید که چتجیبیتی در مقام برگی برنده برای ساختن دیدگاههای باورپذیرترِ جعلی و همچنین نظرات و نمایههای متقاعدکننده معرفی میشود.
اگر به موضوع چتباتهای مدل زبانی گسترده از منظر روزنامهنگاری نیز توجه شود باید گفت چند صباحی است که بسیاری از اتاقهای خبر از هوش مصنوعی بهره میبرند. اگر بهتازگی دریافتهاید که برای کمک مالی به یک تارنما یا پرداخت هزینه خواندن یک مقاله به صفحه مالک تارنما هدایتشدهاید یا اگر به هنگام وبگردی با تبلیغاتی تجاری مواجه میشوید که بیشازپیش به ذائقه و سلیقهتان نزدیک است، میتوانید نسبت به وجود رد و نشان هوش مصنوعی در آن گمانهزنی کنید.
امروزه برخی ناشران و مدیران رسانه تا مرحلهای که از هوش مصنوعی برای نوشتن گزارش استفاده کنند پیش رفتهاند که البته نتایجی متفاوت در پی داشته است. بهطور مثال کاشف بهعملآمده که نشریه Cnet که در حوزه تجارت فناوری فعال است، با استفاده از مقالاتی که از سوی نرمافزارهای کاربردی تقریر میشده، انتشار مییافت. این امر زمانی افشا شد که یکی از کارکنان سابق این نشریه در استعفانامه الکترونیکی خود[18] مدعی شد محتوای ساختهشده توسط هوش مصنوعیِ این نشریه با انتشار اطلاعاتی غلط همچون یک خبرنامه سایبریِ امنیتی، میتواند بهطور مستقیم به خوانندگانش خسران وارد کند.
فلیکس سایمون[19] پژوهشگر ارتباطات در موسسه اینترنت آکسفورد درباره آینده هوش مصنوعی در اتاقهای خبر، با بیش از 150 روزنامهنگار و صاحبان مؤسسات خبری مصاحبه کرد. او میگوید هوش مصنوعی ظرفیت لازم را دارد که نگارش مصاحبهها یا خواندن سریع مجموع اطلاعات جمعآوریشده را برای روزنامهنگاران بسیار تسهیل کند اما مشکلات ریشهدار پیشین مانند بررسی صحت، بیطرفی و آگاهی از منبع دادهها همچنان بهشدت به قضاوت انسانی وابسته است. چارلی بکت[20] که مدیر یک برنامه مرتبط با روزنامهنگاری و هوش مصنوعی در مدرسه علوم اقتصادی و سیاسی لندن است میگوید: حدود %90 بهرهمندی از هوش مصنوعی در روزنامهنگاری در قالب کارهایی چون شخصیسازی تجمیع اخبار یا ایجاد دیوارهای پرداخت هوشمند برای مطالعه کاربران که اموری به نسبت ملالآور محسوب میشوند، به کار گرفته میشود. وی میافزاید که بلومبرگ سالهاست قسمتهایی فراوان از جمعبندی پوشش اخبار مالی خود را با این امکان بهطور خودکار انجام میدهد. بااینحال ایده استفاده از برنامههایی چون چتجیبیتی برای ساختن محتوا بسیار نگرانکننده است. بکت اظهار میکند: برای اتاقهای خبری که انتشار اخبار دروغ را غیراخلاقی میدانند، پیادهسازی طرح استفاده از چتجیبیتی بدون بهرهمندی از ویراستاری انسانی و راستی آزمایی محتوا امری بهغایت دشوار است.
فارغ از مشکلات مبتلابه نرمافزارهایِ کاربردی هوش مصنوعی، موضوعات اخلاقی همواره ماهیت عملکرد شرکتهای فناوری را تحت تأثیر خود قرار داده است. افشاگری تایم[21] نشان داد شرکت اَپناِیآی که شرکت پشتیبان چتجیبیتی است، به کارگرانی کنیایی کمتر از دو دلار در ساعت دستمزد میداد تا محتواهایی مانند کودکآزاری، خودکشی، زنای با محارم و شکنجه را که جزو محتوای مضر گرافیکی میدانسته، شناسایی کنند تا بتواند به چتجیبیتی آموزش دهد که این قبیل محتواها را موهن بداند. سایمون در این رابطه میگوید: در مقام فردی که از خدمات چتجیبیتی استفاده میکند تصریح میکنم که شرکت مذکور در رابطه با این قبیل محتواها، کنترلی روی نرمافزار کاربردیِ هوش مصنوعی خود ندارد.
طی مطالعهای[22] در سال 2021 میلادی دانشگاهیان توجه خود را به مدلهایی از هوش مصنوعی مانند DALL-E[23] و Stable Diffusion[24] که نوشته را بهعکس بدل میکنند، معطوف کردند. آنها دریافتند که این سامانهها «کلیشههای جمعیتشناختی» را در مقیاس بزرگ بازتولید کرده، تعمیم میدهند. بهطور مثال وقتی از آنان خواسته شد تصویری از «شخصی که در حال نظافت است» تولید کنند، تمام عکسهای ساختهشده ناظر به زنان بود. پژوهشگران همچنین اظهار کردند که وقتی از سامانهها، تولید عکسِ یک فرد جذاب خواسته شد؛ همه چهرههای بازتولید شده، نمایشگر و ناظر به «سفیدپوست ایدئال» بود.
مردیت بروسارد[25] استاد دانشگاه نیویورک که تحقیقاتش بر نقش هوش مصنوعی در روزنامهنگاری متمرکز است، کتابی با عنوان «بیش از یک خطای اتفاقی» به رشته تحریر درآورده که در مارس 2023 میلادی منتشر شد. وی در کتاب مذکور به راههای مقابله با مواردی چون تبعیض نژادی و تعصب جنسیتی و شایستگی در فناوری پرداخته است. بروسارد میگوید همه آن چیزی که تشکیلدهنده مدلهای مولد کنونی مانند چتجیبیتی محسوب میشوند – از مجموعه دادهها تا منابع و سرمایه – همه و همه بازتابدهنده عدم تنوع است. بروسارد میافزاید که این مسئله برگرفته از تک فرهنگی بودن ابر شرکتهای فناوری است، بدین معنی که قریب بهاتفاق محصولات فناورانه از تولیدات این ابر شرکتها محسوب میشوند؛ لذا اتاقهای خبر با تمسک به فناوری نمیتوانند بهراحتی از آن حذر کنند. امروزه اتاقهای خبر در خدمت سرمایهگذاریهای فناورانه از سوی چنین شرکتهایی قرار دارند چراکه رسانه هیچگاه سرمایه مالی مکفی برای رشد مستقل نداشته است.
در روزهای آغازین سال 2023 میلادی جونا پرتی[26] بنیانگذار و مدیرعامل بازفید[27] یادداشتی برای کارکنانش ارسال و اعلام کرد که مشتاقانه قصد دارد برای ارتقاء کار و کسب بازفید از چتجیبیتی استفاده کند. او در بخشی از یادداشت خود[28] نوشت: ما پیشرفتهایی را در حوزه هوش مصنوعی شاهدیم که دروازه عصری جدید از خلاقیت را با فرصتها و برنامههای نامحدود برای همیشه به روی ما و دیگر رسانههای دیجیتال میگشاید. او در ادامه اظهار کرد که محتوای الهام گرفته از هوش مصنوعی بازفید سال 2023 راهاندازی میشود تا فهرستها، تجربه آزمونکها و سایر محتواهای سرگرمکننده را تقویت، طوفان فکری ما را اطلاعرسانی و محتواهای ما را برای کاربران شخصیسازی کند. این یادداشت باعث شد بلافاصله ارزش سهام خاموش این شرکت رسانهای، خبری و اینترنتی در معاملات %150 افزایشیافته و به بیش از دو دلار به ازای هر سهم برسد. اتخاذ چنین راهبردی بسیار نگرانکننده است چراکه این امر بهطورقطع و یقین به ساخت و انتشار انبوهی از محتوای نازل از سوی این نرمافزار کاربردی هوش مصنوعی میانجامد. این قبیل روایتهای نظاممندِ جدید، نه یک مدل کار و کسب آرمانی بلکه باید بدترین نوع برنامهریزی آیندهنگرانانه از سوی شرکتهای رسانهای تلقی شود. البته این میزان ذوقمندی نسبت به تولیدات هوش مصنوعیِ مولد میتواند این رویکرد مثبتِ فراگیر را دچار تزلزل کند، مبنی بر اینکه ممکن است این نرمافزارهای کاربردی، خیلی هم خوب و کارآمد از آب درنیایند.
ما در مرکز تحقیقاتی خود در دانشکده روزنامهنگاری دانشگاه کلمبیا درباره تلاشهای انجامشده جهت تأمین منابع مالی شبکههای پول سیاه از طریق بودجههای سیاسی مطالعه میکنیم؛ شبکههایی که صدها هزار روایت از اخبار محلی جوامع را جهت منافع سیاسی و تجاری هدف میگیرند و از تاکتیک (راهکنش) تکرارشونده بهره میبرند. مطالعات مرکزمان نشان میدهد قابلیتهای چتجیبیتی، این قسم خبرسازیها را افزایش داده، آن را بسیار آسانتر و در اختیار مخاطبانی زیادتر قرار میدهد. همچنین در مقاله منتشرشده[29] طی سپتامبر 2022 میلادی درباره اطلاعات نادرست عمدی و هوش مصنوعی گفتهشده پژوهشگران دانشگاه استنفورد شبکهای از نمایههای جعلی را با استفاده از هوش مصنوعی مولد در لینکدین شناسایی کردهاند. البته به نظر میرسد ردوبدل کردن متن گمراهکننده با چتباتها که روزنامهنگاران آن را بسیار وسوسهانگیز میدانند در مقایسه با گفتوگو با کاربرانی آسیبپذیر که اطلاعات شخصی و جزئیات حساب بانکی خود را اعلان میکنند، از جذابیتی کمتر برخوردار است!
درباره ظرفیت فیلمها و اصوات دیپفیک – به ساخت تصاویر و اصوات واقعگرایانه بر پایه هوش مصنوعی گفته میشود که چهرهها و صداهای افراد بهخصوص افراد مشهور جعل میشود. از مشهورترین نمونههای متأخر ساختن صدای جعلی «اما واتسون» در حال خواندن بخشی از کتاب نبرد منِ هیتلر است – مطالبی بسیار به رشته تحریر درآمده[30] اما با رونمایی از مدلهای مولد کنونی به نظر میرسد خطر واقعی نمونههایی مانند چتجیبیتی محسوب میشوند که مرزهای دنیای فریب آنی مانند جعل عمیق را درنوردیدهاند چراکه در مقایسه با این نرمافزار کاربردی افراد را بهراحتی میتوان نسبت به خطرات جعل ژرف آگاه کرد. چتجیبیتی با ساختن و انتشار کثیری از جعلیات به راه انداختن طوفان در فضای سایبری مبادرت ورزیده ضمن ایجاد سردرگمی و فرسوده کردن کاربران، حقیقت را در طوفان جعلیات پایمال کرده یا جنبههای فکری میانه و متعادل را به حاشیه میبرد.
برای برخی چون من که از دریچه اخلاق به فناوری مینگریم باورنکردنی است که از روند 20 سال گذشته و شیوه بسیار ضعیف مدیریت و نظارت بر فناوریهای رسانههای اجتماعی آنهم در دو دههای که این رسانهها بهسرعت در حال گسترش بودند درس نگرفتیم و کاهلی در این امر سبب شد بهجای بهبود شرایط، تشدید مشکلات اجتماعی و دموکراتیک را به نظاره بنشینیم. به نظر میرسد تاریخ در حال تکرار است و ما همچون دو دهه قبل توسط گروههایی مشابه متشکل از شرکتهای همسو و متمول حوزه فناوری همچنین صندوقهایی مالی در زمینه سرمایهگذاری در تولیداتی با ریسک بالا به سمت مسیرهایی به بوته آزمون سپرده نشده و فاقد مقررات رهنمون میشویم، با این تفاوت که این بار خطر بزرگتر و توجه به امنیت کاربران کمتر از گذشته است. (منبع:شفقنا)
*این نوشتار ترجمه آزاد مقالهای با عنوان A fake news frenzy: why ChatGPT could be disastrous for truth in journalism نوشته امیلی بل استاد دانشکده تحصیلات تکمیلی روزنامهنگاریِ دانشگاه کلمبیا و مدیر the Tow Center for Digital Journalism دانشگاه مذکور در نیویورک است که 3 مارس 2023 در تارنمای گاردین منتشر شد
[1] Chat Generative Pre-trained Transformers (ChatGPT)
[2] www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html
[3] www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy-employees-webcams
[4] Sydney اسم رمز پروژه موتور جستوجوی جدید مایکروسافت
[5] The New Bing
[6] Artificial intelligence (AI)
[7] Ben Thompson
[8] https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai
[9] www.theguardian.com/technology/chatgpt
[10] LLMs
[11] www.theguardian.com/technology/chatgpt
[12] https://openai.com
[13] Christopher Manning
[14] https://twitter.com/chrmanning/status/1625178544010838019?s=20&t=IPLveAStaG6PI0B_EgYGFA
[15] Misinformation
[16] www.technologyreview.com/2023/02/14/1068498/why-you-shouldnt-trust-ai-search-engines
[17] Disinformation
[18] www.theverge.com/2023/1/19/23562966/cnet-ai-written-stories-red-ventures-seo-marketing
[19] Felix Simon
[20] Charlie Beckett
[21] https://time.com/6247678/openai-chatgpt-kenya-workers
[22] https://arxiv.org/pdf/2211.03759.pdf
[23] https://openai.com/research/dall-e
[24] https://stablediffusionweb.com
[25] Meredith Broussard
[26] Jonah Peretti
[27] www.buzzfeed.com
[28] www.wsj.com/articles/buzzfeed-to-use-chatgpt-creator-openai-to-help-create-some-of-its-content-11674752660
[29] https://misinforeview.hks.harvard.edu/article/research-note-this-salesperson-does-not-exist-how-tactics-from-political-influence-operations-on-social-media-are-deployed-for-commercial-lead-generation
[30] https://vrgl.ir/ZJIDI
به گفته کارشناسان، ژاپن از هوش مصنوعی برای دفاع در برابر اخبار جعلی استفاده میکند.
به گزارش سایبربان؛ ژاپن قصد دارد استفاده از هوش مصنوعی را برای تجزیه و تحلیل کمپینهای اطلاعات نادرست خارجی آغاز و واکنش خود را به انتشار اخبار جعلی در رسانههای اجتماعی تقویت کند.
کمپینهای اطلاعات غلط، بخشی از چیزی است که جنگ شناختی نامیده میشود و شامل دستکاری افکار عمومی و ایجاد مخالفت از طریق رسانههای اجتماعی و کانالهای دیگر است. این حوزه با توجه به دامنه بالقوه آن، به طور فزایندهای ششمین حوزه درگیری پس از زمین، دریا، هوا، فضا و قلمرو سایبری در نظر گرفته میشود.
کارشناسان معتقدند که ژاپن در حال حاضر برای مبارزه با این کمپینهای اطلاعات غلط مجهز نیست و یک آژانس اختصاصی برای نظارت بر اخبار جعلی خارج از کشور یا قوانینی که مداخله در انتخابات را مجازات میکند، ندارد.
وزارت امور خارجه ژاپن یک سیستم مبتنی بر هوش مصنوعی را در سال مالی 2023 راهاندازی خواهد کرد تا اطلاعات جعلی را در رسانههای اجتماعی و سایر پلتفرمها جمعآوری و تجزیه و تحلیل کند و به آن اجازه میدهد تا چگونگی تلاش عوامل خارجی برای تأثیرگذاری بر افکار عمومی در میان مدت تا بلندمدت را ردیابی کند.
این چارچوب نه تنها اطلاعاتی را که برای مخاطبان ژاپنی طراحی شده، پوشش میدهد، بلکه اطلاعاتی را نیز با هدف آسیب رساندن به برداشتهای خارجی از ژاپن پوشش میدهد.
کارشناسان بخش خصوصی برای شناسایی منظم اخبار جعلی در رسانههای اجتماعی در سال مالی 2023 استخدام میشوند.
نیروی پدافند (SDF) زمینی شخصی نیز ظرف یک دهه یک واحد اطلاعاتی اختصاصی ایجاد خواهد کرد. نیروی پدافند دریایی واحدی را با قابلیتهای سایبری و ارتباطات ترکیبی راهاندازی خواهد کرد.
کارشناسان ادعا کردند که جنگ شناختی به عنوان یک نگرانی جهانی با دخالت روسیه در انتخابات ریاست جمهوری 2016 ایالات متحده ظاهر شد. گمان میرود که مقالههای خبری جعلی درباره هیلاری رادهام کلینتون، نامزد دموکرات، که از طریق رسانههای اجتماعی منتشر شده، به تغییر رقابت به نفع رقیب او، دونالد ترامپ، کمک کرده است.
بنابه گفته محققان، اطلاعات غلط در جنگ اوکراین نیز نقش داشته است؛ گزارشهای جعلی درباره فرار ولودیمیر زلنسکی، رئیسجمهور اوکراین از کیِف، بلافاصله پس از حمله روسیه و اوکراین در شبکههای اجتماعی منتشر شد. تحریمهای غرب به دلیل افزایش جهانی قیمت مواد غذایی و جلب حمایت روسیه از سوی برخی کشورهای در حال توسعه مقصر شناخته شدند.
کارشناسان اعلام کردند که در پاسخ به اقدامات اخیر چین و روسیه، راهبرد امنیت ملی ژاپن که در ماه دسامبر گذشته تصویب شد، شامل طرحهایی برای تقویت توانایی این کشور در پاسخ به جنگ در حوزه شناختی، از جمله انتشار اطلاعات نادرست است.
چندین کشور در حال حاضر مکانیسمهایی برای پاسخ به جنگ شناختی دارند. در ایالات متحده، آژانس امنیت سایبری و امنیت زیرساخت وظیفه نظارت و هشدار به مردم در مورد اطلاعات نادرست را بر عهده دارد. ترامپ در سپتامبر 2018 فرمان اجرایی امضا کرد تا عوامل خارجی دخیل در انتخابات آمریکا، از جمله با مسدود کردن داراییهایشان در ایالات متحده، را تحریم کند.
بریتانیا شبکههای اجتماعی را 24 ساعته رصد میکند. در حالیکه این کشور مجازاتهای رسمی برای مداخله در انتخابات ندارد، یک کمیته ویژه پارلمانی گزارشی را در سال 2019 منتشر کرد و از دولت خواست که به انتخابات گذشته رسیدگی کند.
در آسیا، سنگاپور در اکتبر 2021 قانونی را تصویب کرد که به مقامات اجازه میداد محتوای آنلاین را برای جلوگیری از دخالت خارجی محدود کنند.
موتوهیرو سوچیا (Motohiro Tsuchiya)، استاد و کارشناس فناوری اطلاعات در دانشگاه کیو (Keio) در توکیو، گفت : «واکنش ژاپن به اطلاعات غلط تاکنون تا حدی با ماده 21 قانون اساسی که مخفی بودن ارتباطات را تضمین میکند، متوقف شده است. دولت باید با فیسبوک و سایر اپراتورهای رسانههای اجتماعی برای ایجاد چارچوبی با هدف حذف اطلاعات نادرست همکاری کند.»
وکیل پایه یک دادگستری با اشاره بازنشر اخبار کذب در فضای مجازی گفت: بازنشر خبر کذب مصداق نشر اکاذیبی است که در صورت تشویش اذهان عمومی فرد با بازنشر یک پست و یا خبر کذب، دو عمل مجرمانه را مرتکب شده است.
حمیدرضا محمدی وکیل پایه یک دادگستری در گفتوگو با فارس گفت: زمانی که فرد موضوعی را مطرح میکند اگر به ضرر خود باشد به آن «اقرار» و اگر به ضرر دیگری باشد به آن «ادعا» میگویند.
این حقوقدان بیان کرد: زمانی که فرد اقرار میکند کسی نمیتواند از او بپرسد که چرا به ضرر خود اقدام کرده است. اما زمانی که فرد به ضرر دیگری ادعایی را مطرح می کند باید بتواند ادعای خود را اثبات کند
وی ادامه داد: اگر فرد نتواند ادعای خود را اثبات کند، این موضوع جرم نگاری شده و قانون برای آن مجازات در نظر گرفته است که مجازات آن به نوع ادعای مطرح شده بستگی دارد. به طور مثال فردی خانومی را به داشتن رابطه با یک مرد متهم میکند اگر فرد مدعی نتواند این ادعا را اثبات کند به قذف محکوم می شود.
این وکیل پایه یک دادگستری با تاکید بر اینکه اکنون هر فرد دارای اکانت در فضای مجازی دارنده یک رسانه است، گفت: اکنون با وجود فضای مجازی و صفحاتی که در آن ایجاد میکنند، صاحب رسانه ای می شوند و میتوانند از چند صد تا چندین میلیون مخاطب داشته باشند.
وی در ادامه اظهار کرد: فردی که یک خانم و آقا را متهم به رابطه میکند، اگر این موضوع را در فضای مجازی مطرح کند و منجر به تشویش اذهان عمومی شود، با یک فعل دو عنصر مادی جرم را مرتکب شده است.
این حقوقدان در ادامه تشریح کرد: در این مواقع هم آن خانم و آقایی که مورد اتهام قرار گرفتن میتوانند شکایت کنند و هم دادستانی میتواند اعلام کند که این خانوم همسر و یا دختر آقای فلانی است و فرد این اقدام، نشر اکاذیب به قصد تشویش اذهان عمومی کرده که مجازات آن نیز زندان است.
محمدی ادامه داد: بازنشر خبر کذب نیز مصداق نشر اکاذیب است و اگر ذهن جامعه را مشوش کند، نشر اکاذیب به قصد تشویش اذهان عمومی که مجازات آن حبس می باشد.
این وکیل پایه یک دادگستری اظهار کرد: دادستان به عنوان مدعیالعموم باید در جایی که یک ادعا منجر به تشویش اذهان عمومی شده باید ورود کند، به طور مثال اخیراً آقای برهانی در خصوص انتخاب قاضی برای پرونده های اغتشاشات اخیر (پرونده های امنیتی) ادعاهایی را مطرح کرده که منجر به تشویش اذهان عمومی شده است. دادستان باید این ادعاها را پیگیری کند و در صورتی که فرد نتواند این ادعای خود را اثبات کند با توجه به شرایط کنونی جامعه باید به مجازات عمل خود برسد.
محمدی تصریح کرد: افراد چهره و سرشناس جامعه که در فضای مجازی فعالیت دارند باید حدود و ثغور قانون را بدانند و آنها باید توجه داشته باشند که در صورت انتشار دروغ فرقی نمیکند که خود آن دروغ و یا ادعا را مطرح کرده باشند و یا آن را از صفحات و یا اشخاص دیگر بازنشر کرده باشند، ممکن است بازنشر برخی از اخبار کذب منجر به تشویش اذهان عمومی شود. در این صورت فرد منتشر کننده با بازنشر یک پست و یا یک خبر، دو فعل جرم را مرتکب شده است.
وی با اشاره به ماده ۲ قانون مجازات اسلامی خاطرنشان کرد: بر اساس این ماده قانونی هر فعل یا ترک فعل که مطابق قانون مجازات یا مستلزم اقدامات تامینی با تربیتی باشد جرم محسوب است و هیچ امری دانه می توان جرم دانست مگر آنکه به موجب قانون برای آن مجازات و یا اقدامات تامینی یا تربیتی تعیین شده باشد.
طبق اعلام وزیر دیجیتال آلمان، وی اخیرا با ایلان ماسک دیدار کرده تا انتظارات دولت این کشور از توئیتر به خصوص درباره مقابله با اخبار جعلی را شفاف سازی کند.
به گزارش خبرگزاری مهر به نقل از رویترز، «ولکر ویسینگ» وزیر دیجیتال و حمل ونقل آلمان که در آغاز ۲۰۲۳ میلادی در ایالت کالیفرنیا به سر می برد، به ماسک گفته این کشور انتظار دارد توئیتر به طور داوطلبانه از تعهدات مبارزه با اخبار جعلی پیروی کند.
همچنین ویسینگ معتقد است توئیتر باید در آینده از قانون سرویس های دیجیتال نیز پیروی کند. اعضای اتحادیه اروپا در آوریل ۲۰۲۲ میلادی درباره این قانون به توافق رسیدند و طبق آن پلتفرم های آنلاین باید اقدامات بیشتری برای نظارت بر محتوای غیرقانونی انجام دهند.
سخنگوی این وزارتخانه در بیانیه ای اعلام کرد: این ملاقات بسیار طولانی بود و ماسک به ویسینگ اطمینان خاطر داد.
همچنین به گفته وی دولت آلمان به دقت وضعیت توئیتر را تحت نظر دارد.
سخنگوی کمیسیون حقوقی و قضایی مجلس شورای اسلامی از آماده شدن طرحی مبنی بر پیگیری حقوقی اخبار کذب در فضای مجازی در این کمیسیون خبر داد.
کاظم دلخوش سخنگوی کمیسیون حقوقی و قضایی مجلس شورای اسلامی در گفتوگو با تسنیم، از آماده شدن طرحی مبنی بر پیگیری حقوقی اخبار کذب در فضای مجازی در این کمیسیون خبر داد.
وی گفت: امروزه فضای مجازی تبدیل به یک بستری شده است که هر شخصی در هر عنوانی و بدون اطلاع از درست بودن یا نبودن خبری آن را نشر میدهد یا کسانی هستند که برای اهداف خود دست به خبرسازی و شایعهسازی میزنند که باید پاسخگوی این حرکتشان باشند.
سخنگوی کمیسیون قضایی مجلس افزود: کمیسیون قضایی مجلس طرحی را تهیه و تدوین کرده است که هرکسی در فضای مجازی اخبار نادرستی را نشر دهد یا آن را بزرگنمایی کند باید پاسخگوی عملکرد خود در دادگاه باشد و این موضوع برای فرد یا رسانهای تفکیک قائل نیست و همه را در بر میگیرد.
دلخوش تصریح کرد: این دست قوانین در همه کشورهای دنیا وجود دارد و کشور ما نیز باید از این دست قوانین وضع کند تا بتوانیم از نشر اخبار کذب در فضای مجازی جلوگیری کنیم. در حوادث اخیر هم شاهد نشر بیش از حد اخبار کذب در فضای مجازی بودیم که افرادی بدون تحقیق بر درست بودن یا نبودن خبر آن را انتشار دادند که باعث شد فضای جامعه ملتهب شود.
وی بیان داشت: در این طرح برای افراد و رسانههایی که اخبار کذب منتشر یا شایعهسازی میکنند و باعث تشویش اذهان عمومی میشوند مجازاتهای سنگین در نظر گرفته شده است که دیگر مرتکب این عمل نشوند زیرا این درست نیست که هرکسی با خبرسازی کاذب فضای جامعه را ملتهب کند و سپس بدون پرداخت تاوان پای خود را از ماجرا بکشد بیرون.
سخنگوی کمیسیون قضایی مجلس تأکید کرد: طرح مجازات ناشران اخبار کذب در فضای مجازی در کمیسیون حقوقی و قضایی به تصویب رسیده است و بهزودی در دستورکار صحن علنی مجلس شورای اسلامی قرار خواهد گرفت و این احتمال وجود دارد که این طرح با فوریت به صحن مجلس بیاید.
مرکز ملی فضای مجازی با استانداری سمنان تفاهم نامه همکاری در حوزه مدیریت و توسعه فضای مجازی در استان ها امضا کرد.
به گزارش مرکز ملی فضای مجازی، ابوالحسن فیروزآبادی، دبیر شورای عالی و رئیس مرکز ملی فضای مجازی، در مراسم امضای این تفاهم نامه گفت: «باید برای مقابله با اخبار جعلی و روایت های دروغ علیه کشور، نسبت به هدایت تیم های تولید محتوا به صورت منطقه ای با راهبری ملی اقدام شود.»
وی افزود: «در فضای مجازی که از خصایص آن اجتماعی و شبکه ای بودن است، ارایه روایت اول با تصویرسازی مبتنی بر نخبگی از اهمیت ویژه ای برخوردار است که باید بتوانیم با تشکیل شوراهای فضای مجازی در استان های سراسر کشور، در این حوزه اقدام کنیم.»
در ادامه این مراسم، محمدرضا هاشمی، استاندار سمنان، با اشاره به این که این استان در حوزه اقتصاد دیجیتال در رتبه دوم قرار دارد، گفت: «در استان سمنان برای ترسیم مسیر و رفع موانع برای فعالان این حوزه و پاسخگویی مسئولان و مدیران مرتبط همایشی برگزار شده و همچنین به لحاظ ایجاد زیرساخت مناسب در این استان در دولت بودجه مناسبی در نظر گرفته شده است.»
گفتنی است مرکز ملی فضای مجازی کشور در راستای همسو سازی دستگاه ها و نهادهای استان های کشور با مصوبات و تصمیمات شورای عالی فضای مجازی و تعیین اولویت های اجرایی مرتبط با فضای مجازی در هر استان نسبت به امضای دومین تفاهم نامه همکاری و مشارکت با استانداری های کشور اقدام کرده است.
محمدمهدی اسماعیلی، وزیر فرهنگ و ارشاد اسلامی دولت ابراهیم رئیسی، به روزنامه اطلاعات گفته «در چند هفته اخیر بالغ بر ۵۰۰ سایت به دلایلی نظیر نشر اکاذیب و افترا به افراد حقیقی و حقوقی لغو مجوز شدهاند.»
وزیر ارشاد به روزنامه اطلاعات گفته وزارتخانه او ۵۰۰ سایت اینترنتی را لغو مجوز کرده است.
براساس گزارش اعتمادآنلاین، محمدمهدی اسماعیلی، وزیر فرهنگ و ارشاد اسلامی دولت ابراهیم رئیسی، به روزنامه اطلاعات گفته «در چند هفته اخیر بالغ بر ۵۰۰ سایت به دلایلی نظیر نشر اکاذیب و افترا به افراد حقیقی و حقوقی لغو مجوز شدهاند.»
او گفته «تمامی سایتهای اینترنتی غیرفعال یا آن دسته از شبکههای خبری که کار خبری نمیکنند، مورد بازنگری قرار میگیرند و در صورت احراز تخلف، مجوز آنها لغو خواهد شد.»
به گفته وزیر ارشاد، قرار است «کارگروه مقابله با اخبار جعلی» در وزارتخانه او تقویت شود و در جلسه هفته گذشته شورای عالی مجازی به ریاست ابراهیم رئیسی گزارش عملکرد هم داده است. وزیر این را هم گفته که قرار است آئیننامه این کارگروه تغییر کند و «پس از تصویب نهایی، مفاد آن بهزودی به مردم اعلام خواهد شد.»
وزیر گفته با «شایعهسازان» و «منتشرکنندگان اخبار جعلی» به شدت برخورد خواهد شد. اسماعیلی ادعا کرده دلیل این شدت عمل آن است که «حریم امن کارآفرینان و صاحبان کسبوکار حفظ شود.»
اسماعیلی همچنین نسبت به هر گونه همکاری با رسانههای فارسیزبان خارج از کشور هشدار داده و گفته «مسلماً تعامل و همکاری با این شبکههای تروریستی با مجازات و محرومیت روبروست.»
طبق ماده ۶۹۸ بخش تعزیرات قانون مجازات اسلامی هر گونه گزارش یا توزیع هر گونه اوراق چاپی یا خطی با امضا با بدون امضا، به قصد اضرار به غیر یا تشویش اذعان عمومی یا مقامات رسمی، مستوجب حبس- از دو ماه تا دو سال- و یا شلاق تا ۷۴ ضربه خواهد بود.
با این حال به نظر میرسد این مجازات که مستلزم شکایت و نظر دادگاه است، نظر دولت را تامین نکرده و قوه اجرایی در نظر دارد بر حسب آئیننامه مصوب مورد نظر خود راساً و بدون نظر دادگاه اقدام به مجازات آن هم در حد لغو مجوز کند.
همچنین لغو مجوز وبسایتهایی که فعالیت ندارند، کاری است ملهم از بندی در قانون مطبوعات که مجلس پنجم تصویب کرد.
در حالی که فعالیت رسانهای از حقوق شهروندی است که با صدور مجوز از سوی وزارت ارشاد محدود شده، حالا این وزارتخانه دست خود را آنقدر باز دیده که مجوز خودش را بدون طی شدن روال قانونی و صرفاً به صلاحدید خود لغو کند.
در هفتههای اخیر، موجی از خبرهای تاییدنشده علیه استارتآپها و شرکتهای تولیدی و خدماتی کشور آغاز شد. اولین خبرها در این زمینه را شبکه تلویزیونی ایراناینترنشنال که دفتر مرکزی آن در لندن مستقر است، منتشر کرد. این شبکه تلویزیونی شرکتهای ایرانی را به همکاری با حاکمیت متهم کرد؛ از جمله ادعا کرد شرکت میهن جهت برخورد با اعتراضات، ماشینهای حمل کالای خود را در اختیار نیروی انتظامی قرار داده و یا شرکت دیجیکالا «سهام حاکمیتی» دارد.
هر دو شرکت این اتهامات را رد کردهاند. دیجیکالا نقشه سهام خود را منتشر کرد و گفت هیچ نهاد دولتی یا حاکمیتی در این شرکت سهام ندارد.
در حالی که منشاء خبر، شبکهای تلویزیونی در خارج از کشور بود، معلوم نیست چرا وزیر ارشاد، وبسایتهای داخلی را هدف گرفته و در میان آنها به وبسایتهایی گیر داده که طبق صبحت خودش اصلاً فعالیتی ندارند.
طبق قانونی جدید در ترکیه، شبکه های اجتماعی و شرکت های فناوری باید اطلاعات کاربرانی که اخبار جعلی و محتوای غیرقانونی به اشتراک می گذارند را در اختیار مقامات قرار دهند.
به گزارش خبرگزاری مهر به نقل از رویترز، به گفته کارشناسان احتمال کمی وجود دارد شبکههای اجتماعی کاملاً از قانون جدید ترکیه برای حذف اخبار جعلی و اشتراک گذاری دادههای کاربران با دولت پیروی کنند. به این ترتیب احتمال دارد قبل از برگزاری انتخابات ریاست جمهوری این کشور در ۲۰۲۳ میلادی اختلالاتی در شبکهها ایجاد شود.
طبق قانون ترکیه که از هفته قبل اجرایی شد، در صورتیکه کاربران محتوایی پست کنند که حاوی جرایم از جمله اطلاعات گمراه کننده باشد، باید اطلاعات آنها با مقامات به اشتراک گذاشته شود.
همچنین شبکههای اجتماعی ملزم میشوند نمایندگانی در ترکیه تعیین کنند. علاوه بر آن اگر دادگاهی به این نتیجه برسد که نماینده شرکت نتوانسته اطلاعات مورد نیاز را در اختیار مقامات قرار دهد، مؤسسه مذکور با کاهش ۹۰ درصد پهنای باند روبرو خواهد شد.
طبق این قانون، اگر شرکتها محتوای غیرقانونی را ظرف ۴ ساعت حذف نکنند، به طور مستقیم مسئولیت محتوای غیرقانونی و تگ ها را برعهده خواهند داشت.
فیس بوک، توئیتر، گوگل و دیگر شرکتهای فناوری ملزم شده اند تا آوریل به طور کامل از قانون جدید ترکیه پیروی کنند یا با ممنوعیت تبلیغات آنلاین و به تدریج قطع سرویس تا کاهش پهنای باند روبرو میشوند. انتخابات ریاست جمهوری ترکیه در ماه ژوئن ۲۰۲۳ برگزار میشود.
تحلیلگران و مشاوران معتقدند این شرکتها استانداردهای حریم خصوصی جهانی اجرا میکنند و احتمال اندکی درباره نقض آنها در ترکیه وجود دارد. زیرا ممکن است با نقض آن در ترکیه مبنایی برای کنترل بیشتر بر شبکههای اجتماعی در کشورهای دیگر به وجود بیاید.
سینان اولگون یکی از بنیانگذاران شرکت «استانبول اکونومیکز» در این باره میگوید: احتمال کمی وجود دارد برخی از شرکتها از این قانون پیروی کنند. زیرا قانون جدید ترکیه هنجارهای آنها درباره حریم خصوصی را هدف گرفته است.
نماینده مردم نهاوند در مجلس شورای اسلامی گفت: با توجه به اینکه در طرح صیانت هدف اصلی ساماندهی فضای مجازی است در این طرح موارد و شیوههای قانونی برخورد با شایعهسازان و کسانی که اقدام به اکاذیب میکنند تعیین تکلیف میشود.
علیرضا شهبازی، نماینده مردم نهاوند در مجلس در گفتوگو با فارس اظهار کرد: ما برای برخورد با افرادی که بدون سند اقدام به شایعه و یا نشر اکاذیب نمایند قانون مشخص داریم که در صورت نیاز میتوان از آن استفاده کرده و آن را اجرایی کرد.
وی در پاسخ به اینکه راهکار قانونی برخورد با جرایم فضای مجازی و افرادی که در این فضا اقدام به نشر اکاذیب چگونه است افزود: با توجه به اینکه در طرح صیانت هدف اصلی ساماندهی فضای مجازی است در این طرح موارد و شیوههای قانونی برخورد با شایعهسازان و کسانی که اقدام به اکاذیب میکنند تعیین تکلیف میشود.
نماینده مردم نهاوند در مجلس شورای اسلامی گفت: در حال حاضر طرح صیانت فضای مجازی به منظور جلوگیری از وقوع جرایم مجازی در کمیسیون مربوطه در حال بررسی است که لازم است همه موارد و ابعاد قانونی در آن دیده شود.
قانون برخورد با شایعهپراکنی در فضای مجازی به زودی مصوب میشود
نماینده مردم شوش در مجلس گفت: راهکار مقابله با اخبار دروغ در شبکههای اجتماعی مشخص و مجلس ظرف روزهای آینده قانونی را برای این منظور مصوب میکند.
محمد کعب عمیر نماینده مردم شوش در مجلس شورای اسلامی در گفتوگو با فارس در رابطه با اهمیت تصویب قانونی به منظور برخورد با افرادی که با شایعهپراکنی افکار عمومی را متشنج میکنند، اظهار کرد: لزوم تصویب قانونی برای برخورد با دروغ و شایعهپراکنی در شبکههای اجتماعی در جلسه غیر علنی مجلس مطرح شده است.
وی با بیان اینکه راهکار مقابله با اخبار دروغ و غلط پیدا شده است، افزود: قطعاً در روزهای آینده قوه مقننه راه حل و یا قانونی برای این موضوعات تصویب خواهد کرد.
نماینده مردم شوش در مجلس شورای اسلامی گفت: اینگونه نیست که این موضوعات برای ما اهمیتی نداشته باشد، ظرف روزهای آیندههای موارد مورد بررسی به صورت قانون مصوب و به دولت ابلاغ میشود.
کعب عمیر با بیان اینکه رسانههای معاند از شرایط اخیر سوءاستفاده کرده و مطالبات مردم رو بهانه کردند تا به اهداف خود برسند، عنوان کرد: هدف سناریوی طراحی شده براندازی نظام و مقابله با اعتقادات مردم است.
وی با طرح این سوال مبنی بر اینکه چرا زمانی که شرایط مشابه کشور ما در کشورهای دیگر اتفاق بیفتاد هیچ کدام از رسانههای خارجی به مسائل داخلی آن کشورها دامن نمیزنند، بیان کرد: در آمریکا و سایر کشورهای غربی صدها نفر را به عناوین مختلف کشته میشوند چرا رسانههای بین المللی و رسانههای معاند به آنها نمیپردازند؟
کعب عمیر با تاکید بر اینکه نظام جمهوری اسلامی با اقتدار ایستاده است، گفت: پروژه براندازی نظام در برهههای مختلف اجرا شده اما دشمنان تا کنون راه به جایی نبرده و نمیبرند.
مرکز پژوهش های مجلس شورای اسلامی در گزارشی ابعاد مسئله اطلاعات، اخبار و محتوای خلاف واقع در فضای مجازی را بررسی و بر نیاز جدی نسبت به ورود مجلس از باب تقنین در این زمینه تأکید کرد.
به گزارش خبرگزاری مهر، گزارشی با عنوان بررسی ابعاد مسئله اطلاعات، اخبار و محتوای خلاف واقع در فضای مجازی و ارائه پیشنویس قانونی در مرکز پژوهش های مجلس منتشر شده است که خلاصه آن به شرح زیر است؛
پس از ابتکار شورای عالی فضای مجازی در تصویب «الزامات پیشگیری و مقابله با نشر اطلاعات، اخبار و محتوای خبری خلاف واقع در فضای مجازی» مورخ ۱۶ دی ماه ۱۳۹۹ با وجود مفاد قانونی که قبلاً در خصوص نشر اکاذیب به تصویب رسیده بود، نیاز جدی نسبت به ورود مجلس از باب تقنین در این زمینه احساس می شود، با وجود قوانین فعلی، چالش های جدی برای پیشگیری و مقابله با محتوای خلاف واقع وجود دارد، ازجمله اینکه، رسیدگی به مطالب خلاف واقع منوط به شکایت شاکی خصوصی است.
ضمانت اجراها از کفایت لازم برخوردار نیستند و به دلیل عدم توجه به ابعاد پیام های توده شده و ابزارهای ارتباطی جدید و هنجارهای ارتباطی زیست بوم ارتباطی، بازدارندگی نخواهند داشت. در قوانین فعلی نسبت به روش های پیشگیرانه قبل از تولید و نشر اطلاعات (Proactive) و بعد از آن (Reactive) خلأ وجود دارد و نسبت به مسئولیت سکوی نشر، درگاه نشر، تولیدکننده محتوا، نشردهنده محتوا و بازنشردهنده آن تفکیکی وجود ندارد.
به همین دلیل امکان تعیین و تصریح مسئولیت ذی نفعان مختلف در زیست بوم فضای مجازی در رابطه با محتوای خلاف واقع وجود ندارد. از این رو با ابتنا بر محورهای زیر پیش نویس «طرح پیشگیری و مقابله با انتشار اطلاعات، اخبار و محتوای خلاف واقع در فضای مجازی» تهیه و در پیوست گزارش حاضر ارائه شده است:
۱. رویکرد جامع نسبت به انواع محتوای خلاف واقع
۲. تفکیک مسئولیت های نهاد تنظیم گر، سکوی نشر، درگاه نشر و کاربران فضای مجازی
۳. آگاهی بخشی به موازات جرم انگاری در موارد ضروری
۴. خودتنظیم گری و استفاده از خرد جمعی و ظرفیت عمومی کاربران در امتداد نهادهای حاکمیتی و دستگاه های اجرایی به مثابه تنظیم گران بخشی
۵. تفکیک شئون قانونگذاری و تنظیم گری
۶. تکمیل کننده قوانین پیشین در حوزه محتوای خلاف واقع
فصل اول این پیشنویس با عنوان کلیات واژگان و اصطلاحات به کار رفته در طرح را با ابتنا بر مصوبات شورای عالی فضای مجازی تعریف نموده است. فصل دوم با عنوان وظایف دستگاههای اجرایی به کارگیری فناوری های بهروز در جهت اقدامات پیشگیرانه و ثبت درخواست ها و استعلام از دستگاههای مسئول پاسخگویی را پیشبینی کرده است. فصل سوم به مسئولیت سکوها و درگاههای نشر اختصاص یافته است.
این فصل درگاه های نشر یک سویه و چند سویه را تفکیک کرده، چراکه مطالعه و بررسی های پیرامون نشر اخبار خلاف واقع در فضای مجازی نشان می دهد، انتشار گسترده محتوای خلاف واقع عمدتاً از مسیر درگاه های یک سویه اتفاق می افتد.
یعنی درگاه هایی که ماهیت «خبرگزاری و رسانه ای» دارند و صاحبان این درگاه ها نسبت به انتشار محتوا در آن مسئولیت خواهند داشت. صفحات شخصی کاربرانی که دنبال کنندگان زیادی دارند یا کانال هایی که نشر محتوا در آنها توسط یک یا چند نفر مدیریت می شود از انواع درگاه های یک سویه هستند.
از این رو تعریف درگاه های یک سویه و مسئولیت ویژه صاحبان درگاه های نشر یک سویه به عنوان موجودیت هایی مهم و اثرگذار در مسئلة محتوای خلاف واقع به احکام این قانون اضافه شد. فصل آخر نیز به تخلفات و جرائم بازیگران این زیست بوم اختصاص دارد.
لینک کامل این گزارش در (اینجا) قابل مشاهده است.
یک زیرمجموعه گوگل هفته آینده کمپینی برای مقابله با اخبار جعلی مربوط به پناهجویان اوکراینی در لهستان، اسلکواکی و جمهوری چک راه اندازی می کند.
به گزارش خبرگزاری مهر به نقل از رویترز، این کمپین براساس تحقیقات روانشناسان در ۲ دانشگاه انگلیس انجام می شود.
روانشناسان دانشگاه های کمبریج و بریستول با همکاری جیگساو کلیپ های ۹۰ ثانیه ای برای آگاه سازی مردم در مقابل محتوای مخرب در شبکه های اجتماعی تولید کرده اند.
این کلیپ ها که در بازه های پخش آگهی در یوتیوب و همچنین پلتفرم های دیگر مانند توئیتر، تیک تاک و فیس بوک نیز پخش می شود تا در شناسایی دستکاری احساسی و قربانی سازی در سرتیتر خبرها به مردم کمک کند.
جان روزن بیک مولف گزارشی درباره تحقیقات مربوط به این کمپین در یک مصاحبه گفت: اگر به مردم بگویید چه چیز درست و چه چیز غلط است، عده زیادی بحث و گمانه زنی می کنند. اما می توان روش هایی را پیش بینی کرد که برای گسترش اخبار جعلی به کار می رود.
این کمپین با همکاری سازمان های محلی غیر دولتی، بازبین های حقیقت یاب و کارشناسان اخبار جعلی برای مقابله در برابر روایت های ضد پناهجویی طراحی شده است.
گسترش اخبار جعلی و گمراه کننده در آمریکا و اروپا از طریق شبکه های اجتماعی سبب شده دولت های مختلف قوانین جدید برای مقابله با کمپین های اخبار جعلی وضع کنند.
فیسبوک خطمشی خود را اصلاح کرده و میخواهد نظرات و بررسیهای جعلی و پولی را ممنوع کند.
به گزارش باشگاه خبرنگاران فیسبوک مدتها است که برای محدود کردن بررسیهای جعلی اقدام کرده، اما اکنون این موضع را رسمی کرده است. شرکت مادر فیسبوک (متا) خط مشی بازخورد خود را در آمریکا به روز کرده است تا به صراحت، بررسیهای جعلی و پولی را در سیستم عاملهای خود ممنوع کند.
به این ترتیب دیگر کاربران نمیتوانند به امید دریافت یک وعده غذایی رایگان، برای یک رستوران نظر جعلی ارسال کنند، یا برای ارائه نظرات درخشان در مورد یک محصول، پول بگیرند.
همچنین این خطمشی اصلاحشده، بررسیهای بیربط و هرزنامه را ممنوع میکند. متا نظراتی که خطمشیها را نقض میکنند را بررسی میکند و این حق را برای خود محفوظ داشته که دسترسی افراد به برخی یا همه محصولات خود را تعلیق کند. ناقضان معمولی ممکن است با تعلیق یا ممنوعیت دائمی حسابهای فیس بوک خود مواجه شوند و کسب و کارها ممکن است دسترسی به فهرستها و برچسبهای محصولات خود را از دست بدهند.
البته مشخص نیست که این تعهد چقدر پایدار خواهد بود. فیسبوک سال گذشته ۱۶۰۰۰ گروه بازبینی جعلی را در پاسخ به نگرانیهای یک ناظر انگلیسی حذف کرد. یک سیاست رسمی، نشان دهنده تعهد به مقابله با مشکل است و میتواند به متا در توجیه ممنوعیتها در صورت شکایت مجرمان، کمک کند.
طبق به روز رسانی دستورالعملی در اتحادیه اروپا، متا، گوگل، توئیتر و مایکروسافت توافق کرده اند موضع سختگیرانه تری نسبت به اخبار جعلی اتخاذ کنند.
به گزارش خبرگزاری مهر به نقل از رویترز، به گفته کمیسیون اتحادیه اروپا بیش از ۳۰ شرکت از جمله سازمانهای تبلیغاتی دستورالعمل به روز رسانی شده مربوط به اخبار جعلی را امضا کردهاند.
به گفته یک مقام ارشد اتحادیه اروپا امضا کنندگان توافق کردهاند اقدامات بیشتری برای مقابله با دیپ فیک، حسابهای کاربری جعلی و تبلیغات سیاسی انجام دهند.
عدم پیروی از این دستورالعمل جریمه ای تا ۶ درصد درآمد جهانی شرکت را در پی خواهد داشت. همچنین ممکن است شرکتهای متخلف از فعالیت در اتحادیه اروپا منع شوند.
این شرکتها که تیک تاک و پلتفرم بازی رایانهای توییچ (متعلق به آمازون) را نیز شامل میشوند، ۶ ماه فرصت دارند تا به تعهد خود عمل کنند. همچنین آنها باید گزارشی از میزان پیشرفت خود در ۲۰۲۳ میلادی ارائه کنند.
ورا یوروا معاون رییس کمیسیون اتحادیه اروپا در این باره میگوید: دستورالعمل جدید نشان میدهد اروپا به خوبی از گذشته درس گرفته و ما دیگر ساده انگارانه با چنین موضوعاتی برخورد نمیکنیم.
به گفته او حمله روسیه به اوکراین، پاندمی کووید ۱۹ و خروج انگلیس از اتحادیه اروپا، اقدامات این منطقه برای مقابله با اخبار جعلی را سرعت بخشیده است.
تشخیص اخبار درست یا موثق از اخبار جعلی یا غیردقیق با توجه به صد میلیون کلیکی که روزانه در اینترنت می شود، کار دشواری است و ابزاری که او ساخته، تا نود درصد قدرت تمایز و تشخیص غلط و درست از یکدیگر را دارد.
به گزارش شارا فردریک فیلوکس که در دانشگاه استنفورد فرصت مطالعاتی بنیاد نایت را می گذراند، ابزاری به نام Deepnews.ai ساخته که می تواند گزارشهای باکیفیت بالا را از گزارشهای بی ارزش متمایز کند.
او می گوید که تشخیص اخبار درست یا موثق از اخبار جعلی یا غیردقیق با توجه به صد میلیون کلیکی که روزانه در اینترنت می شود، کار دشواری است و ابزاری که او ساخته، تا نود درصد قدرت تمایز و تشخیص غلط و درست از یکدیگر را دارد.
CrossCheck تریبونی است که توسط لیزا فازیو، یکی از اعضای هیات علمی دانشگاه وندربیلت ارائه شد. خانم فازیو و تیم او به بررسی واکنش خوانندگان و مخاطبان خبر نسبت به انتشار واقعیاتی که موارد اطلاعات جعلی را روشن و منعکس می کند، پرداختند. در بسیاری از موارد، نوع این واکنشها متفاوت بود و البته بسته به کشور هم فرق می کرد.
City Bureau طرحی بود که توسط داریل هالیدی از شیکاگو ارائه شد. این طرح، به بررسی پروژهای می پردازد که به شهروندان پول می دهد تا در نشستهای عمومی که به گستردگی سابق از سوی رسانههای محلی پوشش داده نمی شوند، شرکت کنند.
این طرح ۳۵۰ مستندنگار را گرد هم آورد که در نشستهای گوناگون عمومی شرکت می کنند، از شورای شهر گرفته تا مدارس، پلیس محلی و بنیادهای محلی و دولتی مسکن. تاکنون در بیش از دو هزار نشست شرکت کردهاند و هدف هالیدی آن است که همه جلسات عمومی شهر را پوشش دهد و در نهایت به بررسی نابرابریها و شیوه رفتار با شهروندان گوناگون در این گونه نشستها بپردازد. حاصل شرکت گروه او در این نوع نشستها آن است که مشاهدات خود را می نویسند و در اختیار همگان قرار می دهند. برنامه این طرح آن است که به دیترویت توسعه یابد.
طرح آخر توسط کامرون هیکی ایجاد شده بود که یکی از تهیه کنندگان برنامه تلویزیونی ساعت خبر در شبکه دولتی پی بی اس آمریکاست. نام طرح او NewsTracker است که بر اساس داده عمل می کند تا به شناسایی منابع تازه اطلاعات جعلی بپردازد. تاکنون ۴۰۰۰ منبع اخبار جعلی یا غلط توسط این طرح شناسایی شده است.
طرحهای منتخب تنها چهار طرح از کل ۲۰ طرحی است که از سوی صندوق کینگ یا Knight Prototype Fund حمایت می شود که طرحی مشترک با صندوق دموکراسی Democracy Fund و Rita Allen Foundation یا بنیاد ریتا آلن است که با انتشار اطلاعات جعلی مبارزه می کند.»
نویسنده: پاتریک باتلر
منبع:
دادگاهی در روسیه جریمه ای ۱۱ میلیون روبلی (۱۳۷هزار و ۷۶۳ دلار) برای گوگل تعیین کرده است.
به گزارش خبرگزاری مهر به نقل از رویترز، دلیل این اقدام عدم حذف اخبار جعلی درباره درگیری در اوکراین و ویدئوهایی در یوتیوب است که توسط گروههای راست گرای افراطی اوکراین تولید شده اند.
راسکامنادزر، رگولاتور ارتباطات روسیه در اوایل ماه جاری اعلام کرد به دلیل گسترش اخبار جعلی در یوتیوب، اقداماتی تنبیهی علیه گوگل انجام میدهد. پیش از آن نیز این سازمان تهدید کرده بود در صورت عدم پیروی از دستورات، شرکت آمریکایی را جریمه میکند.
گوگل در ۲ پرونده مربوط به نقض قوانین گناهکار شناخته شده و ۴ و ۷ میلیون روبل جریمه شده است. این شرکت فناوری به درخواستهای اظهار نظر پاسخی نداده است.
خبرگزاری تاس روسیه اعلام کرد این جریمهها مربوط به پروندههایی هستند که به اعتقاد دولت انتشار اخبار جعلی درباره خسارت نیروهای روسی و تلفات غیرنظامیان در اوکراین به حساب می آیند.
پژوهشگر پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی گفت: تا به امروز برای مقابله با اخبار جعلی در کشور اقدامات اساسی شکل نگرفته و قانون ایجاد پایگاه برای مقابله با این موضوع که از وظایف وزارت ارشاد بوده، هنوز به تصویب قانون نرسیده است.
به گزارش روابط عمومی پژوهشگاه فضای مجازی، سید محمد مهدی فیروزآبادی در چهارمین روز مجموعه نشست های هفته حکمرانی فضای مجازی که با محوریت مقابله با اخبار جعلی در فضای مجازی برگزار شد، با بیان این مطلب گفت: مساله توانمندی فنی از موضوعات بسیار مهم و تاثیرگذار در مقابله با اخبار نادرست است اما تا به امروز در مقابله با اخبار جعلی در داخل کشور پیشرفتی صورت نگرفته از سوی دیگر رویکرد ارتقای سواد رسانه و ارتقای آگاهی عمومی هنوز جای کار دارد چرا که کمبود آگاهی در کاربران سیاست گذار و سکوها باعث آسیب پذیری شده است.
وی در خصوص محورهای این نشست اظهار کرد: در این نشست گستره اخبار جعلی که امروز به معضل تبدیل شده مورد بررسی قرار گرفت و چهارچوب مفهومی برای دسته بندی اخبار جعلی و اقسام آن تعریف و در عین حال عواقب اخبار جعلی و تاثیر آن تشریح شد.
وی با طرح این پرسش که چرا اخبار جعلی در مقایسه با اخبار واقعی تاثیرگذاری بیشتری دارند، اظهار کرد: از آن جا که طراوت اطلاعاتی بسیار مهم بوده و انگیزه و عامل پیام تاثیر زیادی دارد از این رو شاهد اثرگذاری بیشتر این اخبار هستیم.
فیروزآبادی با تشریح اخبار نادرست یا اختلال اطلاعات و راه های مقابله ای با این اخبار تصریح کرد: در حال حاضر دو رویکرد مبتنی بر فناوری و مبتنی بر ارتقا و دانش وجود دارد که در هر دو رویکرد، در سه سطح کاربران معمولی، سطح پلتفرم و سطح سیاست گذار اقداماتی در مقابله با اخبار جعلی رخ می دهد که یکی از این اقدامات، راستی آزمایی است.
پژوهشگر پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی در تشریح تفاوت راستی آزمایی با دیبانگ ( افشای اخبار جعلی) گفت: همواره این پرسش مطرح می شود که با توجه به وضعیت انتشار پیام آیا راستی آزمایی همیشه راهکار خوبی بوده و لازم است چه برخوردی با آن صورت گیرد؟ با فرض این موارد، اقدامات کشورهای مختلف در سالیان اخیر در مقابله با اخبار نادرست و اختلالات اطلاعاتی و رویکردهایی از جمله تصویب قانون تا لایحه، اعمال جریمه و زندان، قطعی اینترنت و ارتقای سواد به عنوان جرایم این اقدام مورد بررسی قرار گرفت.
وی با بیان این که هم اکنون مجموعه ای از این اقدامات از سوی کشورها انجام می شود، اظهار کرد: توانایی اعمال حاکمیت در حوزه فضای مجازی بسته به این که هر کشوری چه اقدامی در این زمینه انجام داده و از چه توانمندی فنی برخوردار بوده و چه سطح از از سواد رسانه ای در کشور وجود دارد و در عین حال مردم آن از چه پلتفرمی استفاده می کنند، متفاوت خواهد بود.
فیروزآبادی در پایان با تاکید بر این که نقش سازمان های مردم نهاد در حوزه راستی آزمایی و ضرورت رعایت ساختارهایی در این زمینه از جمله موارد مهم در این حوزه است، افزود: جعل عنوان راستی آزمایی و مساله شفافیت در حوزه راستی آزمایی مالی و مشخص بودن روش های مالی از دیگر موضوعات در بحث مقابله با اخبار جعلی است.