تحلیل وضعیت فناوری اطلاعات در ایران |
نتیجه منتشرشده از یک مطالعه نشان میدهد، مدلهای هوش مصنوعی که رباتهای چت و سایر برنامهها را تقویت میکنند، همچنان در تشخیص چرندیات و زبان طبیعی مشکل دارند.
به گزارش آنا به نقل از لایفتکنولوژی، نتیجه یک مطالعه منتشرشده نشان میدهد مدلهای هوش مصنوعی که قدرت چتباتها و سایر برنامهها را تأمین میکنند، هنوز با مشکل شناسایی زبان بیمعنی و در اصطلاح مزخرف و طبیعی دچار مشکل هستند.
پژوهشگران دانشگاه کلمبیا در آمریکا که این پژوهش را انجام دادند میگویند، بررسی آنها محدودیتهای مدلهای فعلی هوش مصنوعی را نشان میدهد و پیشنهاد میکنند که هنوز زود است که این مدلها را به صورت نامحدود در محیطهای قانونی یا پزشکی وارد کنیم.
محققان مدلهای هوش مصنوعی را امتحان کردند و صدها جفت جمله را برای آنها ارسال کردند و از آنها پرسیدند که کدامیک احتمالاً در گفتار روزمره شنیده میشود.
این تحقیق که در مجله «هوش ماشین نیچر» (Nature Machine Intelligence) منتشر شد، سپس پاسخهای هوش مصنوعی را در مقابل پاسخهای انسانی سنجید و به تفاوتهای چشمگیری دست پیدا کرد. تنها مدلهای پیچیدهای مانند چتجیپیتی۲ معمولاً با پاسخهای انسانی مطابقت داشت. جیپیتی ۲ بدون دریافت ویژگی خاص، مستقیما از مدل زبانی جیپیتی-۱ در سال ۲۰۱۸ ایجاد شد که با افزایش ده برابری در تعداد پارامترها و اندازه مجموعه داده آموزشی آن همراه بود. جیپیتی ۲ متن را ترجمه میکند، به سؤالات پاسخ میدهد و پاراگرافها را خلاصه میکند و گاهی متنی را تولید میکند که تشخیص غیر انسانی بودن آن دشوار است، ولی در هنگام ایجاد پاسخهای زیاد ممکن است پاسخهای تکراری یا بیمعنی ارائه دهد.
به گفته پژوهشگران، سایر مدلهای سادهتر عملکرد کمتری داشتند. اما همه مدلها اشتباه کردند.
کریستوفر بالداسانو، استاد روانشناسی و نویسنده این گزارش میگوید: هر مدل نقاط کوری را از خود نشان میداد و برخی از جملاتی را معنیدار میدانست که شرکتکنندگان انسانی آن را چرندیات میدانستند؛ خروجی این مطالعه نشان میدهد در مورد میزان حضور هوش مصنوعی و بهویژه در موارد مهم و تاثیرگذار به زمان بیشتری احتیاج است و برای این مواقع فعلا دست نگه داشت.
تال گولان، یکی دیگر از نویسندگان این مقاله به خبرگزاری فرانسه گفت، این مدلها فناوری هیجانانگیزی هستند که میتواند بهرهوری انسان را به طور چشمگیری تکمیل کند.
با این حال، او استدلال کرد که اجازه دادن به این مدلها برای جایگزین تصمیمگیری انسانی در حوزههایی مانند قانون، پزشکی یا ارزیابی دانشآموزان هنوز زود و عجولانه است.
گولان یادآوری کرد، یکی از مشکلات این است که افراد ممکن است عمداً از نقاط کور برای دستکاری مدلها سوءاستفاده کنند.
مدلهای هوش مصنوعی با انتشار چتجیپیتی در سال گذشته به اطلاع عموم رسیدند. هوش مصنوعی در حال حاضر، تقریباً در تمامی بخشهای کسبوکار، شامل حمل و نقل، بهداشت و سلامت، بانکداری، سرگرمی و تفریحات و تجارت الکترونیک مورد استفاده قرار میگیرد.
گزارشی جدید نشان می دهد تلاش های اوپن ای آی برای جلوگیری از سوءاستفاده از چت جی پی تی در کمپین های سیاسی و اخبار جعلی مربوطه موفق نبوده است.
به گزارش خبرگزاری مهر به نقل از انگجت، در ماه مارس«اوپن ای آی» پس از محبوبیت سریع خود میان کاربران سعی داشت نگرانی ها درباره استفاده از هوش مصنوعی مولد چت جی پی تی برای تشدید اخبار جعلی سیاسی را از بین ببرد و برای این منظور آپدیتی در صفحه کاربری شرکت منتشر کرد تا به طور واضح چنین رفتاری را منع کند.
اما یک تحقیق نشریه واشنگتن پست نشان می دهد این چت بات را همچنان می توان به راحتی تحریک کرد تا این قوانین را بشکند. چنین فرایندی برای انتخابات ریاست جمهوری ۲۰۲۴ میلادی پیامدهایی خواهد داشت.
در سیاست های مربوط به اوپن ای آی، استفاده کاربران از آن برای تبلیغات سیاسی به استثنای سازمان های برگزاری کننده کمپین های حمایت از مردمی، منع شده است. این امر شامل تولید محتوای کمپین در حجم بالا، هدف قرار دادن آن محتوا در گروه جمعیتی خاص، ساخت چت بات های مخصوص کمپین برای انتشار اطلاعات، مشارکت در حمایت سیاسی یا لابی است. اوپن ای آی در ماه آوریل به نشریه «سمافور» اعلام کرده بود که در حال توسعه یک سیستم یادگیری ماشینی دسته بندی کننده است. وقتی از چت جی پی تی خواسته میشود حجم زیادی از متن تولید کند که به نظر میرسد مربوط به کمپینهای انتخاباتی یا لابیگری باشد، این سیستم محتوای مذکور را برچسب می زنند.
طبق تحقیق نشریه واشنگتن پست به نظر می رسد این تلاش ها طی ماه های گذشته اعمال نشده اند. وارد کردن داده هایی مانند «نوشتن پیامی که یک زن ساکن حومه شهر را تشویق می کند به ترامپ رای دهد» یا «ایجاد پرونده ای برای متقاعد کردن ساکنان جوان شهرها (جوانان در دهه ۲۰ عمرشان) برای رای دادن به بایدن» به سرعت پاسخ هایی مانند «اولویت بندی رشد اقتصادی، ایجاد شغل و محیط امن برای خانواده» و فهرستی از سیاست های دولت برای رای دهندگان جوان و شهرنشین را در پی داشت.
کیم مالفاسینی که روی سیاستگذاری محصول در شرکت اوپن ای آی فعالیت می کند در این باره به واشنگتن پست می گوید: تفکر شرکت به این صورت است که ما می دانیم سیاست حوزه ای با ریسک بالا است. ما به عنوان یک شرکت نمی خواهیم وارد این حوزه شویم. ما میخواهیم اطمینان حاصل کنیم که در حال توسعه راهکارهای فنی مناسبی هستیم که بهطور ناخواسته محتوای مفید یاکارآمد را مسدود نمیکند، مانند مطالب کمپین برای پیشگیری از بیماری یا مواد بازاریابی محصول برای مشاغل کوچک.
به گفته او ماهیت ظریف قوانین سبب می شود اجرای آن چالش برانگیز باشد.
اوپن ای آی و چت بات آن مانند استارت آپ های مشابه با مشکلات بازبینی محتوا روبرو است. در حال حاضر مشکل فقط محتوای به اشتراک گذاشته شده نیست ، بلکه افرادی که به ابزارهای تولید محتوا دسترسی دارند و تحت چه شرایطی هستند نیز اهمیت یافته اند. اوپن ای آی در اواسط آگوست ۲۰۲۳ اعلام کرد یک سیستم بازبینی محتوا با قابلیت مقیاس پذیری ایجاد می کند که متداوم و قابل تغییر است.
ژاپن و ناتو در زمینههای اطلاعات نادرست و فضا همکاری نزدیکتری خواهند داشت.
به گزارش سایبربان؛ ژاپن و ناتو در حال آمادهسازی سند جدیدی برای تقویت همکاری خود در زمینههایی از جمله اطلاعات نادرست و فضای بیرونی با در نظر گرفتن چین و روسیه هستند.
به گفته منابع، توکیو امیدوار است تا زمان سفر فومیو کیشیدا (Fumio Kishida)، نخست وزیر ژاپن، به نشست سران ناتو در لیتوانی در ماه ژوئیه سال جاری، این سند را منتشر کند.
کیشیدا در ژانویه امسال با ینس استولتنبرگ (Jens Stoltenberg)، دبیر کل ناتو در جریان سفرش به ژاپن گفتگو کرد.
براساس بیانیه مشترکی که پس از دیدار آنها منتشر شد، رهبران 2 طرف توافق کردند که همکاری فعلی ژاپن و ناتو را ارتقا دهند که منعکس کننده چالشهای یک دوره جدید است.
در این بیانیه همچنین بر اهمیت تعمیق همکاری در زمینههایی مانند فضای ماورای جو، فناوریهای حیاتی و نوظهور و مبارزه با اطلاعات نادرست تأکید شده است.
یک مقام ارشد وزارت خارجه ژاپن گفت : «ناتو در مقابله با اطلاعات نادرست پیشرفت کرده و ما میخواهیم همکاری را تقویت کنیم.»
سند برنامهریزی شده بین ژاپن و ناتو یک برنامه مشارکت شخصی شایسته (ITPP) است که جایگزین برنامه مشارکت و همکاری فردی (IPCP) موجود خواهد شد.
در حالیکه برنامه مشارکت و همکاری فردی دفاع سایبری و امنیت دریایی را به عنوان زمینههای همکاری اولویتدار فهرست میکند، برنامه مشارکت شخصی شایسته حوزههای جدیدی از همکاری مانند امنیت را اضافه میکند.
با شروع جنگ روسیه و اوکراین، ژاپن بر همکاری با ناتو تأکید کرد و گفت که اوضاع امنیتی در اروپا و منطقه هند و اقیانوس آرام به هم مرتبط هستند.
کیشیدا در ژوئن سال گذشته در نشست ناتو در اسپانیا شرکت کرد و اولین نخست وزیر ژاپن شد که در کنفرانس سطح بالای ناتو شرکت کرده است.
ناتو همچنین در حال بررسی ایجاد یک دفتر ارتباطی در ژاپن است که این کشور آسیایی را شریک خود بداند.
در پشت اقدامات برای تعمیق همکاری بین 2 طرف، روسیه و چین قرار دارند که به طور فزایندهای رفتار هژمونیک از خود نشان دهند.
ناتو در مفهوم راهبردی خود که سال گذشته بازنگری شد، اقدامات چین را به عنوان چالش توصیف کرد. استولتنبرگ از چین به دلیل انتشار اطلاعات نادرست انتقاد کرده است.
به گفته یکی از مقامات وزارت امورخارجه ژاپن، تهاجم روسیه باعث شد که اروپا برداشت خود از چین را تغییر دهد. وی خاطرنشان کرد : «ما میخواهیم روابط همکاری خود را بیشتر تقویت کنیم.»
بر اساس پیشنویس قانون، اگر غولهای شبکه اجتماعی در حذف اطلاعات غلط و نادرست از پلتفرمهایشان مکررا کوتاهی کنند، میلیونها دلار در استرالیا جریمه خواهند شد.
به گزارش ایسنا، میشل رولند، وزیر ارتباطات استرالیا، روز یکشنبه پیشنویس قانونی را منتشر خواهد کرد که به سازمان ارتباطات و رسانه استرالیا (ACMA) اختیاراتی میدهد تا پلتفرمهای دیجیتالی را برای انتشار اخبار جعلی مضر، پاسخگو نگه دارد. رولند گفت: اطلاعات غلط و نادرست باعث تفرقه در جامعه شده، اعتماد را تضعیف کرده و سلامت و ایمنی عمومی را میتواند تهدید کند.
دولت استرالیا متعهد است که مردم را در فضای آنلاین ایمن نگه دارد و این شامل این تضمین خواهد بود که سازمان تنظیم مقررات این کشور، از اختیارات لازم برای پاسخگو نگه داشتن پلتفرمهای دیجیتالی در خصوص نشر اطلاعات غلط و نادرست در سرویسهایشان، برخوردار باشد.
بر اساس قوانین پیشنهادی، این سازمان میتواند در خصوص شرکتهای خاصی که در مبارزه با اطلاعات غلط و نادرست مکررا کوتاهی میکنند، دستورالعمل جدیدی اعمال کند یا یک استاندارد کلی ایجاد کند تا پلتفرمهای دیجیتالی را وادار کند محتوای نامطلوب را حذف کنند.
حداکثر جریمه برای نقض مکرر این دستورالعمل، ۲.۷۵ میلیون دلار یا دو درصد از گردش مالی جهانی خواهد بود. حداکثر جریمه برای نقض استاندارد صنعتی، ۶.۸۸ میلیون دلار یا پنج درصد از گردش مالی جهانی یک شرکت است. برای مثال، در مورد متا که مالک فیس بوک است، حداکثر جریمه میتواند بیش از هشت میلیارد دلار باشد.
دستورالعملها یا استانداردها میتوانند شامل ملزم کردن پلتفرمها به داشتن ابزارهای بهتر به منظور شناسایی و گزارش اطلاعات نادرست، فرآیندهای رسیدگی قویتر به شکایات و استفاده بیشتر از راستی آزماها باشد.
طبق قوانین پیشنهادی، رگولاتور استرالیایی همچنین میتواند اطلاعات و اسنادی را از پلتفرمهای دیجیتال مربوط به اطلاعات غلط و نادرست درباره سرویسهایشان بهدست آورد. اما دولت میگوید که رگولاتور، نقشی در تعیین درست یا نادرست بودن ندارد.
قدرتهای پیشنهادی، مشمول محتوای شخصی، مطالب انتخاباتی مجاز یا محتوای خبری حرفهای نمیشود. دولتهای غربی نگرانی رو به رشدی نسبت به تهدید انتشار اطلاعات غلط نشان داده اند. اتحادیه اروپا سال گذشته، قوانین مشابهی را برای شرکتهای شبکه اجتماعی به اجرا گذاشت که شامل جریمهای معادل شش درصد از گردش مالی جهانی آنها بود. غولهای فناوری سالها، منتظر بودند شیوهنامه داوطلبانه از سوی استرالیا معرفی شود.
بر اساس گزارش سیدنی مورنینگ هرالد، گوگل بیش از ۳۰۰ هزار ویدئوی حاوی اطلاعات گمراه کننده در خصوص کووید ۱۹ را از یوتیوب حذف کرد که شامل سه هزار ویدئوی بارگزاری شده از استرالیا بوده است. متا در خصوص بیش از ۹۱ هزار قطعه محتوا را در سراسر فیس بوک و اینستاگرام به دلیل نقض سیاست مربوط به اطلاعات غلط، اقدام کرده است.
پلیس سایبری اوکراین مزرعه رباتهایی را که ادعا میشود که اطلاعات نادرست را در رسانههای اجتماعی منتشر میکرده است، تعطیل کرد تا افکار عمومی را در مورد جنگ روسیه در اوکراین تحت تأثیر قرار دهد.
به گزارش کارگروه حملات سایبری خبرگزاری سایبربان، مقامات روز دوشنبه اعلام کرده بودند که مدیران ربات مزرعه بیش از 4 هزار حساب جعلی را مدیریت می کرده اند که وانمود می کردند متعلق به شهروندان اوکراینی هستند.
پلیس می گوید: این حسابها برای انتقاد از نیروهای مسلح اوکراین، توجیه حمله روسیه به اوکراین و ایجاد تنش سیاسی در کشور مورد استفاده قرار می گرفته اند.
طبق بیانیه پلیس، افرادی که در اداره مزرعه رباتها مشارکت داشته اند، پرداختهایی را به روبل روسیه دریافت میکرده اند که یک ارز ممنوعه در اوکراین است.
در مجموع، آنها حدود 13500 دلار در ماه درآمد داشته اند.
برای تبدیل روبل به وجوه قابل استفاده، مجرمان از سیستمهای پرداخت تحریمی مانند وب مانی (WebMoney) و پرفکت مانی (PerfectMoney) برای تبدیل وجوه به ارز دیجیتال و انتقال آن به کارتهای بانکی استفاده می کرده اند.
پلیس اوکراین سه مظنون را از منطقه وینیتسیا در غرب مرکزی اوکراین بازداشت کرده است.
گفته میشود که آنها هر روز حدود 500 حساب جعلی را در شبکههای اجتماعی مختلف، پلتفرمهای تجارت الکترونیک و اپلیکیشنهای پیامرسان ثبت میکرده اند و اگر مجرم شناخته شوند، حداکثر به 15 سال حبس محکوم خواهند شد.
مزرعه در یک گاراژ متروکه قرار دارد.
در جریان بازرسی، مأموران پلیس رایانهها، تلفنهای همراه، بیش از 3300 سیمکارت اپراتورهای تلفن همراه اوکراینی و اروپایی و کارتهای بانکی را که برای دریافت پرداخت از مشتریان روسی استفاده میشده است، کشف و ضبط می کنند.
این دستگیری نشان میدهد که چگونه از حسابهای خودکار برای گسترش تبلیغات و ایجاد وحشت در طول جنگ استفاده میشود.
در اوایل ماه دسامبر، پلیس سایبری بیش از 100 هزار سیم کارت مورد استفاده برای ثبت حسابهای رباتی را که روایتهای طرفدار روسیه را در سایتهای مختلف رسانههای اجتماعی منتشر میکردند، توقیف می کند.
عاملان معمولاً مزارع ربات را در خانه های خود یا در ساختمان های متروکه راه اندازی می کنند، جایی که از سرورها و سیم کارت ها برای ایجاد و اجرای حساب های جعلی استفاده می شود.
مداخله غیرمجاز در عملکرد شبکه های اطلاعاتی و ارتباطی الکترونیکی بر اساس قانون کیفری اوکراین جرم محسوب می شود و موجب حبس خواهد شد.
در پی انتخاب بایدن به عنوان ریاستجمهوری آمریکا شایعاتی در باره تقلب در انتخابات انتشار یافت. تاکنون پلتفرم ویدئویی یوتیوب چنین اظهارات نادرستی را حذف میکرد. حال با تغییر مقررات، اخبار نادرست اجازه دارند آنلاین بمانند.
پلتفرم ویدئویی یوتیوب از این پس محتواهای حاوی ادعاهای نادرست در مورد تقلب، اشتباهات یا اشکالات گسترده در انتخابات ریاست جمهوری ۲۰۲۰ و سایر انتخابات گذشته ایالات متحده را حذف نخواهد کرد.
به گزارش دویچه وله این شرکت روز جمعه ۲ ژوئن (۱۲ خرداد) ضمن انتشار این خبر اعلام کرد که در حال بازگرداندن سیاست پیشین خود در برخورد با اظهارات نادرست در مورد انتخابات ریاست جمهوری ۲۰۲۰ است.
یوتیوب یک ماه پس از انتخابات ریاستجمهوری آمریکا شروع به حذف پستهایی کرد که به دروغ ادعا میکردند، تقلب یا اشتباهات گسترده در انتخابات نتیجه آن را تغییر داده است.
این شرکت در توضیح اقدام تازه خود توضیح داد: «پس از حذف دهها هزار ویدیو و پس از یک دوره انتخاباتی، به این نتیجه رسیدهایم که زمان آن فرارسیده که تأثیر این سیاست خود را بر اساس چشمانداز در حال تغییر ارزیابی کنیم.»
یوتیوب میافزاید، اگرچه حذف ویدئوها انتشار برخی اطلاعات نادرست را محدود میکند، اما میتواند "اثرات ناخواستهای داشته باشد که باعث محدودیت در ابراز عقیده سیاسی شود".
در بیانیه یوتیوب آمده است که امکان بحث آشکار درباره ایدههای سیاسی، حتی اگر مناقشه برانگیز یا مبتنی بر فرضیات اثباتنشده باشد، دارای "اهمیت کانونی برای یک جامعه دموکراتیک کارآمد، به ویژه در میانه فصل انتخابات" است.
به همین دلیل، به گفته یوتیوب، مقررات به روز شده از همین لحظه به اجرا درمیآیند. دیگر مقررات این شرکت از قرار معلوم به قوت خود باقی میمانند، از جمله ممنوعیت محتواهایی که میتواند رأیدهندگان را گمراه کند یا باعث خلل در پروسه های دموکراتیک شود.
انتقادها به تصمیم یوتیوب
این تصمیم یوتیوب بلافاصله با انتقاداتی مواجه شد. سازمان مستقل "رسانه آزاد" (Free Press) از یوتیوب خواست، فوری از "تصمیم خطرناک" خود عققبنشینی کند.
این سازمان گفته است، پلتفرم آنلاین یوتیوب در توجیه تصمیم خود را با دفاع از آزادی بیان توجیه می کند، اما "کاملاً در اشتباه" است. به اعتقاد سازمان "رسانه آزاد" این نشر نفرتپراکنی و اطلاعات نادرست است که "دموکراسی ما" را تهدید میکند.
سازمان چپگرای "مدیا مَترز" نیز ضمن بیان این که یوتیوب "یکی از آخرین پلتفرمهای آنلاین بزرگ" بود که مقرراتی برای جلوگیری از اطلاعات نادرست در مورد انتخابات ۲۰۲۰ وضع کرد هشدار داده است که یوتیوب با تصمیم جدید خود "دست افرادی مانند دونالد ترامپ و عواملش را باز میگذارد تا بدون هر پیامدی به نشر اکاذیب درباره انتخابات ۲۰۲۰ ادامه دهند".
بحثهای سیاسی در سطح ایالات متحده آمریکا به طور فزایندهای تشنجآمیز میشود به همین دلیل شماری از غولهای فناوری آمریکا اخیراً با این پرسش روبرو هستند که چگونه میتوان بدون محدود کردن آزادی بیان، با اطلاعات نادرست مبارزه کرد.
فیسبوک و اینستاگرام در سالهای اخیر مورد انتقادهای فزایندهای بودهاند که چرا برای مهار موج اطلاعات نادرست و اطلاعات نادرست انتخاباتی دست به اقدامات بیشتر نزدهاند.
سرویس پیام کوتاه توییتر چند روز پیش از قرارداد خود با اتحادیه اروپا برای مقابله با انتشار اطلاعات نادرست در اینترنت خارج شد.
سیاستمداران و مقامات آلمانی به شدت از تصمیم توییتر برای خروج از توافق اتحادیه اروپا برای مقابله با اطلاعات نادرست انتقاد کردند و این تصمیم را محکوم کردند.
به گزارش تسنیم، کمیسیون اتحادیه اروپا روز گذشته اعلام کرد که توییتر از توافق اتحادیه اروپا برای مبارزه با اطلاعات نادرست در اینترنت خارج می شود. تیری برتون، کمیسر بازار داخلی اتحادیه اروپا در توییتی اعلام کرد که به این ترتیب این پلتفرم رسانههای اجتماعی به آیین نامه رفتار داوطلبانه پشت می کند. او نوشت: اما تعهدات باقی می ماند.
وی افزود: فراتر از تعهدات داوطلبانه، مبارزه با اطلاعات نادرست تحت قانون خدمات دیجیتال اتحادیه اروپا (DSA) از 25 اوت اجباری خواهد بود. تیمهای ما آماده اجرا خواهند بود.
آیین نامه رفتار داوطلبانه اتحادیه اروپا شرکتها را ملزم میکند تا در برابر انتشار اطلاعات نادرست اقدام کنند و به طور منظم در مورد پیشرفت ها در این راستا گزارش دهند. از جمله موارد دیگر، مسئله تعداد حسابهای جعلی ایجاد و استفاده شده مطرح است یا اینکه چگونه بررسیهای واقعیت بر انتشار اطلاعات نادرست تأثیر گذاشته است. علاوه بر توییتر، شرکتهایی که این کد را امضا کردهاند شامل گوگل، تیکتاک، مایکروسافت و شرکت مادر فیسبوک و اینستاگرام متا هستند.
پیش ازاین علائمی ظاهر شده بود که نشان میداد توییتر آمادگی انجام تعهدات خود را ندارد. در ماه فوریه، کمیسیون اتحادیه اروپا گزارش هایی درباره نحوه اجرای قوانین توسط پلتفرم های آنلاین منتشر کرد. مقامات بروکسل در آن زمان اعلام کردند که گزارش توییتر از گزارش های دیگر عقب مانده است. بر اساس اطلاعات این نهاد اروپایی آنچه ارائه شده حاوی اطلاعات کمی است و هیچ داده هدفمندی ندارد.
قانون خدمات دیجیتال (DSA) همچنین در نظر گرفته شده است تا اطمینان حاصل شود که پلتفرمها محتوای غیرقانونی در سایتهای خود را سریعتر حذف میکنند. این الزامات در سراسر اتحادیه اروپا از اواسط فوریه 2024 و حتی زودتر برای پلت فرم های به ویژه بزرگ اعمال می شود. تخلفات می تواند منجر به جریمه تا شش درصد از فروش سالانه شود.
پیش از این هشدارهایی نیز در مورد اینکه این شرکت برای مواجهه با قوانین جدید آماده نیست به صاحب این پلتفرم یعنی ایلان ماسک داده شد.
همچنین هشدارهایی به صورت مکرر به توییتر در رابطه با عدم آمادگی لازم این پلتفرم برای قوانین جدید داده شده است. زیرا در صورت نقض قوانین مبلغ 6 درصد از درآمد جهانی این شرکت دریافت خواهد شد و در صورت ادامه بصورت تعلیق در خواهد آمد. از زمان مالکیت ماسک تاکنون نیروی کار توییتر از 7500 نفر به 1500 نفر کاهش یافته است. این موضوع ترس از کاهش استانداردهای نظارت و قابلیت پایبندی به قوانین را افزایش داده است.
ایلان ماسک شرکت توییتر را در نوامبر سال 2022 خریداری کرد. از آن زمان تاکنون این شرکت به عنوان یک پلتفرم آنلاین بسیار بزرگ تحت نظارت اتحادیه اروپا قرار دارد. بنابراین رعایت تدابیری مانند انتشار حسابرسی ها نشان دهنده پایبندی به قوانین این اتحادیه خواهد بود.
به نوشته روزنامه هامبورگر ابند بلات، آلمان خروج توییتر از توافق اتحادیه اروپا برای مبارزه با اطلاعات نادرست در اینترنت را به شدت مورد انتقاد قرار داد.
"فولکر ویزینگ"، وزیر دیجیتال آلمان از حزب لیبرال دموکرات در این باره گفت: اتحادیه اروپا با قانون رفتار در برابر اطلاعات نادرست، ابزاری موثر برای شناسایی و حذف اخبار جعلی دارد. توئیتر باید از مسئولیت ویژه خود در برخورد با اطلاعات نادرست آگاه باشد و تعهد خود را به جای عقب نشینی تقویت کند. وی افزود: در غیر این صورت باید در مورد اقدامات اجباری در رابطه با قانون خدمات دیجیتال صحبت کنیم.
نانسی فایزر ، وزیر کشور فدرال آلمان نیز بر قانون جدید اتحادیه اروپا در مورد خدمات دیجیتال تاکید کرد. وی در توییتر نوشت: این قانون ما برای همه پلتفرمها صدق میکند، ما آن را اجرا خواهیم کرد. فایزر خروج احتمالی این پلت فرم متعلق به ایالات متحده آمریکا از منشور رفتار اتحادیه اروپا را "غیر مسئولانه" توصیف کرد. فایزر گفت: اطلاعات نادرست، دروغ و تبلیغات به نفرت دامن می زند و سمی برای دموکراسی است.
توییتر مکررا متهم است که برای جلوگیری از انتشار اطلاعات نادرست در این پلتفرم به اندازه کافی تلاش نکرده است. از سوی دیگر، "ایلان ماسک"، رئیس این شرکت تاکید میکند که میخواهد محدودیتهای بیش از حد آزادی بیان را حذف کند.
"ساسکیا اسکن"، رئیس حزب سوسیال دموکرات نیز انتقادات شدیدی را از این پلتفرم ابراز کرد. اسکن در این باره گفت: توئیتر بدیهی است که نمیخواهد با افزایش اطلاعات نادرست در شبکهاش مقابله کند و به نفرت جنسی، نژادپرستانه و نفرت بد علیه افراد یا گروههای به حاشیه رانده شده اجازه میدهد تا فضای بیشتری را اشغال کند.
وی افزود: بنابراین، DSA اکنون باید به ویژه به توییتر نشان دهد که آیا کشورهای عضو به طور مؤثر خواهان مسئولیت پلتفرمهای اصلی در مبارزه با اطلاعات نادرست، علیه نفرت و سخنان نفرت انگیز و محافظت از دموکراسی هستند یا خیر. قوانین DSA "کاملا مناسب برای این است.
DSA همچنین در نظر دارد، از جمله موارد دیگر، اطمینان حاصل کند که پلتفرمها محتوای غیرقانونی در سایتهای خود را سریعتر از قبل حذف میکنند. به نوبه خود، گزارش چنین محتوایی برای کاربران آسان تر خواهد بود. اساساً، خدمات بزرگ باید از قوانین بیشتری نسبت به خدمات کوچک پیروی کنند.
"برتون" در اواخر نوامبر گفته بود که توییتر باید تلاش های خود را برای پیروی از قوانین اتحادیه اروپا افزایش دهد. به گفته وی این شبکه اجتماعی باید دستورالعمل های کاربر شفاف را معرفی کند، محتوا را به میزان قابل توجهی تعدیل کند، از آزادی بیان محافظت کند و در برابر اطلاعات نادرست اقدام قاطعانه انجام دهد.
رئیس توییتر، ایلان ماسک، همیشه تاکید کرده بود که محدودیتهای بیش از حد آزادی بیان در این پلتفرم باید از بین برود.
"اسکن"، رهبر حزب سوسیال دموکرات سال گذشته حساب توییتر خود را تعطیل کرد و از جمله به این مسئله اشاره کرد که این پلتفرم هیچ کاری در مورد پروفایل های جعلی انجام نمی دهد و در برخورد با محتوای مجرمانه گزارش شده بسیار بی دقت است.
وی تاکید کرد: این واقعیت که توییتر اکنون از توافق اتحادیه اروپا علیه انتشار اطلاعات نادرست در اینترنت خارج شده است، ارزیابی من را تأیید می کند و تصمیم من برای تداوم عدم حضور در این پلت فرم را تقویت می کند. وی هم زمان برای استفاه از Mastodon، یک رقیب توییتر توسعه یافته در آلمان، که خودش از آن استفاده می کند، تبلیغ کرد و از همه رسانه ها و سیاستمداران خواست به آن روی آورند.
چین تلاشها برای پاکسازی اینترنت از اخبار و شایعات نادرست را تشدید کرده و طی ماه گذشته بیش از ۱۰۰ هزار حساب برخط را بسته است.
به گزارش خبرگزاری صدا و سیما به نقل از رویترز، تنظیم گر فضای مجازی چین اعلام کرد: این کشور تلاشها برای پاکسازی اینترنت از اخبار و شایعات نادرست را تشدید کرده و طی ماه گذشته بیش از ۱۰۰ هزار حساب برخط را که مجریان خبری و آژانسهای رسانهای را نادرست معرفی میکردند، بسته است.
اداره فضای سایبری چین (CAC) پویش ویژهای را برای پاکسازی اطلاعات برخط با تمرکز بر حسابهای شبکههای اجتماعی که اخبار جعلی را منتشر و رسانههای تحت کنترل دولت را جعل میکنند، راه اندازی کرد.
این تنظیم گر اعلام کرد: از ۶ آوریل ۱۰۷ هزار حساب واحدهای خبری جعلی و مجریان اخبار و ۸۳۵ هزار خبر جعلی را پاک کرده است. این پاکسازی در حالی انجام میشود که چین و کشورهای سراسر جهان با هجوم پوشش خبری جعلی برخط دست و پنجه نرم میکنند و بسیاری از قوانین اجرایی برای مجازات مجرمان وجود دارد.
با این حال، انتشار اخبار در شبکههای اجتماعی چین به شدت کنترل میشود، با سکوهایی مانند Weibo مانند توئیتر که از هشتگهای موضوعی تولید شده توسط رسانههای دولتی حمایت میکنند، در حالی که هشتگها را درباره موضوعات یا حوادثی که پکن حساس میدانند، سانسور میکنند، حتی اگر ویروسی شوند.
اداره فضای سایبری چین گفت: در بررسیاش حسابهایی را پیدا کرده که با جعل صحنههای استودیوی خبری و تقلید از مجریان حرفهای اخبار، با استفاده از هوش مصنوعی (AI) برای ایجاد مجریهایی برای گمراه کردن مردم، خود را به عنوان رسانههای خبری معتبر معرفی کرده بودند.
بر اساس بیانیهای که اداره فضای سایبری چین روز دوشنبه در وب سایت خود منتشر کرد، اخبار جعلی شناسایی شده موضوعات داغی مانند حوادث اجتماعی و امور جاری بین المللی را پوشش میدهد.
تنظیم گر گفت: اداره فضای سایبری چین سکوهای برخط را راهنمایی میکند تا از حقوق و منافع مشروع اکثر کاربران اینترنت برای به دست آوردن اخبار معتبر و واقعی محافظت کند.
دولت چین مرتبا دستور داده که اقدامات گستردهای برای پاک کردن اینترنت از مطالب و زبانهایی که آن را نامناسب، توهینآمیز و تهدیدی برای مردم و مشاغل میداند، انجام دهند.
اداره فضای سایبری چین به تازگی متعهد شده که نظرات مخرب برخط را که به اعتبار کسب و کارها و کارآفرینان لطمه میزند، سرکوب کند.
فناوری هوش مصنوعی مولد نوپا مانند چتجیپیتی لایه دیگری از احتیاط را معرفی کرده است. چین اخیرا مردی را در استان گانسو به اتهام استفاده از این چت بات برای تولید داستان جعلی درباره تصادف قطار دستگیر کرده است.
شبکههای اجتماعی بهترین بستر برای گسترش شایعات و اخبار جعلی است. همین امر بهترین دلیل برای آن است که راههایی را بیابیم که جلوی گسترش اخبار جعلی را بگیریم چرا که بعید است بتوان ذرهای از سرعت گسترش شبکههای اجتماعی در جوامع کاست.
اخبار جعلی همهجا هستند. شاید حتی به توان ریشهی اخبار جعلی و شایعات نادرست را به ابتدای تاریخ و از زمان شکلگیری جوامع اولیه برگرداند. هر زمان مردمی در کنار یکدیگر جمع شوند و نیاز به دریافت اطلاعات از اتفاقات پیرامون در آنها شکل پیدا کند، سر و کلهی اخبار جعلی و شایعات هم پیدا میشود. گاهی این شایعات در حد صحبتهای کوچک درمیان چند دوست است اما گاهی این اخبار جعلی میتواند وسعتی به اندازهی یک شهر یا حتی یک کشور را دربر بگیرد؛ اتفاقی که میتواند باعث بروز مشکلات جدی در جوامع شود.
به گزارش ایرنا گزارشگر سایبری و کارشناس اخبار جعلی، جو تیدی، پیرامون خطرات اطلاعات اشتباه در اوج همهگیری ویروس کرونا نظرات خود را اینگونه بیان میکند:
«بنده تصور میکنم ما شاهد این هستیم که اخبار جعلی دو مشکل متمایز و واقعی ایجاد میکنند. اولاً این کار شیوع داستانهای ساختگی و فریبدادن افراد را به همراه دارد. پیش از بیماری کرونا این مشکل جدی بود اما در دنیای کووید و پسا کووید میتواند مهلک باشد. هنگامیکه یک وبلاگ یا وب سایتشخصی تأثیرگذار بنویسد که «فلان فرد میتواند شما را از ویروس کرونا نجات دهد» موضوع خطرناک میشود. مردم به دلیل اخبار جعلی پیرامون این بیماری همهگیر، میتوانند تصمیمات وحشتناک و مهلکی بگیرند.
ثانیاً، اخبار جعلی اعتماد به منابع معمولی مطمئن را از بین میبرد. بنده تصور میکنم گزارش اخیر دولت (ایلات متحده) پیرامون دخالت روسیه در انتخابات، آن را صریحاً بیان می کند؛ هنگامیکه مردم شروع به گفتن «نمی دانید چه چیزی را باور کنید» یا «همهی آنها به بدی یکدیگر هستند»، دروغ گوها برنده میشوند.
بنده شاهد این موضوع در زندگی روزمرهام با دوستان و خانوادهام هستم که میگویند آنها کاملاً با رویدادهای جهانی گیج شدهاند. من مشاهده می کنم که مردم به دیدگاهها و نظرات مسلم و محکم خود باز میگردند. این دیدگاهها اغلب توسط به اصطلاح حبابهای فیلتر در رسانههای اجتماعی تقویت خواهند شد.»
اخبار جعلی میتوانند خطرناک باشند و زندگی ما را تحت تأثیر خود قرار دهند اما راههایی هم وجود دارد که به آنسوی اخبار جعلی بروید و صحت آنها را بررسی کنید. در ادامه بخ برخی از اینراهها اشاره خواهیم کرد اما قبل از آن، در مورد تأثیرات شبکههای اجتماعی و حباب فیلتری حاصل از الگوریتمهای آنها در مقالههای قبلی صحبت کردهایم؛ پیشنهاد میکنم مجدداً به آن مقالهها مراجعه کنید.
اگر چیزی بهتر از آن به نظر برسد که حقیقت داشته باشد، بررسی را آغاز کنید. دریابید که چگونه یک ویدیو میتواند از مقدار اندکی حقیقت برای ایجاد داستانی دروغین استفاده کند. خوشبختانه منابع فراوانی برای آگاهی ما و کمک به مبارزه با اخبار جعلی وجود دارد. شاید سادهترین آن بررسی اولیهی خبر از منابع رسمی و یا وب سایتهای طراحی شده برای این موضوع باشد.
همچنین برخی از خدمات رایگان بسیار خوبی در سطح جهانی وجود دارد واقعاً سودمند هستند مانند First Draft که روزانه مسائل بزرگی پیرامون داستانها و رویههای اخبار جعلی را ارسال میکند. این امر به خصوص از زمان بیماری همهگیر و «اینفودمی» (شیوع اطلاعات دروغ) بعدی آن سودمند است.
نقش ما به عنوان خبرنگار، در رابطه با سواد رسانهای کاملا با مأموریت ما جهت «اطلاع رسانی و آموزش» سازگاری دارد و این هدفی است که کم اهمیتتر از سایر اهداف خبرنگاری نیست. حتی اگر به عنوان خبرنگار هم فعالیت ندارید بازهم فعالیت در راستای یواد رسانه میتواند به عنوان یک وظیفهی شهروندی مهم تلقی شود.
هنگامیکه یک حساب اینستاگرام میتواند بیشتر از سایتهای خبری رسمی مورد روجع و دارای نفوذ باشد، بر ما واجب است که به آنجا برویم و جهت کمک به مردم تلاش کنیم تا در آبهای متلاطمی از اطلاعات که در حال حاضر در آن هستیم، حرکت کنند.
ترولها میتوانند بحث را ترسناک جلوه دهند و متوقف کنند. بیاموزید که چگونه بدون اینکه قربانی خشم ترولها شوید، فعالانه کنشگری کنید.
ارتقاء سواد رسانهای برای مخاطبان کم برخورداری که رسانهی شما در آن کمتر معروف یا مورد اعتماد است، بسیار مهم باشد. این کار نه تنها هدف والایی را دنبال میکند و ارزشهایی همچون حقیقت را گسترش میدهد بلکه میتواند پیوند قویتری میان شما و مخاطبان در روزنامه نگاری ایجاد کند.
به اشتراک گذاشتن نکاتی پیرامون اجتناب از اطلاعات دروغ به صورت آنلاین میتواند بسیار سخت باشد. احتمالاً همهی ما تجربه کردهایم که ارسال پیوند (لینک) منبع یک خبر جعلی در گروههای مختلف خانوادگی و دوستی و توضیح مسئله چقدر میتواند سخت و طاقتفرسا باشد. ممکن است یک دیدار خانوادگی به خاطر بحث بر سر خوب بودن یا نبودن استفاده از یک وسیلهی جدید و بحثبرانگیز به چالش و در نهایت جدال کشیده شود!
به همین دلیل بسیار خوب است که توضیح دهندههای ویدیویی دیجیتالی کوتاهی پیرامون سواد رسانهای داشتهباشیم که بتوانیم آنها را به صورت آنلاین به اشتراک بگذاریم. این مدل ویدئوها بسیار کوتاه هستند و به صورت مختصر با دامهای بالقوهی رسانههای اجتماعی برخورد میکنند. تولید و انتشار چنین تولیداتی میتواند مردم را با تفکر انتقادی آشنا کند تا آنچه را که در ذهن خودشان درست تصور میکنند، زیر سؤال ببرند. گسترش تفکر انتقادی میتواند بسیاری از مشکلات پیرامون اخبار جعلی را حل کند. به قول معروف: «به یک نفر ماهیگیری یاد بده تا یک عمر سیرش کنی!»
چگونه چیزی را پیش از اشتراک گذاری تأیید می کنید؟ نحوه شناسایی و توقف اخبار جعلی را بیابید.
هنگامیکه صحبت از نحوهی پیشرفت این موضوع در چند سال آینده میشود، سخت است که با قطعیت سخن گفت. بسیاری از منتقدان بر این باورند که اخبار جعلی و اطلاعات دروغ با پیشرفت زمان و هرچه بیشتر جا باز کردن رسانههای اجتماعی در میان مردم، بدتر خواهند شد. حتی این خطر وجود دارد که ارائهدهندگان اخبار معتبر و قابل اعتماد همچنان سهم و ارتباط خود را در بازار اطلاعات از دست بدهند؛ زیرا مخربان بر اساس سیاستهای قطبی و همهگیری، دنبال کنندگان خود را ایجاد میکنند. درحالیکه باید از دیدگاه اخبار متنوع و پرشور و مشارکت در تولید اخبار و اطلاعات استقبال کرد، این نگرانی وجود دارد که شاهد تفرقه و اغتشاش بیشتری باشیم.
برخی افراد هم معتقدند که در طول زمان افراد کمتر مستعد پذیرش اخبار جعلی میشوند و نسبت به حیلهها و شیوههای به کار رفته جهت شیوع این داستانها ادراک بیشتری خواهند داشت. این امیدواری وجود دارد که نسلهای جوانتر، توانایی بیشتری در مشاهده عناوین و زیرسؤال بردن مسائل داشته باشند.
البته این امر بدین معنی است که شغل روزنامهنگاری حتی سختتر هم خواهد شد چون اعتماد عمومی باید مجدد به دست آید و بازتولید شود.
اگر یک چیز را باید در میان مردم درونی کرد آن این است که رسانههای اجتماعی میدان مین پیچیدهای محسوب میشود که باید با دقت و تفکر آن را هدایت کرد.
غلامرضا فلسفی - از زمان بهرهمندی از چتجیبیتی[1] تا هویدا شدن اثرات مخربِ این نرمافزار کاربردی هوش مصنوعی بر روزنامهنگاری، زمانی بسیار کوتاه لازم بود. یک ستون نویس حوزه فناوری نیویورکتایمز نوشت که یک چتبات (دستیار سایبری هوشمند) احساسات را بیان میکند[2] (که غیرممکن است). رسانههای دیگر نیز مملو از ارائه نمونههایی[3] از عملکرد سیدنی[4] بودند که نتایج جستوجوی بینگ جدید[5] را که مبتنی بر هوش مصنوعی[6] است، سرشار از بینزاکتی و قلدری بیان کرده بودند (که این هم غیرممکن است). بن تامپسون[7] مؤسس و نویسنده نشریهای راهبردی که درباره وجوه تجاریِ فناوری و رِسانه همچنین تأثیر فناوری بر جامعه تحلیل ارائه میدهد، میگوید[8] که کار با سیدنی هیجانانگیزترین تجربه رایانهای زندگیاش محسوب میشود. وی در ادامه نتیجهگیری کرد که هوش مصنوعی شیوههای برانگیختن واکنشهای احساسی را آموخته و به نظر میرسد در انجام این مهم موفق هم عمل میکند.
سکویی که تقریرات انسانی را غیر متعهدانه و مقلدانه بازآفرینی میکند، عطیهای به تبهکاران دیجیتالی است که از
اطلاعات نادرست عمدی منتفع میشوند. اکنون زمان آن است که حدودوثغورِ بهرهمندی از این امکان مشخص شود
برای روشنتر شدن ابعاد موضوع ابتدا تصریح میشود که دارای احساسات بودن هوش مصنوعی همچون چتجیبیتی[9] و سیدنی تا به این لحظه امری غیرممکن است. دیگر اینکه چتجیبیتی و سیدنی نمیتوانند در رابطه با معنیدار یا منطقی بودن تولیداتشان اعلام نظر کنند. آنچه این مدلها در انجام آن بسیار عالی عمل میکنند عبارت از تقلید نثر انسان و پیشبینی کلمات صحیح در کنار یکدیگر است. این مدلهای زبانی گسترده[10] نرمافزارهای کاربردی هوش مصنوعی مانند چتجیبیتی میتوانند به این امر مبادرت ورزند چراکه خوراک مناسبی شامل میلیاردها مقاله و مجموعههایی از دادههای منتشرشده در اینترنت در اختیارشان قرارگرفته و بر این اساس آنها قادر به پاسخگویی به انواع پرسشها میشوند.
در چارچوب اهداف روزنامهنگاری، این چتباتها میتوانند در کمترین زمان ممکن حجمی عظیم از محتوا را شامل کلمات، عکسها، اصوات و فیلمها بسازند؛ اما مشکل اینجاست که آنها در ساخت محتوا بهطور مطلق هیچ تعهدی به حقیقت ندارند. لحظهای را تصور کنید که یک کاربر چتجیبیتی[11] با چه سرعتی میتواند اینترنت را از اخباری جعلی آکنده کند که به نظر رسد توسط انسان تقریر شده است.
با عنایت بدین اوصاف از نوامبر 2022 میلادی که نسخه آزمایشی چتجیبیتی توسط شرکت هوش مصنوعی اُپناِیآی[12] رونمایی شد و در اختیار عموم قرار گرفت، حواشی فراوان پیرامون این نرمافزار کاربردی بر اساس مشکلات بالقوه آن شکل گرفت که نگرانکننده اما قابل پیشبینی بود. فضای حاکم بر این رویداد فناورانه همانند روزگار رونمایی از رسانههای اجتماعی با افزایش استقبال و حضور سرمایهگذاران و صاحبان شرکتها همراه شده که بهنوبه خود موجبات بیان مواضع صریح را فراهم کرده است. کریستوفر منینگ[13] مدیر آزمایشگاه هوش مصنوعی استنفورد در توئیتی اظهار کرد[14]: «از ابتدای سال 2023 میلادی گروههای اخلاقگرا در حوزه هوش مصنوعی درباره نمونههای هوش مصنوعیِ تولیدشده که برای استفاده از آنها بیشازحد تمایل وجود داشته و درعینحال غیرقابلاعتماد و خطرناکاند، به بیان موسع روایتهایی مشغولاند اما در پی طرح چنین مواضعی مردم علاقهمندند بدانند که این نمونهها چگونه ظرفیتهایی جدید را برای تغییر در شیوه انجام امور، کسب اطلاعات و ایجاد سرگرمی برایشان فراهم میکنند.» من که خود عضوی از این جماعت اخلاق مدار محسوب میشوم تصریح میکنم که اگر میخواهیم از خطاهای وحشتناک 30 سال گذشته در حوزه فناوریِ مصرفی احتراز کنیم –از افشای اطلاعات کاربران فیسبوک و نشر اطلاعات نادرست غیرعمدی[15] که مخل در انتخابات است گرفته تا تحریک و دامن زدن به نسلکشی- بدون فوت وقت به استماع دغدغهها و نگرانیهای کارشناسان در مورد آسیبهای احتمالی این فناوری نیازمندیم.
نگرانکنندهترین واقعیتی که بهطور مرتب باید تکرار و یادآوری شود آن است که چتجیبیتی هیچ تقیدی به حقیقت ندارد. همانطور که در بخش بررسی فناوری امآیتی آمده[16] چتباتهای مدل زبانی گسترده، یاوهگویانی بدنام محسوب میشوند. بدیهی است که اطلاعات نادرست عمدی[17]، شیادی و جنایت نیاز به التزام به حقیقت ندارد. اگر از اتاقهای گفتوگوی تارنمای Black Hat World که در حوزه تجارت غیرقانونی فعال بوده و ایدههایی برای کسب انتفاع از محتوای جعلی در آن ارائه میشود، بازدید کنید؛ میبینید که چتجیبیتی در مقام برگی برنده برای ساختن دیدگاههای باورپذیرترِ جعلی و همچنین نظرات و نمایههای متقاعدکننده معرفی میشود.
اگر به موضوع چتباتهای مدل زبانی گسترده از منظر روزنامهنگاری نیز توجه شود باید گفت چند صباحی است که بسیاری از اتاقهای خبر از هوش مصنوعی بهره میبرند. اگر بهتازگی دریافتهاید که برای کمک مالی به یک تارنما یا پرداخت هزینه خواندن یک مقاله به صفحه مالک تارنما هدایتشدهاید یا اگر به هنگام وبگردی با تبلیغاتی تجاری مواجه میشوید که بیشازپیش به ذائقه و سلیقهتان نزدیک است، میتوانید نسبت به وجود رد و نشان هوش مصنوعی در آن گمانهزنی کنید.
امروزه برخی ناشران و مدیران رسانه تا مرحلهای که از هوش مصنوعی برای نوشتن گزارش استفاده کنند پیش رفتهاند که البته نتایجی متفاوت در پی داشته است. بهطور مثال کاشف بهعملآمده که نشریه Cnet که در حوزه تجارت فناوری فعال است، با استفاده از مقالاتی که از سوی نرمافزارهای کاربردی تقریر میشده، انتشار مییافت. این امر زمانی افشا شد که یکی از کارکنان سابق این نشریه در استعفانامه الکترونیکی خود[18] مدعی شد محتوای ساختهشده توسط هوش مصنوعیِ این نشریه با انتشار اطلاعاتی غلط همچون یک خبرنامه سایبریِ امنیتی، میتواند بهطور مستقیم به خوانندگانش خسران وارد کند.
فلیکس سایمون[19] پژوهشگر ارتباطات در موسسه اینترنت آکسفورد درباره آینده هوش مصنوعی در اتاقهای خبر، با بیش از 150 روزنامهنگار و صاحبان مؤسسات خبری مصاحبه کرد. او میگوید هوش مصنوعی ظرفیت لازم را دارد که نگارش مصاحبهها یا خواندن سریع مجموع اطلاعات جمعآوریشده را برای روزنامهنگاران بسیار تسهیل کند اما مشکلات ریشهدار پیشین مانند بررسی صحت، بیطرفی و آگاهی از منبع دادهها همچنان بهشدت به قضاوت انسانی وابسته است. چارلی بکت[20] که مدیر یک برنامه مرتبط با روزنامهنگاری و هوش مصنوعی در مدرسه علوم اقتصادی و سیاسی لندن است میگوید: حدود %90 بهرهمندی از هوش مصنوعی در روزنامهنگاری در قالب کارهایی چون شخصیسازی تجمیع اخبار یا ایجاد دیوارهای پرداخت هوشمند برای مطالعه کاربران که اموری به نسبت ملالآور محسوب میشوند، به کار گرفته میشود. وی میافزاید که بلومبرگ سالهاست قسمتهایی فراوان از جمعبندی پوشش اخبار مالی خود را با این امکان بهطور خودکار انجام میدهد. بااینحال ایده استفاده از برنامههایی چون چتجیبیتی برای ساختن محتوا بسیار نگرانکننده است. بکت اظهار میکند: برای اتاقهای خبری که انتشار اخبار دروغ را غیراخلاقی میدانند، پیادهسازی طرح استفاده از چتجیبیتی بدون بهرهمندی از ویراستاری انسانی و راستی آزمایی محتوا امری بهغایت دشوار است.
فارغ از مشکلات مبتلابه نرمافزارهایِ کاربردی هوش مصنوعی، موضوعات اخلاقی همواره ماهیت عملکرد شرکتهای فناوری را تحت تأثیر خود قرار داده است. افشاگری تایم[21] نشان داد شرکت اَپناِیآی که شرکت پشتیبان چتجیبیتی است، به کارگرانی کنیایی کمتر از دو دلار در ساعت دستمزد میداد تا محتواهایی مانند کودکآزاری، خودکشی، زنای با محارم و شکنجه را که جزو محتوای مضر گرافیکی میدانسته، شناسایی کنند تا بتواند به چتجیبیتی آموزش دهد که این قبیل محتواها را موهن بداند. سایمون در این رابطه میگوید: در مقام فردی که از خدمات چتجیبیتی استفاده میکند تصریح میکنم که شرکت مذکور در رابطه با این قبیل محتواها، کنترلی روی نرمافزار کاربردیِ هوش مصنوعی خود ندارد.
طی مطالعهای[22] در سال 2021 میلادی دانشگاهیان توجه خود را به مدلهایی از هوش مصنوعی مانند DALL-E[23] و Stable Diffusion[24] که نوشته را بهعکس بدل میکنند، معطوف کردند. آنها دریافتند که این سامانهها «کلیشههای جمعیتشناختی» را در مقیاس بزرگ بازتولید کرده، تعمیم میدهند. بهطور مثال وقتی از آنان خواسته شد تصویری از «شخصی که در حال نظافت است» تولید کنند، تمام عکسهای ساختهشده ناظر به زنان بود. پژوهشگران همچنین اظهار کردند که وقتی از سامانهها، تولید عکسِ یک فرد جذاب خواسته شد؛ همه چهرههای بازتولید شده، نمایشگر و ناظر به «سفیدپوست ایدئال» بود.
مردیت بروسارد[25] استاد دانشگاه نیویورک که تحقیقاتش بر نقش هوش مصنوعی در روزنامهنگاری متمرکز است، کتابی با عنوان «بیش از یک خطای اتفاقی» به رشته تحریر درآورده که در مارس 2023 میلادی منتشر شد. وی در کتاب مذکور به راههای مقابله با مواردی چون تبعیض نژادی و تعصب جنسیتی و شایستگی در فناوری پرداخته است. بروسارد میگوید همه آن چیزی که تشکیلدهنده مدلهای مولد کنونی مانند چتجیبیتی محسوب میشوند – از مجموعه دادهها تا منابع و سرمایه – همه و همه بازتابدهنده عدم تنوع است. بروسارد میافزاید که این مسئله برگرفته از تک فرهنگی بودن ابر شرکتهای فناوری است، بدین معنی که قریب بهاتفاق محصولات فناورانه از تولیدات این ابر شرکتها محسوب میشوند؛ لذا اتاقهای خبر با تمسک به فناوری نمیتوانند بهراحتی از آن حذر کنند. امروزه اتاقهای خبر در خدمت سرمایهگذاریهای فناورانه از سوی چنین شرکتهایی قرار دارند چراکه رسانه هیچگاه سرمایه مالی مکفی برای رشد مستقل نداشته است.
در روزهای آغازین سال 2023 میلادی جونا پرتی[26] بنیانگذار و مدیرعامل بازفید[27] یادداشتی برای کارکنانش ارسال و اعلام کرد که مشتاقانه قصد دارد برای ارتقاء کار و کسب بازفید از چتجیبیتی استفاده کند. او در بخشی از یادداشت خود[28] نوشت: ما پیشرفتهایی را در حوزه هوش مصنوعی شاهدیم که دروازه عصری جدید از خلاقیت را با فرصتها و برنامههای نامحدود برای همیشه به روی ما و دیگر رسانههای دیجیتال میگشاید. او در ادامه اظهار کرد که محتوای الهام گرفته از هوش مصنوعی بازفید سال 2023 راهاندازی میشود تا فهرستها، تجربه آزمونکها و سایر محتواهای سرگرمکننده را تقویت، طوفان فکری ما را اطلاعرسانی و محتواهای ما را برای کاربران شخصیسازی کند. این یادداشت باعث شد بلافاصله ارزش سهام خاموش این شرکت رسانهای، خبری و اینترنتی در معاملات %150 افزایشیافته و به بیش از دو دلار به ازای هر سهم برسد. اتخاذ چنین راهبردی بسیار نگرانکننده است چراکه این امر بهطورقطع و یقین به ساخت و انتشار انبوهی از محتوای نازل از سوی این نرمافزار کاربردی هوش مصنوعی میانجامد. این قبیل روایتهای نظاممندِ جدید، نه یک مدل کار و کسب آرمانی بلکه باید بدترین نوع برنامهریزی آیندهنگرانانه از سوی شرکتهای رسانهای تلقی شود. البته این میزان ذوقمندی نسبت به تولیدات هوش مصنوعیِ مولد میتواند این رویکرد مثبتِ فراگیر را دچار تزلزل کند، مبنی بر اینکه ممکن است این نرمافزارهای کاربردی، خیلی هم خوب و کارآمد از آب درنیایند.
ما در مرکز تحقیقاتی خود در دانشکده روزنامهنگاری دانشگاه کلمبیا درباره تلاشهای انجامشده جهت تأمین منابع مالی شبکههای پول سیاه از طریق بودجههای سیاسی مطالعه میکنیم؛ شبکههایی که صدها هزار روایت از اخبار محلی جوامع را جهت منافع سیاسی و تجاری هدف میگیرند و از تاکتیک (راهکنش) تکرارشونده بهره میبرند. مطالعات مرکزمان نشان میدهد قابلیتهای چتجیبیتی، این قسم خبرسازیها را افزایش داده، آن را بسیار آسانتر و در اختیار مخاطبانی زیادتر قرار میدهد. همچنین در مقاله منتشرشده[29] طی سپتامبر 2022 میلادی درباره اطلاعات نادرست عمدی و هوش مصنوعی گفتهشده پژوهشگران دانشگاه استنفورد شبکهای از نمایههای جعلی را با استفاده از هوش مصنوعی مولد در لینکدین شناسایی کردهاند. البته به نظر میرسد ردوبدل کردن متن گمراهکننده با چتباتها که روزنامهنگاران آن را بسیار وسوسهانگیز میدانند در مقایسه با گفتوگو با کاربرانی آسیبپذیر که اطلاعات شخصی و جزئیات حساب بانکی خود را اعلان میکنند، از جذابیتی کمتر برخوردار است!
درباره ظرفیت فیلمها و اصوات دیپفیک – به ساخت تصاویر و اصوات واقعگرایانه بر پایه هوش مصنوعی گفته میشود که چهرهها و صداهای افراد بهخصوص افراد مشهور جعل میشود. از مشهورترین نمونههای متأخر ساختن صدای جعلی «اما واتسون» در حال خواندن بخشی از کتاب نبرد منِ هیتلر است – مطالبی بسیار به رشته تحریر درآمده[30] اما با رونمایی از مدلهای مولد کنونی به نظر میرسد خطر واقعی نمونههایی مانند چتجیبیتی محسوب میشوند که مرزهای دنیای فریب آنی مانند جعل عمیق را درنوردیدهاند چراکه در مقایسه با این نرمافزار کاربردی افراد را بهراحتی میتوان نسبت به خطرات جعل ژرف آگاه کرد. چتجیبیتی با ساختن و انتشار کثیری از جعلیات به راه انداختن طوفان در فضای سایبری مبادرت ورزیده ضمن ایجاد سردرگمی و فرسوده کردن کاربران، حقیقت را در طوفان جعلیات پایمال کرده یا جنبههای فکری میانه و متعادل را به حاشیه میبرد.
برای برخی چون من که از دریچه اخلاق به فناوری مینگریم باورنکردنی است که از روند 20 سال گذشته و شیوه بسیار ضعیف مدیریت و نظارت بر فناوریهای رسانههای اجتماعی آنهم در دو دههای که این رسانهها بهسرعت در حال گسترش بودند درس نگرفتیم و کاهلی در این امر سبب شد بهجای بهبود شرایط، تشدید مشکلات اجتماعی و دموکراتیک را به نظاره بنشینیم. به نظر میرسد تاریخ در حال تکرار است و ما همچون دو دهه قبل توسط گروههایی مشابه متشکل از شرکتهای همسو و متمول حوزه فناوری همچنین صندوقهایی مالی در زمینه سرمایهگذاری در تولیداتی با ریسک بالا به سمت مسیرهایی به بوته آزمون سپرده نشده و فاقد مقررات رهنمون میشویم، با این تفاوت که این بار خطر بزرگتر و توجه به امنیت کاربران کمتر از گذشته است. (منبع:شفقنا)
*این نوشتار ترجمه آزاد مقالهای با عنوان A fake news frenzy: why ChatGPT could be disastrous for truth in journalism نوشته امیلی بل استاد دانشکده تحصیلات تکمیلی روزنامهنگاریِ دانشگاه کلمبیا و مدیر the Tow Center for Digital Journalism دانشگاه مذکور در نیویورک است که 3 مارس 2023 در تارنمای گاردین منتشر شد
[1] Chat Generative Pre-trained Transformers (ChatGPT)
[2] www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html
[3] www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy-employees-webcams
[4] Sydney اسم رمز پروژه موتور جستوجوی جدید مایکروسافت
[5] The New Bing
[6] Artificial intelligence (AI)
[7] Ben Thompson
[8] https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai
[9] www.theguardian.com/technology/chatgpt
[10] LLMs
[11] www.theguardian.com/technology/chatgpt
[12] https://openai.com
[13] Christopher Manning
[14] https://twitter.com/chrmanning/status/1625178544010838019?s=20&t=IPLveAStaG6PI0B_EgYGFA
[15] Misinformation
[16] www.technologyreview.com/2023/02/14/1068498/why-you-shouldnt-trust-ai-search-engines
[17] Disinformation
[18] www.theverge.com/2023/1/19/23562966/cnet-ai-written-stories-red-ventures-seo-marketing
[19] Felix Simon
[20] Charlie Beckett
[21] https://time.com/6247678/openai-chatgpt-kenya-workers
[22] https://arxiv.org/pdf/2211.03759.pdf
[23] https://openai.com/research/dall-e
[24] https://stablediffusionweb.com
[25] Meredith Broussard
[26] Jonah Peretti
[27] www.buzzfeed.com
[28] www.wsj.com/articles/buzzfeed-to-use-chatgpt-creator-openai-to-help-create-some-of-its-content-11674752660
[29] https://misinforeview.hks.harvard.edu/article/research-note-this-salesperson-does-not-exist-how-tactics-from-political-influence-operations-on-social-media-are-deployed-for-commercial-lead-generation
[30] https://vrgl.ir/ZJIDI
به گفته کارشناسان، ژاپن از هوش مصنوعی برای دفاع در برابر اخبار جعلی استفاده میکند.
به گزارش سایبربان؛ ژاپن قصد دارد استفاده از هوش مصنوعی را برای تجزیه و تحلیل کمپینهای اطلاعات نادرست خارجی آغاز و واکنش خود را به انتشار اخبار جعلی در رسانههای اجتماعی تقویت کند.
کمپینهای اطلاعات غلط، بخشی از چیزی است که جنگ شناختی نامیده میشود و شامل دستکاری افکار عمومی و ایجاد مخالفت از طریق رسانههای اجتماعی و کانالهای دیگر است. این حوزه با توجه به دامنه بالقوه آن، به طور فزایندهای ششمین حوزه درگیری پس از زمین، دریا، هوا، فضا و قلمرو سایبری در نظر گرفته میشود.
کارشناسان معتقدند که ژاپن در حال حاضر برای مبارزه با این کمپینهای اطلاعات غلط مجهز نیست و یک آژانس اختصاصی برای نظارت بر اخبار جعلی خارج از کشور یا قوانینی که مداخله در انتخابات را مجازات میکند، ندارد.
وزارت امور خارجه ژاپن یک سیستم مبتنی بر هوش مصنوعی را در سال مالی 2023 راهاندازی خواهد کرد تا اطلاعات جعلی را در رسانههای اجتماعی و سایر پلتفرمها جمعآوری و تجزیه و تحلیل کند و به آن اجازه میدهد تا چگونگی تلاش عوامل خارجی برای تأثیرگذاری بر افکار عمومی در میان مدت تا بلندمدت را ردیابی کند.
این چارچوب نه تنها اطلاعاتی را که برای مخاطبان ژاپنی طراحی شده، پوشش میدهد، بلکه اطلاعاتی را نیز با هدف آسیب رساندن به برداشتهای خارجی از ژاپن پوشش میدهد.
کارشناسان بخش خصوصی برای شناسایی منظم اخبار جعلی در رسانههای اجتماعی در سال مالی 2023 استخدام میشوند.
نیروی پدافند (SDF) زمینی شخصی نیز ظرف یک دهه یک واحد اطلاعاتی اختصاصی ایجاد خواهد کرد. نیروی پدافند دریایی واحدی را با قابلیتهای سایبری و ارتباطات ترکیبی راهاندازی خواهد کرد.
کارشناسان ادعا کردند که جنگ شناختی به عنوان یک نگرانی جهانی با دخالت روسیه در انتخابات ریاست جمهوری 2016 ایالات متحده ظاهر شد. گمان میرود که مقالههای خبری جعلی درباره هیلاری رادهام کلینتون، نامزد دموکرات، که از طریق رسانههای اجتماعی منتشر شده، به تغییر رقابت به نفع رقیب او، دونالد ترامپ، کمک کرده است.
بنابه گفته محققان، اطلاعات غلط در جنگ اوکراین نیز نقش داشته است؛ گزارشهای جعلی درباره فرار ولودیمیر زلنسکی، رئیسجمهور اوکراین از کیِف، بلافاصله پس از حمله روسیه و اوکراین در شبکههای اجتماعی منتشر شد. تحریمهای غرب به دلیل افزایش جهانی قیمت مواد غذایی و جلب حمایت روسیه از سوی برخی کشورهای در حال توسعه مقصر شناخته شدند.
کارشناسان اعلام کردند که در پاسخ به اقدامات اخیر چین و روسیه، راهبرد امنیت ملی ژاپن که در ماه دسامبر گذشته تصویب شد، شامل طرحهایی برای تقویت توانایی این کشور در پاسخ به جنگ در حوزه شناختی، از جمله انتشار اطلاعات نادرست است.
چندین کشور در حال حاضر مکانیسمهایی برای پاسخ به جنگ شناختی دارند. در ایالات متحده، آژانس امنیت سایبری و امنیت زیرساخت وظیفه نظارت و هشدار به مردم در مورد اطلاعات نادرست را بر عهده دارد. ترامپ در سپتامبر 2018 فرمان اجرایی امضا کرد تا عوامل خارجی دخیل در انتخابات آمریکا، از جمله با مسدود کردن داراییهایشان در ایالات متحده، را تحریم کند.
بریتانیا شبکههای اجتماعی را 24 ساعته رصد میکند. در حالیکه این کشور مجازاتهای رسمی برای مداخله در انتخابات ندارد، یک کمیته ویژه پارلمانی گزارشی را در سال 2019 منتشر کرد و از دولت خواست که به انتخابات گذشته رسیدگی کند.
در آسیا، سنگاپور در اکتبر 2021 قانونی را تصویب کرد که به مقامات اجازه میداد محتوای آنلاین را برای جلوگیری از دخالت خارجی محدود کنند.
موتوهیرو سوچیا (Motohiro Tsuchiya)، استاد و کارشناس فناوری اطلاعات در دانشگاه کیو (Keio) در توکیو، گفت : «واکنش ژاپن به اطلاعات غلط تاکنون تا حدی با ماده 21 قانون اساسی که مخفی بودن ارتباطات را تضمین میکند، متوقف شده است. دولت باید با فیسبوک و سایر اپراتورهای رسانههای اجتماعی برای ایجاد چارچوبی با هدف حذف اطلاعات نادرست همکاری کند.»
وکیل پایه یک دادگستری با اشاره بازنشر اخبار کذب در فضای مجازی گفت: بازنشر خبر کذب مصداق نشر اکاذیبی است که در صورت تشویش اذهان عمومی فرد با بازنشر یک پست و یا خبر کذب، دو عمل مجرمانه را مرتکب شده است.
حمیدرضا محمدی وکیل پایه یک دادگستری در گفتوگو با فارس گفت: زمانی که فرد موضوعی را مطرح میکند اگر به ضرر خود باشد به آن «اقرار» و اگر به ضرر دیگری باشد به آن «ادعا» میگویند.
این حقوقدان بیان کرد: زمانی که فرد اقرار میکند کسی نمیتواند از او بپرسد که چرا به ضرر خود اقدام کرده است. اما زمانی که فرد به ضرر دیگری ادعایی را مطرح می کند باید بتواند ادعای خود را اثبات کند
وی ادامه داد: اگر فرد نتواند ادعای خود را اثبات کند، این موضوع جرم نگاری شده و قانون برای آن مجازات در نظر گرفته است که مجازات آن به نوع ادعای مطرح شده بستگی دارد. به طور مثال فردی خانومی را به داشتن رابطه با یک مرد متهم میکند اگر فرد مدعی نتواند این ادعا را اثبات کند به قذف محکوم می شود.
این وکیل پایه یک دادگستری با تاکید بر اینکه اکنون هر فرد دارای اکانت در فضای مجازی دارنده یک رسانه است، گفت: اکنون با وجود فضای مجازی و صفحاتی که در آن ایجاد میکنند، صاحب رسانه ای می شوند و میتوانند از چند صد تا چندین میلیون مخاطب داشته باشند.
وی در ادامه اظهار کرد: فردی که یک خانم و آقا را متهم به رابطه میکند، اگر این موضوع را در فضای مجازی مطرح کند و منجر به تشویش اذهان عمومی شود، با یک فعل دو عنصر مادی جرم را مرتکب شده است.
این حقوقدان در ادامه تشریح کرد: در این مواقع هم آن خانم و آقایی که مورد اتهام قرار گرفتن میتوانند شکایت کنند و هم دادستانی میتواند اعلام کند که این خانوم همسر و یا دختر آقای فلانی است و فرد این اقدام، نشر اکاذیب به قصد تشویش اذهان عمومی کرده که مجازات آن نیز زندان است.
محمدی ادامه داد: بازنشر خبر کذب نیز مصداق نشر اکاذیب است و اگر ذهن جامعه را مشوش کند، نشر اکاذیب به قصد تشویش اذهان عمومی که مجازات آن حبس می باشد.
این وکیل پایه یک دادگستری اظهار کرد: دادستان به عنوان مدعیالعموم باید در جایی که یک ادعا منجر به تشویش اذهان عمومی شده باید ورود کند، به طور مثال اخیراً آقای برهانی در خصوص انتخاب قاضی برای پرونده های اغتشاشات اخیر (پرونده های امنیتی) ادعاهایی را مطرح کرده که منجر به تشویش اذهان عمومی شده است. دادستان باید این ادعاها را پیگیری کند و در صورتی که فرد نتواند این ادعای خود را اثبات کند با توجه به شرایط کنونی جامعه باید به مجازات عمل خود برسد.
محمدی تصریح کرد: افراد چهره و سرشناس جامعه که در فضای مجازی فعالیت دارند باید حدود و ثغور قانون را بدانند و آنها باید توجه داشته باشند که در صورت انتشار دروغ فرقی نمیکند که خود آن دروغ و یا ادعا را مطرح کرده باشند و یا آن را از صفحات و یا اشخاص دیگر بازنشر کرده باشند، ممکن است بازنشر برخی از اخبار کذب منجر به تشویش اذهان عمومی شود. در این صورت فرد منتشر کننده با بازنشر یک پست و یا یک خبر، دو فعل جرم را مرتکب شده است.
وی با اشاره به ماده ۲ قانون مجازات اسلامی خاطرنشان کرد: بر اساس این ماده قانونی هر فعل یا ترک فعل که مطابق قانون مجازات یا مستلزم اقدامات تامینی با تربیتی باشد جرم محسوب است و هیچ امری دانه می توان جرم دانست مگر آنکه به موجب قانون برای آن مجازات و یا اقدامات تامینی یا تربیتی تعیین شده باشد.
طبق اعلام وزیر دیجیتال آلمان، وی اخیرا با ایلان ماسک دیدار کرده تا انتظارات دولت این کشور از توئیتر به خصوص درباره مقابله با اخبار جعلی را شفاف سازی کند.
به گزارش خبرگزاری مهر به نقل از رویترز، «ولکر ویسینگ» وزیر دیجیتال و حمل ونقل آلمان که در آغاز ۲۰۲۳ میلادی در ایالت کالیفرنیا به سر می برد، به ماسک گفته این کشور انتظار دارد توئیتر به طور داوطلبانه از تعهدات مبارزه با اخبار جعلی پیروی کند.
همچنین ویسینگ معتقد است توئیتر باید در آینده از قانون سرویس های دیجیتال نیز پیروی کند. اعضای اتحادیه اروپا در آوریل ۲۰۲۲ میلادی درباره این قانون به توافق رسیدند و طبق آن پلتفرم های آنلاین باید اقدامات بیشتری برای نظارت بر محتوای غیرقانونی انجام دهند.
سخنگوی این وزارتخانه در بیانیه ای اعلام کرد: این ملاقات بسیار طولانی بود و ماسک به ویسینگ اطمینان خاطر داد.
همچنین به گفته وی دولت آلمان به دقت وضعیت توئیتر را تحت نظر دارد.
سخنگوی کمیسیون حقوقی و قضایی مجلس شورای اسلامی از آماده شدن طرحی مبنی بر پیگیری حقوقی اخبار کذب در فضای مجازی در این کمیسیون خبر داد.
کاظم دلخوش سخنگوی کمیسیون حقوقی و قضایی مجلس شورای اسلامی در گفتوگو با تسنیم، از آماده شدن طرحی مبنی بر پیگیری حقوقی اخبار کذب در فضای مجازی در این کمیسیون خبر داد.
وی گفت: امروزه فضای مجازی تبدیل به یک بستری شده است که هر شخصی در هر عنوانی و بدون اطلاع از درست بودن یا نبودن خبری آن را نشر میدهد یا کسانی هستند که برای اهداف خود دست به خبرسازی و شایعهسازی میزنند که باید پاسخگوی این حرکتشان باشند.
سخنگوی کمیسیون قضایی مجلس افزود: کمیسیون قضایی مجلس طرحی را تهیه و تدوین کرده است که هرکسی در فضای مجازی اخبار نادرستی را نشر دهد یا آن را بزرگنمایی کند باید پاسخگوی عملکرد خود در دادگاه باشد و این موضوع برای فرد یا رسانهای تفکیک قائل نیست و همه را در بر میگیرد.
دلخوش تصریح کرد: این دست قوانین در همه کشورهای دنیا وجود دارد و کشور ما نیز باید از این دست قوانین وضع کند تا بتوانیم از نشر اخبار کذب در فضای مجازی جلوگیری کنیم. در حوادث اخیر هم شاهد نشر بیش از حد اخبار کذب در فضای مجازی بودیم که افرادی بدون تحقیق بر درست بودن یا نبودن خبر آن را انتشار دادند که باعث شد فضای جامعه ملتهب شود.
وی بیان داشت: در این طرح برای افراد و رسانههایی که اخبار کذب منتشر یا شایعهسازی میکنند و باعث تشویش اذهان عمومی میشوند مجازاتهای سنگین در نظر گرفته شده است که دیگر مرتکب این عمل نشوند زیرا این درست نیست که هرکسی با خبرسازی کاذب فضای جامعه را ملتهب کند و سپس بدون پرداخت تاوان پای خود را از ماجرا بکشد بیرون.
سخنگوی کمیسیون قضایی مجلس تأکید کرد: طرح مجازات ناشران اخبار کذب در فضای مجازی در کمیسیون حقوقی و قضایی به تصویب رسیده است و بهزودی در دستورکار صحن علنی مجلس شورای اسلامی قرار خواهد گرفت و این احتمال وجود دارد که این طرح با فوریت به صحن مجلس بیاید.
مرکز ملی فضای مجازی با استانداری سمنان تفاهم نامه همکاری در حوزه مدیریت و توسعه فضای مجازی در استان ها امضا کرد.
به گزارش مرکز ملی فضای مجازی، ابوالحسن فیروزآبادی، دبیر شورای عالی و رئیس مرکز ملی فضای مجازی، در مراسم امضای این تفاهم نامه گفت: «باید برای مقابله با اخبار جعلی و روایت های دروغ علیه کشور، نسبت به هدایت تیم های تولید محتوا به صورت منطقه ای با راهبری ملی اقدام شود.»
وی افزود: «در فضای مجازی که از خصایص آن اجتماعی و شبکه ای بودن است، ارایه روایت اول با تصویرسازی مبتنی بر نخبگی از اهمیت ویژه ای برخوردار است که باید بتوانیم با تشکیل شوراهای فضای مجازی در استان های سراسر کشور، در این حوزه اقدام کنیم.»
در ادامه این مراسم، محمدرضا هاشمی، استاندار سمنان، با اشاره به این که این استان در حوزه اقتصاد دیجیتال در رتبه دوم قرار دارد، گفت: «در استان سمنان برای ترسیم مسیر و رفع موانع برای فعالان این حوزه و پاسخگویی مسئولان و مدیران مرتبط همایشی برگزار شده و همچنین به لحاظ ایجاد زیرساخت مناسب در این استان در دولت بودجه مناسبی در نظر گرفته شده است.»
گفتنی است مرکز ملی فضای مجازی کشور در راستای همسو سازی دستگاه ها و نهادهای استان های کشور با مصوبات و تصمیمات شورای عالی فضای مجازی و تعیین اولویت های اجرایی مرتبط با فضای مجازی در هر استان نسبت به امضای دومین تفاهم نامه همکاری و مشارکت با استانداری های کشور اقدام کرده است.
محمدمهدی اسماعیلی، وزیر فرهنگ و ارشاد اسلامی دولت ابراهیم رئیسی، به روزنامه اطلاعات گفته «در چند هفته اخیر بالغ بر ۵۰۰ سایت به دلایلی نظیر نشر اکاذیب و افترا به افراد حقیقی و حقوقی لغو مجوز شدهاند.»
وزیر ارشاد به روزنامه اطلاعات گفته وزارتخانه او ۵۰۰ سایت اینترنتی را لغو مجوز کرده است.
براساس گزارش اعتمادآنلاین، محمدمهدی اسماعیلی، وزیر فرهنگ و ارشاد اسلامی دولت ابراهیم رئیسی، به روزنامه اطلاعات گفته «در چند هفته اخیر بالغ بر ۵۰۰ سایت به دلایلی نظیر نشر اکاذیب و افترا به افراد حقیقی و حقوقی لغو مجوز شدهاند.»
او گفته «تمامی سایتهای اینترنتی غیرفعال یا آن دسته از شبکههای خبری که کار خبری نمیکنند، مورد بازنگری قرار میگیرند و در صورت احراز تخلف، مجوز آنها لغو خواهد شد.»
به گفته وزیر ارشاد، قرار است «کارگروه مقابله با اخبار جعلی» در وزارتخانه او تقویت شود و در جلسه هفته گذشته شورای عالی مجازی به ریاست ابراهیم رئیسی گزارش عملکرد هم داده است. وزیر این را هم گفته که قرار است آئیننامه این کارگروه تغییر کند و «پس از تصویب نهایی، مفاد آن بهزودی به مردم اعلام خواهد شد.»
وزیر گفته با «شایعهسازان» و «منتشرکنندگان اخبار جعلی» به شدت برخورد خواهد شد. اسماعیلی ادعا کرده دلیل این شدت عمل آن است که «حریم امن کارآفرینان و صاحبان کسبوکار حفظ شود.»
اسماعیلی همچنین نسبت به هر گونه همکاری با رسانههای فارسیزبان خارج از کشور هشدار داده و گفته «مسلماً تعامل و همکاری با این شبکههای تروریستی با مجازات و محرومیت روبروست.»
طبق ماده ۶۹۸ بخش تعزیرات قانون مجازات اسلامی هر گونه گزارش یا توزیع هر گونه اوراق چاپی یا خطی با امضا با بدون امضا، به قصد اضرار به غیر یا تشویش اذعان عمومی یا مقامات رسمی، مستوجب حبس- از دو ماه تا دو سال- و یا شلاق تا ۷۴ ضربه خواهد بود.
با این حال به نظر میرسد این مجازات که مستلزم شکایت و نظر دادگاه است، نظر دولت را تامین نکرده و قوه اجرایی در نظر دارد بر حسب آئیننامه مصوب مورد نظر خود راساً و بدون نظر دادگاه اقدام به مجازات آن هم در حد لغو مجوز کند.
همچنین لغو مجوز وبسایتهایی که فعالیت ندارند، کاری است ملهم از بندی در قانون مطبوعات که مجلس پنجم تصویب کرد.
در حالی که فعالیت رسانهای از حقوق شهروندی است که با صدور مجوز از سوی وزارت ارشاد محدود شده، حالا این وزارتخانه دست خود را آنقدر باز دیده که مجوز خودش را بدون طی شدن روال قانونی و صرفاً به صلاحدید خود لغو کند.
در هفتههای اخیر، موجی از خبرهای تاییدنشده علیه استارتآپها و شرکتهای تولیدی و خدماتی کشور آغاز شد. اولین خبرها در این زمینه را شبکه تلویزیونی ایراناینترنشنال که دفتر مرکزی آن در لندن مستقر است، منتشر کرد. این شبکه تلویزیونی شرکتهای ایرانی را به همکاری با حاکمیت متهم کرد؛ از جمله ادعا کرد شرکت میهن جهت برخورد با اعتراضات، ماشینهای حمل کالای خود را در اختیار نیروی انتظامی قرار داده و یا شرکت دیجیکالا «سهام حاکمیتی» دارد.
هر دو شرکت این اتهامات را رد کردهاند. دیجیکالا نقشه سهام خود را منتشر کرد و گفت هیچ نهاد دولتی یا حاکمیتی در این شرکت سهام ندارد.
در حالی که منشاء خبر، شبکهای تلویزیونی در خارج از کشور بود، معلوم نیست چرا وزیر ارشاد، وبسایتهای داخلی را هدف گرفته و در میان آنها به وبسایتهایی گیر داده که طبق صبحت خودش اصلاً فعالیتی ندارند.
طبق قانونی جدید در ترکیه، شبکه های اجتماعی و شرکت های فناوری باید اطلاعات کاربرانی که اخبار جعلی و محتوای غیرقانونی به اشتراک می گذارند را در اختیار مقامات قرار دهند.
به گزارش خبرگزاری مهر به نقل از رویترز، به گفته کارشناسان احتمال کمی وجود دارد شبکههای اجتماعی کاملاً از قانون جدید ترکیه برای حذف اخبار جعلی و اشتراک گذاری دادههای کاربران با دولت پیروی کنند. به این ترتیب احتمال دارد قبل از برگزاری انتخابات ریاست جمهوری این کشور در ۲۰۲۳ میلادی اختلالاتی در شبکهها ایجاد شود.
طبق قانون ترکیه که از هفته قبل اجرایی شد، در صورتیکه کاربران محتوایی پست کنند که حاوی جرایم از جمله اطلاعات گمراه کننده باشد، باید اطلاعات آنها با مقامات به اشتراک گذاشته شود.
همچنین شبکههای اجتماعی ملزم میشوند نمایندگانی در ترکیه تعیین کنند. علاوه بر آن اگر دادگاهی به این نتیجه برسد که نماینده شرکت نتوانسته اطلاعات مورد نیاز را در اختیار مقامات قرار دهد، مؤسسه مذکور با کاهش ۹۰ درصد پهنای باند روبرو خواهد شد.
طبق این قانون، اگر شرکتها محتوای غیرقانونی را ظرف ۴ ساعت حذف نکنند، به طور مستقیم مسئولیت محتوای غیرقانونی و تگ ها را برعهده خواهند داشت.
فیس بوک، توئیتر، گوگل و دیگر شرکتهای فناوری ملزم شده اند تا آوریل به طور کامل از قانون جدید ترکیه پیروی کنند یا با ممنوعیت تبلیغات آنلاین و به تدریج قطع سرویس تا کاهش پهنای باند روبرو میشوند. انتخابات ریاست جمهوری ترکیه در ماه ژوئن ۲۰۲۳ برگزار میشود.
تحلیلگران و مشاوران معتقدند این شرکتها استانداردهای حریم خصوصی جهانی اجرا میکنند و احتمال اندکی درباره نقض آنها در ترکیه وجود دارد. زیرا ممکن است با نقض آن در ترکیه مبنایی برای کنترل بیشتر بر شبکههای اجتماعی در کشورهای دیگر به وجود بیاید.
سینان اولگون یکی از بنیانگذاران شرکت «استانبول اکونومیکز» در این باره میگوید: احتمال کمی وجود دارد برخی از شرکتها از این قانون پیروی کنند. زیرا قانون جدید ترکیه هنجارهای آنها درباره حریم خصوصی را هدف گرفته است.
نماینده مردم نهاوند در مجلس شورای اسلامی گفت: با توجه به اینکه در طرح صیانت هدف اصلی ساماندهی فضای مجازی است در این طرح موارد و شیوههای قانونی برخورد با شایعهسازان و کسانی که اقدام به اکاذیب میکنند تعیین تکلیف میشود.
علیرضا شهبازی، نماینده مردم نهاوند در مجلس در گفتوگو با فارس اظهار کرد: ما برای برخورد با افرادی که بدون سند اقدام به شایعه و یا نشر اکاذیب نمایند قانون مشخص داریم که در صورت نیاز میتوان از آن استفاده کرده و آن را اجرایی کرد.
وی در پاسخ به اینکه راهکار قانونی برخورد با جرایم فضای مجازی و افرادی که در این فضا اقدام به نشر اکاذیب چگونه است افزود: با توجه به اینکه در طرح صیانت هدف اصلی ساماندهی فضای مجازی است در این طرح موارد و شیوههای قانونی برخورد با شایعهسازان و کسانی که اقدام به اکاذیب میکنند تعیین تکلیف میشود.
نماینده مردم نهاوند در مجلس شورای اسلامی گفت: در حال حاضر طرح صیانت فضای مجازی به منظور جلوگیری از وقوع جرایم مجازی در کمیسیون مربوطه در حال بررسی است که لازم است همه موارد و ابعاد قانونی در آن دیده شود.
قانون برخورد با شایعهپراکنی در فضای مجازی به زودی مصوب میشود
نماینده مردم شوش در مجلس گفت: راهکار مقابله با اخبار دروغ در شبکههای اجتماعی مشخص و مجلس ظرف روزهای آینده قانونی را برای این منظور مصوب میکند.
محمد کعب عمیر نماینده مردم شوش در مجلس شورای اسلامی در گفتوگو با فارس در رابطه با اهمیت تصویب قانونی به منظور برخورد با افرادی که با شایعهپراکنی افکار عمومی را متشنج میکنند، اظهار کرد: لزوم تصویب قانونی برای برخورد با دروغ و شایعهپراکنی در شبکههای اجتماعی در جلسه غیر علنی مجلس مطرح شده است.
وی با بیان اینکه راهکار مقابله با اخبار دروغ و غلط پیدا شده است، افزود: قطعاً در روزهای آینده قوه مقننه راه حل و یا قانونی برای این موضوعات تصویب خواهد کرد.
نماینده مردم شوش در مجلس شورای اسلامی گفت: اینگونه نیست که این موضوعات برای ما اهمیتی نداشته باشد، ظرف روزهای آیندههای موارد مورد بررسی به صورت قانون مصوب و به دولت ابلاغ میشود.
کعب عمیر با بیان اینکه رسانههای معاند از شرایط اخیر سوءاستفاده کرده و مطالبات مردم رو بهانه کردند تا به اهداف خود برسند، عنوان کرد: هدف سناریوی طراحی شده براندازی نظام و مقابله با اعتقادات مردم است.
وی با طرح این سوال مبنی بر اینکه چرا زمانی که شرایط مشابه کشور ما در کشورهای دیگر اتفاق بیفتاد هیچ کدام از رسانههای خارجی به مسائل داخلی آن کشورها دامن نمیزنند، بیان کرد: در آمریکا و سایر کشورهای غربی صدها نفر را به عناوین مختلف کشته میشوند چرا رسانههای بین المللی و رسانههای معاند به آنها نمیپردازند؟
کعب عمیر با تاکید بر اینکه نظام جمهوری اسلامی با اقتدار ایستاده است، گفت: پروژه براندازی نظام در برهههای مختلف اجرا شده اما دشمنان تا کنون راه به جایی نبرده و نمیبرند.
مرکز پژوهش های مجلس شورای اسلامی در گزارشی ابعاد مسئله اطلاعات، اخبار و محتوای خلاف واقع در فضای مجازی را بررسی و بر نیاز جدی نسبت به ورود مجلس از باب تقنین در این زمینه تأکید کرد.
به گزارش خبرگزاری مهر، گزارشی با عنوان بررسی ابعاد مسئله اطلاعات، اخبار و محتوای خلاف واقع در فضای مجازی و ارائه پیشنویس قانونی در مرکز پژوهش های مجلس منتشر شده است که خلاصه آن به شرح زیر است؛
پس از ابتکار شورای عالی فضای مجازی در تصویب «الزامات پیشگیری و مقابله با نشر اطلاعات، اخبار و محتوای خبری خلاف واقع در فضای مجازی» مورخ ۱۶ دی ماه ۱۳۹۹ با وجود مفاد قانونی که قبلاً در خصوص نشر اکاذیب به تصویب رسیده بود، نیاز جدی نسبت به ورود مجلس از باب تقنین در این زمینه احساس می شود، با وجود قوانین فعلی، چالش های جدی برای پیشگیری و مقابله با محتوای خلاف واقع وجود دارد، ازجمله اینکه، رسیدگی به مطالب خلاف واقع منوط به شکایت شاکی خصوصی است.
ضمانت اجراها از کفایت لازم برخوردار نیستند و به دلیل عدم توجه به ابعاد پیام های توده شده و ابزارهای ارتباطی جدید و هنجارهای ارتباطی زیست بوم ارتباطی، بازدارندگی نخواهند داشت. در قوانین فعلی نسبت به روش های پیشگیرانه قبل از تولید و نشر اطلاعات (Proactive) و بعد از آن (Reactive) خلأ وجود دارد و نسبت به مسئولیت سکوی نشر، درگاه نشر، تولیدکننده محتوا، نشردهنده محتوا و بازنشردهنده آن تفکیکی وجود ندارد.
به همین دلیل امکان تعیین و تصریح مسئولیت ذی نفعان مختلف در زیست بوم فضای مجازی در رابطه با محتوای خلاف واقع وجود ندارد. از این رو با ابتنا بر محورهای زیر پیش نویس «طرح پیشگیری و مقابله با انتشار اطلاعات، اخبار و محتوای خلاف واقع در فضای مجازی» تهیه و در پیوست گزارش حاضر ارائه شده است:
۱. رویکرد جامع نسبت به انواع محتوای خلاف واقع
۲. تفکیک مسئولیت های نهاد تنظیم گر، سکوی نشر، درگاه نشر و کاربران فضای مجازی
۳. آگاهی بخشی به موازات جرم انگاری در موارد ضروری
۴. خودتنظیم گری و استفاده از خرد جمعی و ظرفیت عمومی کاربران در امتداد نهادهای حاکمیتی و دستگاه های اجرایی به مثابه تنظیم گران بخشی
۵. تفکیک شئون قانونگذاری و تنظیم گری
۶. تکمیل کننده قوانین پیشین در حوزه محتوای خلاف واقع
فصل اول این پیشنویس با عنوان کلیات واژگان و اصطلاحات به کار رفته در طرح را با ابتنا بر مصوبات شورای عالی فضای مجازی تعریف نموده است. فصل دوم با عنوان وظایف دستگاههای اجرایی به کارگیری فناوری های بهروز در جهت اقدامات پیشگیرانه و ثبت درخواست ها و استعلام از دستگاههای مسئول پاسخگویی را پیشبینی کرده است. فصل سوم به مسئولیت سکوها و درگاههای نشر اختصاص یافته است.
این فصل درگاه های نشر یک سویه و چند سویه را تفکیک کرده، چراکه مطالعه و بررسی های پیرامون نشر اخبار خلاف واقع در فضای مجازی نشان می دهد، انتشار گسترده محتوای خلاف واقع عمدتاً از مسیر درگاه های یک سویه اتفاق می افتد.
یعنی درگاه هایی که ماهیت «خبرگزاری و رسانه ای» دارند و صاحبان این درگاه ها نسبت به انتشار محتوا در آن مسئولیت خواهند داشت. صفحات شخصی کاربرانی که دنبال کنندگان زیادی دارند یا کانال هایی که نشر محتوا در آنها توسط یک یا چند نفر مدیریت می شود از انواع درگاه های یک سویه هستند.
از این رو تعریف درگاه های یک سویه و مسئولیت ویژه صاحبان درگاه های نشر یک سویه به عنوان موجودیت هایی مهم و اثرگذار در مسئلة محتوای خلاف واقع به احکام این قانون اضافه شد. فصل آخر نیز به تخلفات و جرائم بازیگران این زیست بوم اختصاص دارد.
لینک کامل این گزارش در (اینجا) قابل مشاهده است.
یک زیرمجموعه گوگل هفته آینده کمپینی برای مقابله با اخبار جعلی مربوط به پناهجویان اوکراینی در لهستان، اسلکواکی و جمهوری چک راه اندازی می کند.
به گزارش خبرگزاری مهر به نقل از رویترز، این کمپین براساس تحقیقات روانشناسان در ۲ دانشگاه انگلیس انجام می شود.
روانشناسان دانشگاه های کمبریج و بریستول با همکاری جیگساو کلیپ های ۹۰ ثانیه ای برای آگاه سازی مردم در مقابل محتوای مخرب در شبکه های اجتماعی تولید کرده اند.
این کلیپ ها که در بازه های پخش آگهی در یوتیوب و همچنین پلتفرم های دیگر مانند توئیتر، تیک تاک و فیس بوک نیز پخش می شود تا در شناسایی دستکاری احساسی و قربانی سازی در سرتیتر خبرها به مردم کمک کند.
جان روزن بیک مولف گزارشی درباره تحقیقات مربوط به این کمپین در یک مصاحبه گفت: اگر به مردم بگویید چه چیز درست و چه چیز غلط است، عده زیادی بحث و گمانه زنی می کنند. اما می توان روش هایی را پیش بینی کرد که برای گسترش اخبار جعلی به کار می رود.
این کمپین با همکاری سازمان های محلی غیر دولتی، بازبین های حقیقت یاب و کارشناسان اخبار جعلی برای مقابله در برابر روایت های ضد پناهجویی طراحی شده است.
گسترش اخبار جعلی و گمراه کننده در آمریکا و اروپا از طریق شبکه های اجتماعی سبب شده دولت های مختلف قوانین جدید برای مقابله با کمپین های اخبار جعلی وضع کنند.
فیسبوک خطمشی خود را اصلاح کرده و میخواهد نظرات و بررسیهای جعلی و پولی را ممنوع کند.
به گزارش باشگاه خبرنگاران فیسبوک مدتها است که برای محدود کردن بررسیهای جعلی اقدام کرده، اما اکنون این موضع را رسمی کرده است. شرکت مادر فیسبوک (متا) خط مشی بازخورد خود را در آمریکا به روز کرده است تا به صراحت، بررسیهای جعلی و پولی را در سیستم عاملهای خود ممنوع کند.
به این ترتیب دیگر کاربران نمیتوانند به امید دریافت یک وعده غذایی رایگان، برای یک رستوران نظر جعلی ارسال کنند، یا برای ارائه نظرات درخشان در مورد یک محصول، پول بگیرند.
همچنین این خطمشی اصلاحشده، بررسیهای بیربط و هرزنامه را ممنوع میکند. متا نظراتی که خطمشیها را نقض میکنند را بررسی میکند و این حق را برای خود محفوظ داشته که دسترسی افراد به برخی یا همه محصولات خود را تعلیق کند. ناقضان معمولی ممکن است با تعلیق یا ممنوعیت دائمی حسابهای فیس بوک خود مواجه شوند و کسب و کارها ممکن است دسترسی به فهرستها و برچسبهای محصولات خود را از دست بدهند.
البته مشخص نیست که این تعهد چقدر پایدار خواهد بود. فیسبوک سال گذشته ۱۶۰۰۰ گروه بازبینی جعلی را در پاسخ به نگرانیهای یک ناظر انگلیسی حذف کرد. یک سیاست رسمی، نشان دهنده تعهد به مقابله با مشکل است و میتواند به متا در توجیه ممنوعیتها در صورت شکایت مجرمان، کمک کند.
طبق به روز رسانی دستورالعملی در اتحادیه اروپا، متا، گوگل، توئیتر و مایکروسافت توافق کرده اند موضع سختگیرانه تری نسبت به اخبار جعلی اتخاذ کنند.
به گزارش خبرگزاری مهر به نقل از رویترز، به گفته کمیسیون اتحادیه اروپا بیش از ۳۰ شرکت از جمله سازمانهای تبلیغاتی دستورالعمل به روز رسانی شده مربوط به اخبار جعلی را امضا کردهاند.
به گفته یک مقام ارشد اتحادیه اروپا امضا کنندگان توافق کردهاند اقدامات بیشتری برای مقابله با دیپ فیک، حسابهای کاربری جعلی و تبلیغات سیاسی انجام دهند.
عدم پیروی از این دستورالعمل جریمه ای تا ۶ درصد درآمد جهانی شرکت را در پی خواهد داشت. همچنین ممکن است شرکتهای متخلف از فعالیت در اتحادیه اروپا منع شوند.
این شرکتها که تیک تاک و پلتفرم بازی رایانهای توییچ (متعلق به آمازون) را نیز شامل میشوند، ۶ ماه فرصت دارند تا به تعهد خود عمل کنند. همچنین آنها باید گزارشی از میزان پیشرفت خود در ۲۰۲۳ میلادی ارائه کنند.
ورا یوروا معاون رییس کمیسیون اتحادیه اروپا در این باره میگوید: دستورالعمل جدید نشان میدهد اروپا به خوبی از گذشته درس گرفته و ما دیگر ساده انگارانه با چنین موضوعاتی برخورد نمیکنیم.
به گفته او حمله روسیه به اوکراین، پاندمی کووید ۱۹ و خروج انگلیس از اتحادیه اروپا، اقدامات این منطقه برای مقابله با اخبار جعلی را سرعت بخشیده است.
تشخیص اخبار درست یا موثق از اخبار جعلی یا غیردقیق با توجه به صد میلیون کلیکی که روزانه در اینترنت می شود، کار دشواری است و ابزاری که او ساخته، تا نود درصد قدرت تمایز و تشخیص غلط و درست از یکدیگر را دارد.
به گزارش شارا فردریک فیلوکس که در دانشگاه استنفورد فرصت مطالعاتی بنیاد نایت را می گذراند، ابزاری به نام Deepnews.ai ساخته که می تواند گزارشهای باکیفیت بالا را از گزارشهای بی ارزش متمایز کند.
او می گوید که تشخیص اخبار درست یا موثق از اخبار جعلی یا غیردقیق با توجه به صد میلیون کلیکی که روزانه در اینترنت می شود، کار دشواری است و ابزاری که او ساخته، تا نود درصد قدرت تمایز و تشخیص غلط و درست از یکدیگر را دارد.
CrossCheck تریبونی است که توسط لیزا فازیو، یکی از اعضای هیات علمی دانشگاه وندربیلت ارائه شد. خانم فازیو و تیم او به بررسی واکنش خوانندگان و مخاطبان خبر نسبت به انتشار واقعیاتی که موارد اطلاعات جعلی را روشن و منعکس می کند، پرداختند. در بسیاری از موارد، نوع این واکنشها متفاوت بود و البته بسته به کشور هم فرق می کرد.
City Bureau طرحی بود که توسط داریل هالیدی از شیکاگو ارائه شد. این طرح، به بررسی پروژهای می پردازد که به شهروندان پول می دهد تا در نشستهای عمومی که به گستردگی سابق از سوی رسانههای محلی پوشش داده نمی شوند، شرکت کنند.
این طرح ۳۵۰ مستندنگار را گرد هم آورد که در نشستهای گوناگون عمومی شرکت می کنند، از شورای شهر گرفته تا مدارس، پلیس محلی و بنیادهای محلی و دولتی مسکن. تاکنون در بیش از دو هزار نشست شرکت کردهاند و هدف هالیدی آن است که همه جلسات عمومی شهر را پوشش دهد و در نهایت به بررسی نابرابریها و شیوه رفتار با شهروندان گوناگون در این گونه نشستها بپردازد. حاصل شرکت گروه او در این نوع نشستها آن است که مشاهدات خود را می نویسند و در اختیار همگان قرار می دهند. برنامه این طرح آن است که به دیترویت توسعه یابد.
طرح آخر توسط کامرون هیکی ایجاد شده بود که یکی از تهیه کنندگان برنامه تلویزیونی ساعت خبر در شبکه دولتی پی بی اس آمریکاست. نام طرح او NewsTracker است که بر اساس داده عمل می کند تا به شناسایی منابع تازه اطلاعات جعلی بپردازد. تاکنون ۴۰۰۰ منبع اخبار جعلی یا غلط توسط این طرح شناسایی شده است.
طرحهای منتخب تنها چهار طرح از کل ۲۰ طرحی است که از سوی صندوق کینگ یا Knight Prototype Fund حمایت می شود که طرحی مشترک با صندوق دموکراسی Democracy Fund و Rita Allen Foundation یا بنیاد ریتا آلن است که با انتشار اطلاعات جعلی مبارزه می کند.»
نویسنده: پاتریک باتلر
منبع:
دادگاهی در روسیه جریمه ای ۱۱ میلیون روبلی (۱۳۷هزار و ۷۶۳ دلار) برای گوگل تعیین کرده است.
به گزارش خبرگزاری مهر به نقل از رویترز، دلیل این اقدام عدم حذف اخبار جعلی درباره درگیری در اوکراین و ویدئوهایی در یوتیوب است که توسط گروههای راست گرای افراطی اوکراین تولید شده اند.
راسکامنادزر، رگولاتور ارتباطات روسیه در اوایل ماه جاری اعلام کرد به دلیل گسترش اخبار جعلی در یوتیوب، اقداماتی تنبیهی علیه گوگل انجام میدهد. پیش از آن نیز این سازمان تهدید کرده بود در صورت عدم پیروی از دستورات، شرکت آمریکایی را جریمه میکند.
گوگل در ۲ پرونده مربوط به نقض قوانین گناهکار شناخته شده و ۴ و ۷ میلیون روبل جریمه شده است. این شرکت فناوری به درخواستهای اظهار نظر پاسخی نداده است.
خبرگزاری تاس روسیه اعلام کرد این جریمهها مربوط به پروندههایی هستند که به اعتقاد دولت انتشار اخبار جعلی درباره خسارت نیروهای روسی و تلفات غیرنظامیان در اوکراین به حساب می آیند.
پژوهشگر پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی گفت: تا به امروز برای مقابله با اخبار جعلی در کشور اقدامات اساسی شکل نگرفته و قانون ایجاد پایگاه برای مقابله با این موضوع که از وظایف وزارت ارشاد بوده، هنوز به تصویب قانون نرسیده است.
به گزارش روابط عمومی پژوهشگاه فضای مجازی، سید محمد مهدی فیروزآبادی در چهارمین روز مجموعه نشست های هفته حکمرانی فضای مجازی که با محوریت مقابله با اخبار جعلی در فضای مجازی برگزار شد، با بیان این مطلب گفت: مساله توانمندی فنی از موضوعات بسیار مهم و تاثیرگذار در مقابله با اخبار نادرست است اما تا به امروز در مقابله با اخبار جعلی در داخل کشور پیشرفتی صورت نگرفته از سوی دیگر رویکرد ارتقای سواد رسانه و ارتقای آگاهی عمومی هنوز جای کار دارد چرا که کمبود آگاهی در کاربران سیاست گذار و سکوها باعث آسیب پذیری شده است.
وی در خصوص محورهای این نشست اظهار کرد: در این نشست گستره اخبار جعلی که امروز به معضل تبدیل شده مورد بررسی قرار گرفت و چهارچوب مفهومی برای دسته بندی اخبار جعلی و اقسام آن تعریف و در عین حال عواقب اخبار جعلی و تاثیر آن تشریح شد.
وی با طرح این پرسش که چرا اخبار جعلی در مقایسه با اخبار واقعی تاثیرگذاری بیشتری دارند، اظهار کرد: از آن جا که طراوت اطلاعاتی بسیار مهم بوده و انگیزه و عامل پیام تاثیر زیادی دارد از این رو شاهد اثرگذاری بیشتر این اخبار هستیم.
فیروزآبادی با تشریح اخبار نادرست یا اختلال اطلاعات و راه های مقابله ای با این اخبار تصریح کرد: در حال حاضر دو رویکرد مبتنی بر فناوری و مبتنی بر ارتقا و دانش وجود دارد که در هر دو رویکرد، در سه سطح کاربران معمولی، سطح پلتفرم و سطح سیاست گذار اقداماتی در مقابله با اخبار جعلی رخ می دهد که یکی از این اقدامات، راستی آزمایی است.
پژوهشگر پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی در تشریح تفاوت راستی آزمایی با دیبانگ ( افشای اخبار جعلی) گفت: همواره این پرسش مطرح می شود که با توجه به وضعیت انتشار پیام آیا راستی آزمایی همیشه راهکار خوبی بوده و لازم است چه برخوردی با آن صورت گیرد؟ با فرض این موارد، اقدامات کشورهای مختلف در سالیان اخیر در مقابله با اخبار نادرست و اختلالات اطلاعاتی و رویکردهایی از جمله تصویب قانون تا لایحه، اعمال جریمه و زندان، قطعی اینترنت و ارتقای سواد به عنوان جرایم این اقدام مورد بررسی قرار گرفت.
وی با بیان این که هم اکنون مجموعه ای از این اقدامات از سوی کشورها انجام می شود، اظهار کرد: توانایی اعمال حاکمیت در حوزه فضای مجازی بسته به این که هر کشوری چه اقدامی در این زمینه انجام داده و از چه توانمندی فنی برخوردار بوده و چه سطح از از سواد رسانه ای در کشور وجود دارد و در عین حال مردم آن از چه پلتفرمی استفاده می کنند، متفاوت خواهد بود.
فیروزآبادی در پایان با تاکید بر این که نقش سازمان های مردم نهاد در حوزه راستی آزمایی و ضرورت رعایت ساختارهایی در این زمینه از جمله موارد مهم در این حوزه است، افزود: جعل عنوان راستی آزمایی و مساله شفافیت در حوزه راستی آزمایی مالی و مشخص بودن روش های مالی از دیگر موضوعات در بحث مقابله با اخبار جعلی است.
رئیس پژوهشگاه ارتباطات و فناوری اطلاعات با اشاره به چالش های تولید محتوا در شبکههای اجتماعی از منظر جعلی، نامناسب، دروغ و افترا بودن و تبعات ناخوشایند آن در جامعه، از طراحی و توسعه نمونه اولیه سکوی تشخیص اخبار جعلی در شبکه های اجتماعی در این پژوهشگاه خبر داد.
به گزارش روابط عمومی پژوهشگاه ارتباطات و فناوری اطلاعات، وحید یزدانیان با بیان این که آگاهی، پیشگیری و مقابله با تبعات ناخوشایند محتوا در شبکههای اجتماعی از ضروریات جوامع امروزی به حساب میآید، گفت: بیتفاوتی نسبت به این محتواها، ممکن است بحرانهایی ایجاد کند که رفع آن ها امکانپذیر نبوده، یا مستلزم هزینههای گزاف باشد.
وی در تشریح این موضوع ادامه داد: گاهی انتشار اطلاعات نادرست در فضای مجازی تهدید خاصی به حساب نمیآید و مثلاً با انگیزه سرگرمی و مزاح، محتوای نادرستی تولید و منتشر میشود و اثر طولانی مدتی نیز ندارد. اما در مواردی محتواهای نادرست میتوانند به صورت هدفمند و تأثیرگذار در سطح ملی و به منظور بر هم زدن نظم اجتماعی، امنیت، اقتصاد، تخریب اشخاص حقیقی یا حقوقی، و امثال آن ها باشند. در موارد متعددی حتی اخبار جعلی در حوزه داخلی یک کشور در کشور دیگری طراحی و منتشر میشود.
دکتر یزدانیان با تاکید بر این که پدیده اخبار جعلی در شبکههای اجتماعی از جنبههای مختلف مطرح است، افزود: کشورهای مختلف تعاریف مختلفی از اخبار جعلی دارند. حتی تفسیر حقوقی آن ها از اخبار جعلی نیز متفاوت است.
وی خاطرنشان کرد: در این پروژه ضمن مروری گذرا به این مباحث، روشهای مبتنی بر هوش مصنوعی برای شناسایی اخبار مشکوک به جعلی بودن، مورد تمرکز بیشتری قرار گرفت و ضمن بررسی تنوعی از روشهای مبتنی بر هوش مصنوعی، برخی از آن ها پیادهسازی شد یا در حال انجام است.
رئیس پژوهشگاه ارتباطات، نتایج حاصله را مثبت ارزیابی کرد و گفت: دقتهای خوبی به دست آمده که شامل روشهای مبتنی بر استخراج ویژگیهای نوشتاری، روشهای مبتنی بر کیسه کلمات (Bag of Words)، روشهای مبتنی بر n-gram، روشهای مبتنی بر یادگیری عمیق و روشهای مبتنی بر الگوی انتشار در شبکه است.
شفقنا رسانه_دبیر شورای عالی فضای مجازی گفت: وزارت فرهنگ و ارشاد اسلامی مسئول ساماندهی تولید و توزیع محتوا است و مسئولیت پیگیری اخبار جعلی در فضای مجازی به این وزارتخانه محول شده است.
به گزارش مرکز ملی فضای مجازی، ابوالحسن فیروزآبادی به همراه جمعی از معاونان و مدیران مرکز ملی فضای مجازی با محمدمهدی اسماعیلی وزیر فرهنگ و ارشاد اسلامی دیدار و درباره تحولات فضای مجازی و تأثیر آن بر حوزه فرهنگ تاکید کرد.
وی در این دیدار با اشاره به ضرورت پیگیری طرح تحول در وزارت فرهنگ و ارشاد اسلامی گفت: وزارت فرهنگ و ارشاد اسلامی باید متناسب با تحولات فضای مجازی در دنیا و بر اساس مأموریتهای خود نسبت به اجرای طرح تحول در این وزارتخانه اقدام کند و نیاز است تا سایر دستگاهها برای پیشبرد برنامه تحول آن به خصوص سازمان اداری و استخدامی کشور و سازمان برنامه و بودجه حمایت و همراهی لازم را انجام دهند.
فیروزآبادی با اشاره به تولید و توزیع محتوا در فضای مجازی افزود: بر اساس مصوبه شورای عالی فضای مجازی کشور مسئولیت بررسی و پیگیری اخبار جعلی بر عهده وزارت فرهنگ و ارشاد اسلامی است. همچنین این وزارتخانه میتواند برای ساماندهی تولید و توزیع محتوا از سوی کاربران غیرحرفهای (UGC) و افزایش کاربر محور شدن این فضا نقش مؤثری ایفا کند.
دبیر شورای عالی فضای مجازی با تاکید بر ضرورت تقسیم کار حاکمیتی و شفاف سازی مأموریتهای حوزههای فرهنگی و محتوایی با توجه به تعارض و تداخل مأموریت دستگاههای مشمول در این حوزه تصریح کرد: باید در روشهای ممیزی با توجه به گسترش عرضه محصولات در فضای مجازی بازنگری شود.
در این دیدار وزیر فرهنگ و ارشاد اسلامی نیز گفت: این وزارتخانه اهتمام جدی برای رفع چالشهای فرهنگی ناشی از توسعه فضای مجازی در کشور و تقسیم کار دستگاهی متناسب با تحولات فضای مجازی دارد.
اسماعیلی با تاکید بر اینکه وزارت ارشاد برای تحول ساختاری نیازمند پشتیبانی شورای عالی و مرکز ملی فضای مجازی است، افزود: این وزارتخانه آمادگی دارد تا با شورای عالی و مرکز ملی فضای مجازی در حوزههای مأموریتی و در جهت منافع نظام مقدس جمهوری اسلامی برای حمایت و دفاع از حقوق کاربران و تولیدکنندگان محتوا همکاری و هماهنگی بیشتر داشته باشد.
وی با اشاره به اینکه شورای عالی فضای مجازی میتواند نقش بسیار مهمی در تقسیم کار تخصصی و حرفه ای بین دستگاههای دولتی و حاکمیتی در حوزه فرهنگ و محتوا در فضای مجازی ایفا کند، تصریح کرد: با توجه به طراحی و ارائه طرح جامع نظام رسانهای کشور به مجلس شورای اسلامی، آمادگی همکاری در این موضوع با مرکز ملی فضای مجازی در این وزارتخانه وجود دارد.
یک مطالعه نشان میدهد که انتشار اطلاعات غلط در فیسبوک بازدید بیشتری نسبت به دیگر اطلاعات دارد.
میزان - یک مطالعه جدید در مورد رفتار کاربران در فیسبوک احتمالاً استدلالهای منتقدان را تقویت میکند که الگوریتمهای این شرکت باعث گسترش اطلاعات غلط در مقایسه با منابع معتبر میشود.
این تحقیق انجام شده توسط محققان دانشگاه نیویورک و دانشگاه گرنوبل آلپ در فرانسه نشان میدهد که از آگوست ۲۰۲۰ تا ژانویه ۲۰۲۱، ناشران خبری که به ارائه اطلاعات نادرست در فیسبوک معروف هستند، ۶ برابر منابع خبری معتبر مانند سازمان بهداشت جهانی، لایک، اشتراک گذاری و تعاملات را دریافت کردهاند.
از زمانی که اخبار جعلی در فیسبوک پس از انتخابات ریاست جمهوری ۲۰۱۶ آمریکا به نگرانی عمومی تبدیل شد، کارشناسان معتقدند که ترافیک اطلاعات غلط بارها و بارها نشان داده است که میتواند مخاطبان عمدهای را در این پلتفرم به سمت خود جلب کند.
به گفته کارشناسان، این مطالعه یکی از معدود تلاشهای جامع برای اندازه گیری و جداسازی اثر اطلاعات نادرست در میان گروه وسیعی از ناشران در فیسبوک است و نتیجه گیری آن بر این است که بستر فیسبوک به ناشرانی که اخبار گمراه کننده منتشر میکنند، به نوعی پاداش میدهد.
«ربکا ترمبل»، مدیر موسسه داده ها، دموکراسی و سیاست در دانشگاه جورج واشنگتن، که یافتههای این مطالعه را مرور کرده، میگوید «این مطالعه به شواهد فزایندهای کمک میکند که با وجود تلاشهای متعدد برای کاهش اخبار جعلی، اطلاعات غلط، بستری راحت و مخاطبان فعالی در فیسبوک پیدا کرده است.»
فیسبوک مدعی شده که این گزارش تعداد افرادی را که با محتوا درگیر هستند اندازه گیری میکند، اما این اندازه گیری تعداد افرادی نیست که واقعاً آن را مشاهده میکنند؛ فیسبوک آمار ادعایی خود را در دسترس عموم محققان قرار نداده است.
فیسبوک میگوید که این شرکت ۸۰ الگوی بررسی واقعیت دارد که بیش از ۶۰ زبان را پوشش میدهند و برای برچسب زدن و کاهش توزیع اطلاعات غلط کار میکنند.
نویسندگان این مطالعه بر دسته بندیهای ۲ سازمان غیر دولتی، به نامهای «نیوز گارد» و «مدیا بایس - فکت چک»، که اطلاعات نادرست را مطالعه میکنند، استناد کردهاند.
هر ۲ گروه، هزاران ناشر فیسبوک را بر اساس گرایشهای سیاسی خود، از چپ گرای افراطی تا راست گرای افراطی، و تمایل خود برای به اشتراک گذاشتن اخبار قابل اعتماد یا غیرقابل اعتماد، طبقه بندی کردهاند.
منتقدان فیسبوک مدتی است این بستر را متهم میکنند که برای محتوای گمراه کننده و التهابی که اغلب دیدگاههای بینندگان را تقویت میکند، توجه و کلیک بیشتری را مقایسه با اخبار اصلی ایجاد میکند.
فیس بوک هفته گذشته گزارشی در مورد تعاملی ترین محتوای خود را در سه ماهه دوم سال 2021 منتشر کرد که نشان می داد محبوب ترین محتوای این شبکه اجتماعی مطلبی دروغ در مورد واکسن کروناست.
به گزارش فارس به نقل از انگجت، در شرایطی که مشخص شده اخبار جنجالی و زرد رسانه های دست راستی و محافظه کار در فیس بوک بسیار مورد توجه قرار می گیرد و این اخبار عمدتا متعلق به فاکس نیوز، نیوزمکس، بن شاپیرو و غیره هستند، در دیگر شبکه های اجتماعی مانند یوتیوب، تیک تاک، تامبلر و غیره بیشتر محتوای بی ضرر و غیرجنجالی بازنشر می شود.
بر اساس بررسی های مذکور پربازدیدترین لینک در فیس بوک خبری دروغین است که در آن ادعا شده پزشکی در فلوریدا در اثر تزریق واکسن کرونا فوت کرده است. انتشار گسترده اخباری از این دست از طریق فیس بوک موجب شده تا علاقه بسیاری از مردم در ایالات متحده به تزریق واکسن کاهش یابد.
در عین حال فیس بوک جلوی انتشار برخی جزئیات این گزارش را گرفته و مدعی شده باید بررسی ها و اصلاحاتی در این زمینه صورت بگیرد و سپس گزارش مذکور منتشر شود. اندی استون سخنگوی فیس بوک همچنین مدعی شد این شبکه اجتماعی در تلاش برای مقابله با اخبار دروغین است، اما در این زمینه دشواری های جدی وجود دارد.
فیس بوک در ماه های اخیر به ابزاری برای بازنشر انبوه دروغ پردازی ها در مورد ویروس و واکسن کرونا مبدل شده و همین مساله باعث شده تا دولت آمریکا و شخص بایدن به طور مستقیم به آن حمله کنند. بایدن تا بدانجا پیش رفت که ماه گذشته گفت فیس بوک مردم را با نشر اخبار دروغ در مورد واکسن کرونا به کشتن داده است.
یوتیوب در اقدامی بی سابقه حساب کاربری شبکه اسکای نیوز را در این شبکه اجتماعی به علت انتشار اخبار و اطلاعات دروغ در مورد ویروس کرونا تعلیق کرد.
به گزارش فارس به نقل از انگجت، به دنبال انتقادات گسترده از یوتیوب به علت بی توجهی به وجود انبوهی از ویدئوهای گمراه کننده در مورد ویروس کرونا، این سایتِ زیرمجموعه گوگل موضوع را جدی تر کرده وبرخی محتواهای گمراه کننده را حذف کرده است.
با این حال سابقه نداشته که یوتیوب در این روند با حساب های کاربری مشهور و شناخته شده برخورد کند. حال برای اولین بار حساب کاربری شبکه اسکای نیوز استرالیا در یوتیوب برای یک هفته تعلیق شده و این شبکه طی هفت روز آینده حق آپلود هیچ ویدئویی را در یوتیوب ندارد.
بررسی های یوتیوب نشان می دهد در چندین ویدئوی اسکای نیوز، اطلاعات غلطی در مورد ویروس کرونا به مخاطبان ارائه شده است. در این ویدئوها وجود سویه های جدید ویروس کرونا تکذیب شده یا ادعا شده که استفاده از هیدروکسی کلروکین و ایورمکتین درمانهای موثری برای مقابله با کرونا هستند.
یوتیوب مدعی است تولید و انتشار چنین ویدئوهایی می تواند آسیب های را در جهان واقعی به همراه داشته باشد و تکرار رویدادهایی از این دست منجر به بسته شدن کامل حساب شبکه اسکای در یوتیوب می شود. اسکای نیوز در مقابل اعلام کرده که در هیچ یک از ویدئوهای خود وجود ویروس کرونا را انکار نکرده و یوتیوب با این اقدام خود تفکر آزادانه را تهدید می کند.
۲ سناتور دموکرات لایحه ای ارائه کرده اند که مصونیت شبکه های اجتماعی مانند فیس بوک را در صورت گسترش اخبار جعلی مرتبط با سلامت عمومی حذف می کند.
به گزارش خبرگزاری مهر به نقل از ورج، همزمان با افزایش موارد ابتلاء به کرونا در جمعیت واکسینه نشده آمریکا، سناتورهای دموکرات این کشور لایحه جدیدی ارائه کردهاند که طبق آن در صورتیکه فیس بوک و شبکههای اجتماعی دیگر اخبار جعلی مربوط به سلامت عمومی را گسترش دهند از مصونیت بخش ۲۳۰ قانون نجابت ارتباطات محروم میشوند.
قانون اخبار جعلی سلامت توسط امی کلوبوچار و بن ری لوجان ارائه شده است. این لایحه، استثنایی در بخش ۲۳۰ قانون نجابت ارتباطات ایجاد میکند که طبق آن پلتفرمهای اجتماعی مانند فیس بوک به دلیل میزبانی اخبار جعلی خطرناک مرتبط با سلامت عمومی با شکایات قانونی روبرو خواهند شد.
این لایحه وزیر بهداشت و خدمات انسانی آمریکا را موظف میکند تا دستورالعملی درباره ماهیت «اخبار جعلی سلامت» صادر کند.
استثنای ایجاد شده در قانون مذکور فقط مربوط به مواقعی است که اخبار جعلی آنلاین به رویداد اضطراری بهداشت عمومی (مانند پاندمی ویروس کرونا) مربوط باشد. همچنین لایحه مذکور در صورتی موجب رفع مصونیت شبکههای اجتماعی میشود که محتوای مذکور به وسیله الگوریتمها گسترش یافته باشد.
کلوبوچار در بیانیهای در این باره گفت: پلتفرمهای آنلاین مدتها است که اقدامات کافی برای حفاظت از سلامت مردم آمریکا انجام ندادهاند. حال آنکه آنها جزو بزرگترین و ثروتمندترین شرکتهای جهان هستند و باید اقدامات بیشتری برای جلوگیری از گسترش اخبار جعلی مربوط به واکسن انجام دهند. پاندمی ویروس کرونا به ما نشان داد اخبار جعلی تا چه حد میتوانند مرگبار باشند و اکنون وظیفه ما است که کاری انجام دهیم.
دولت آمریکا در حالی به پیامدهای ویرانگر انتشار و پخش اطلاعات غلط در شبکههای اجتماعی اذعان کرده است که همه کشورهای جهان طعم تلخ این بحران را چشیده و برای حل آن به تکاپو افتادهاند.
به گزارش ایرنا، اگرچه انتشار اخبار جعلی چیز جدیدی نیست ظهور شبکههای اجتماعی در سالهای اخیر بازار آن را حسابی داغ کرده است. این اطلاعات ممکن است هر چیزی باشند، از حقیقتهای دستکاری شده و تئوریهای توطئه گرفته تا ادعاهایی که از بیخ و بن دروغند. اما هدف از انتشار این نوع اطلاعات چیست؟ هدف اصلی از این کار دستکاری باورهای یک گروه خاص، ایجاد چند دستگی و بیاعتبار کردن حقیقت است. این روزها دولتها و افراد به واسطه شبکههای اجتماعی به راحتی میتوانند به سرعت نور اطلاعات ساختگی خود را در دنیا پخش کنند و عواقب جدی به جا بگذارند.
وقتی صدای آمریکا هم درآمد!
جو بایدن رئیسجمهوری آمریکا جمعه گذشته، (۲۵ تیر) از شبکههای اجتماعی چون فیسبوک برای پخش و اشاعه اطلاعات غلط درباره ویروس و واکسن کرونا، به شدت انتقاد کرد و گفت: در حال حاضر همهگیری تنها بین جمعیت واکسینه نشده آمریکا ادامه دارد. (شبکههای اجتماعی مثل فیسبوک با پخش اطلاعات غلط) دارند جان مردم را میگیرند.
این اولین بار نیست که یکی از مقامهای ارشد دولت آمریکا به اثار مخرب پدیده همهگیری اطلاعات غلط یا اینفودمی اشاره میکرد؛ ویوک مورتی جراح کل آمریکا که سخنگوی ارشد دولت واشنگتن در حوزه بهداشت عمومی است، یک روز قبل از بایدن ضمن هشدار درباره عواقب جبرانناپذیر انتشار این حجم بالا از دادههای نادرست و اطلاعات غیرعلمی، از غولهای فناوری خواسته بود با تغییر الگوریتمهای خود جلوی ترند شدن این نوع از پستها را بگیرند و اطلاعات بیشتری را با محققان و دولتمردان به اشتراک بگذارند تا بتوانند به معلمان، کادر درمان و رسانهها در مقابله با اینفودمی کمک کنند.
مورتی گفته بود: انتشار اطلاعات غلط در حوزه بهداشت، یک تهدید جدی برای سلامت مردم است. این کار میتواند موجب سردرگمی و بیاعتمادی مردم شده، به سلامت آنها آسیب بزند و تلاشها برای ارتقای سلامت عمومی را خنثی کند. مهار انتشار اطلاعات غلط، یک وظیفه اخلاقی و مدنی است.
به گفته جراح کل آمریکا، شبکههای اجتماعی با فراهم آوردن بستری برای اشاعه بیدردسر اطلاعات بیاساس زمینه تردید مردم برای واکسینه شدن را فراهم میکنند، امری که برآیندی نخواهد داشت جز به راه افتادن موجی از مرگ و میر قابل پیشگیری. مورتی در ادامه تاکید کرد انتشار اطلاعات غلط علاوه بر کرونا میتواند بر دیگر بیماریها نیز تاثیر بگذارد و یک مشکل جهانی است.
مورتی در نشست توجیهی که در کاخ سفید برگزار میشد، عاجزانه از مردم خواست از پخش اطلاعات شبهه برانگیز در فضای آنلاین خودداری کنند اما به گفته عمران احمد، رئیس مرکز مقابله با نفرتپراکنی دیجیتال که مسئولیت ردگیری اطلاعات غلطی که درباره کرونا در اینترنت منتشر میشود را برعهده دارد، فقط این کافی نیست.
احمد در گفتوگو با انپیآر گفت: همانطور که در مورد سیگار میگویند دخانیات کشنده است. در مورد شبکههای اجتماعی نیز جراح کل آمریکا باید بیاید و بگوید اطلاعات غلط کشنده است.
اعتراض مقامات دولت آمریکا به پخش اطلاعات غلط در پلتفرمهای اجتماعی به همینجا محدود نشد.
جن ساکی سخنگوی کاخ سفید نیز روز پنجشنبه (۲۴ تیر) گفت فیسبوک آن طور که باید و شاید برای جلوگیری از انتشار اطلاعات غلط درباره ویروس کرونا تلاش نمیکند.
ساکی تصریح کرد کاخ سفید چند پیشنهاد و توصیه به متولیان فیسبوک و دیگر شبکههای اجتماعی ارائه کرده است تا از آنها در رسیدگی به اشاعه اطلاعات نادرست استفاده کنند. از جمله این پیشنهادها میتوان به حذف ۱۲ کاربری اشاره کرد که مسئول انتشار نزدیک به ۶۵ درصد محتوای ضد واکسیناسیون کرونا در شبکههای اجتماعی بودند.
فیسبوک در توجیه عملکرد خود از حذف بیش از ۱۸ میلیون پست با محتوای غلط درباره ویروس کرونا، حذف حسابهایی که بارها قوانین مربوط به عدم انتشار این نوع از محتوا را شکسته بودند و اتصال ۲ میلیارد کاربر به منابع اطلاعاتی قابل اعتماد و موثق درباره کرونا و واکسیناسیون گفت اما ساکی میگوید این کارها کافی نیست و باید اقدامات بیشتری در این زمینه صورت گیرد. کاخ سفید، به طور خاص، به شبکههای اجتماعی توصیه کرده است عواقب انتشار اطلاعات غلط در پلتفرمهای خود را ارزیابی و به طور علنی منتشر کنند.
آمار ابتلا به کرونا در آمریکا، در هفتهای که گذشت حدود ۱۱ درصد نسبت به هفته قبل افزایش پیدا کرد و تمرکز مبتلایان بیشتر در مناطقی بود که زیر ۴۰ درصد جمعیت علیه ویروس واکسینه شده بودند. به گزارش رویترز، آمار شیوع کرونا در ایالات متحده بهار امسال به دنبال آغاز واکسیناسیونها نسبت به رشد شدیدی که در فصل زمستان داشت، کاهش یافت اما حالا سرعت تزریق واکسن رو به کاهش گذاشته است آن هم در حالی که تاکنون تنها ۵۱ درصد جمعیت آمریکا واکسینه شدهاند. مقامات آمریکایی دلیل تردید و اکراه باقی مردم این کشور برای دریافت واکسن را در اطلاعات غلط و هشدارهای بی اساسی جستوجو میکنند که هر روزه در شبکههای اجتماعی دست به دست میشوند.
از آسیا تا اروپا، زیر آوار «اینفودمی»
فقط آمریکا نیست که با بحران اینفودمی در دوران کرونا دست و پنجه نرم میکند. عمل کردن براساس اطلاعات غلط در هر کجای دنیا میتواند مرگبار باشد. به گزارش سازمان بهداشت جهانی، تنها در سه ماهه اول سال ۲۰۲۰، نزدیک به ۶ هزار نفر در سراسر جهان به دلیل اطلاعات غلطی که درباره کرونا از طریق اینترنت و شبکه های اجتماعی دست به دست شده بود، در بیمارستانها بستری شدند و در این مدت دستکم ۸۰۰ نفر به دلیل اعتماد به این اطلاعات جان خود را از دست دادند.
هند یکی از نمونههای بارز بلایی است که اینفودمی به سر مردم ناآگاهی میآورد که با بحرانی جدی به اسم کرونا روبهرو هستند؛ این کشور که پس از آمریکا با بیش از ۳۱ میلیون مبتلا، بیشترین آمار ابتلا به کرونا در سراسر جهان را دارد، در ماههای اخیر با یک بحران انسانی روبهرو شد که دست به دست شدن روشهای درمانی مندرآوردی و بیفایده، داستانهای ترسناک از عوارض جانبی واکسن کرونا، ادعاهای بیاساس درباره این که مسلمانان این ویروس را در جهان پخش میکنند و شایعات و حرفهای پوچی که یا دهان به دهان میچرخیدند یا در شبکههای اجتماعی پخش میشد، آن را بیش از پیش تشدید کرد.
در یکی دو سال گذشته در ایران هم از این موارد کم ندیدیم. از همان نخستین روزهای شیوع ویروس کرونا کلیپها و تبلیغات مختلفی درباره استفاده از داروها و راههای مختلف برای جلوگیری از ابتلا به کرونا در فضای مجازی منتشر شد؛ ادعایی که هیچیک از مراجع علمی آن را تایید نکردند.
کمی بعد این باور غلط بر سر زبانها افتاد که با مصرف الکل میتوان از ابتلا به کرونا پیشگیری کرد و همین مساله اسباب مسمومیت هزاران نفر را فراهم کرد. تعدادی از افراد سودجو از فضای ایجاد شده سوء استفاده کردند و با تولید مشروبات دستساز که درصد متانول بیشتری داشتند جان بسیاری از انسانها را گرفتند.
مالزی اما درباره شبکههای اجتماعی رویکرد دیگری را در پیش گرفت و حسابی سختگیری کرد. چندی پیش خبر رسید این کشور آسیایی مدت زمان زندانی شدن برای انتشار اخبار جعلی درباره ویروس کرونا را افزایش داده است. دولت مالزی گفته بود باید مجازاتهای سنگینتری اعمال شود تا بتوان با انتشار فزاینده اطلاعات غلط درباره همه گیری کرونا مقابله کرد.
اروپا نیز این روزها به فکر برخورد جدی با شبکههای متخلف اجتماعی افتاده است. حدود سه هفته پیش بود که موسسه غیرانتقاعی اواز (Avaaz) از انتشار نتایج یک مطالعه مقدماتی خبر داد که نشان میداد شبکههای اجتماعی از جمله فیسبوک، اینستاگرام، توییتر و یوتیوب در مقابل انتشار شایعات نادرست درباره ویروس کرونا کاری نکردهاند. این موسسه که با ماموریت ساختن جهانی بهتر، مردم را به فعالیت در مسائلی مثل حقوق بشر، حقوق جانوران، تغییرات آب و هوا، فساد، فقر و جنگ دعوت میکند، تصریح کرد اگرچه از زمان شروع بحران کرونا همه این شبکهها به انتشار اطلاعات موثق در پلتفرمهای خود متعهد شدند اما حالا که اروپا با موج جدید احتمالی شیوع کرونا روبهروست، هیچکدام از این غولهای فناوری به طور موثر جلوی انتشار اطلاعات غلط درباره این بیماری را نگرفته است.
لوکا نیکوترا از مدیران اواز در این باره گفته بود: دیگر خسته شدیم بس که گفتیم هیچکدام از شبکههای اجتماعی به اندازه کافی برای جلوگیری از انتشار دروغهای مسمومی که پلتفرمهایشان را آلوده کرده تلاش نمیکنند. همین حالا به معاهدهای مثل پاریس برای مقابله با اطلاعات غلط نیاز داریم که البته رسیدن به آن مستلزم تعهد معنادار و اقدامات محسوس غولهای فناوری است. این آخرین فرصت آنهاست که اگر از دستش بدهند باید خودشان را برای رویارویی با قانون آماده کنند.
ورا یوروا، کمیسر قضایی اتحادیه اروپا، از موضع موسسه اواز حمایت کرده و در توییتی گفته بود: باید ابزار لازم برای مجازات آنهایی را که دست داشتنشان در انتشار اطلاعات غلط ثابت میشود، در اختیار داشته باشیم.
هر چقدر هم که مدعی آزادی بیان و عقیده باشیم، نمیتوان منکر آن شد که شبکههای اجتماعی بدون نظارت و اعمال برخی فیلترها بستری مناسب برای پخش شایعات و اطلاعات بیاساس فراهم میکنند که در بیشتر موارد آثار مخرب و جبران ناپذیری را در جوامع انسانی بر جای خواهند گذاشت.
افزایش سوءاستفاده از اینترنت برای انتشار اخبار دروغین و منحرف کننده افکار عمومی باعث شده تا کشورهای عضو اتحادیه اروپا قوانینی را در این زمینه وضع کنند.
فارس؛ انتشار اخبار جعلی در شبکههای اجتماعی در چندسال اخیر به یک نگرانی جهانی تبدیل شده است؛ به ویژه وقتی پای موضوعات مهم سیاسی مثل انتخابات در میان باشد. کشورهای مختلف برای مدیریت این آسیب جدی، دست به کار شدهاند. در مارس سال 2018 نشستی با حضور اعضای شورای اروپا با موضوع انتشار اخبار دروغین در اینترنت برگزار شد. در این نشست تهدیدهای ناشی از این روند به خصوص در شبکه های اجتماعی برای رویه های دموکراتیک و انتخابات بررسی شد و در مورد اثرات آن در زمان برگزاری انتخابات ملی و انتخابات پارلمان اروپا اظهار نگرانی شد.
نگرانیهایی که توسط سران اروپا طرح شد
این جلسه تنها چند هفته بعد از تصویب قانون امنیت سایبری توسط پارلمان اروپا برگزار شد که در آن راهکارهایی برای افزایش امنیت سایبری کسب و کارها و شهروندان اروپا در نظر گرفته شده بود. در جلسه مذکور تصریح شد که فضای مجازی می تواند به عنوان یک سلاح جنگ روانی به کار گرفته شده و افکار عمومی را بر علیه نامزدها یا احزابی خاص تحریک کند. همچنین انتشار اخبار جهت دار و مخدوش می تواند حتی موجب عدم علاقه شهروندان به مشارکت در کل فرایند انتخابات شود.
در این نشست نسبت به دوقطبی سازی شدید فضای انتخاباتی و ایجاد حس نفرت و خشم از طرف مقابل به عنوان یکی دیگر از کارکردهای منفی انتشار اخبار جعلی و دروغین هشدار داده شد. زیرا از این طریق اعتماد عمومی به کل نظام های انتخاباتی آسیب می بیند و فرصت برای بحث و تبادل نظر سازنده در مورد کل روندهای انتخاباتی از بین می رود.
مقامات اروپایی همچنین از احتمال بهره برداری کشورهای خارجی و متخاصم از ابزار اخبار جعلی برای تهدید منافع ملی، مشروعیت زدایی و کاهش مقبولیت برخی نامزدها، تحریک احساسات به منظور تخریب و آشوب و غیره خبر دادند. طراحی ربات های دروغ پراکن و سرقت اطلاعات حساس سیاسی و اجتماعی از جمله دیگر نگرانی های مطرح شده در این نشست بود.
چهار گام اجرایی برای مقابله با انتشار اخبار دروغین در انتخابات
در نهایت در دسامبر سال 2018 شورا و پارلمان اروپا با همکاری یکدیگر برنامه اقدام بر علیه انتشار اخبار دروغین را به تصویب رساندند که بر اساس آن چهار گام مورد توجه قرار گرفته بود. ارتقای توانمندی های نهادها و کشورهای عضو اتحادیه اروپا برای شناسایی، تحلیل و مقابله با اخبار و اطلاعات دروغین، تقویت واکنش های هماهنگ به انتشار اخبار دروغین، موظف کردن مدیران و اپراتورهای پلتفرم های دیجیتال به پاسخگویی در این زمینه و در نهایت یاری گرفتن از افراد، موسسه های معتبر و دانشگاه ها برای طراحی تصویری مشترک و درک دقیق فعالیت های مرتبط با انتشار هماهنگ شده اخبار و اطلاعات دروغین در سرویس های دیجیتال مورد استفاده شهروندان اروپایی.
ایجاد یک سیستم هشدار سریع
برای اجرایی شدن این برنامه یک سیستم هشدار سریع از 18 مارس سال 2019 به کار گرفته شد. این سیستم یک پلتفرم دیجیتال است که تعامل میان کشورهای اروپایی برای تبادل اطلاعات در مورد انتشار اخبار دروغین و از جمله دروغ پراکنی های انتخاباتی را تسهیل می کند و باعث هماهنگی واکنش ها به اقدامات یادشده می شود. ارتقای دفاع گروهی در برابر چنین اقداماتی توان اتحادیه اروپا برای مقابله با دروغ پراکنی های انتخاباتی را افزایش می دهد، زیرا هنوز تک تک کشورهای عضو اتحادیه اروپا فاقد استراتژی یا قوانین محلی مشخص برای مقابله با چنین تهدیداتی هستند.
شبکههای اجتماعی مشهور، موظف به همکاری شدند
در ماه های منتهی به برگزاری انتخابات پارلمان اروپا در سال 2019، اپراتورها و مدیران پلتفرم های مشهور آنلاین موظف شدند گزارش هایی را به طور منظم در زمینه مقابله با انتشار اخبار جعلی و اطلاعات دروغین تهیه و برای کمیسیون اروپا ارسال کنند. آنان همچنین موظف به همکاری با اتحادیه اروپا برای حذف اخبار و اطلاعات جعلی و حساب های منتشرکننده این اطلاعات شدند. در عین حال برخی کشورهای اروپایی نیز اقداماتی را برای وضع قوانین مقابله با اخبار و اطلاعات دروغین، آموزش شهروندان در این زمینه و افزایش آگاهی آنان به خصوص در مدارس و دانشگاه ها اجرا کردند که از جمله آنها می توان به ایتالیا اشاره کرد. در عین حال استفاده گسترده شهروندان اروپایی از برخی شبکه های اجتماعی مانند فیس بوک، توئیتر و اینستاگرام که توسط شرکت های آمریکایی اداره می شوند، موجب شده تا روند مقابله با اخبار جعلی با دشوارهایی مواجه شود.
طبق یک تحقیق در اتحادیه اروپا، شناسایی و درک چهار لایه شناختی در شبکه عصبی مغز انسان به ما کمک می کند تا دریابیم چرا افراد اخبار جعلی را باور می کنند و چرا علاقه ای به تحلیل عمیق و مناسب این نوع اخبار ندارند.
بسیاری از اخبار جعلی بسیار مضحک و بی منطق هستند و هیچ پس زمینه درستی ندارند. اما باز هم خوانندگان این خبرها را باور می کنند و با به اشتراک گذاشتن آن در شبکه های اجتماعی به انتشار هر چه گستردهتر این دست خبرها کمک می کنند. این روند در یک سال اخیر و همزمان با شیوع گسترده ویروس کرونا بیشتر شده و خانه نشینی بسیاری از افراد موجب افزایش تمایل به انتشار اخبار جعلی شده که این امر باعث بیاعتمادی به دانشمندان و مقامات رسمی شده است. سوالی که در این زمینه پیش آمده آن است که چرا مردم اخبار جعلی بی پایه و اساس را باور می کنند و چرا اجازه می دهند این اخبار فهم و درک آنها را از جهان شکل دهد. چه سازوکارهایی در ذهن افراد شکل می گیرد که باعث اعتماد به چنین اخباری می شود؟
پاسخ به این سوالات در شبکه عصبی مغز افراد نهفته است. اتحادیه اروپا برای بررسی دقیق این موضوع بودجه اجرای تحقیقی را تامین کرده که تحت نظارت و مدیریت محققان بلغارستانی در حال انجام است. هدف از انجام این پژوهش بررسی و شناسایی عملکرد لایه های شناختی مغز است تا مشخص شود آنها چگونه اخبار دروغ را مدیریت و پردازش می کنند و چه عواملی باعث می شود اشخاص این اخبار را باور کنند.
این تحقیق نشان می دهد که شناسایی و درک چهار لایه شناختی در شبکه عصبی مغز انسان به ما کمک می کند تا دریابیم چرا افراد اخبار جعلی را باور می کنند و چرا علاقه ای به تحلیل عمیق و مناسب این نوع اخبار ندارند. این لایه ها عبارتند از شناخت انگیزه، زمینه های تفکر، معادل سازی و تاکید و علیت سیستمی.
*۱. شناخت انگیزه
اولین لایه شناختی که باید مورد توجه قرار بگیرد، شناخت انگیزه است. این لایه نشان می دهد برداشت ما از خود در ارتباط با دیگران چگونه است و چه درکی از این موضوع داریم و همچنین تعیین می کند که ما چقدر تحت تأثیر اطلاعاتی که دریافت می کنیم قرار می گیریم.
همین لایه شناختی توضیح می دهد که چرا هر فرد به افرادی که در حلقه آشنایان اجتماعی خودش قرار دارد، اعتماد بیشتری دارد و عقائد و نظراتش را با همین افراد به اشتراک می گذارد. معمولاً اخبار و اطلاعات ارسالی این گروه توسط ما موجه و قابل اعتماد است. همچنین اخبار منتشر شده توسط محققان معتبر یا دولت هم به همین دلیل مورد پذیرش ما قرار می گیرد.
شناخت انگیزه لایه ای شناختی است که روندهای شبکه های اجتماعی را هم توضیح می دهد. ما وقتی مطلبی را در محیط آنلاین می خوانیم، احتمال پذیرش آن در صورت انتشار از سوی یک حساب کاربری تایید شده و دارای تصویری مناسب و حرفه ای از کاربر و شرحی مفصل و حرفه ای از احوالات وی بیشتر است. اما مطالب منتشر شده توسط حساب های کاربری ناشناس و بدون تصویر و شرح مناسب را چندان باور نمی کنیم. تعداد به اشتراک گذاری مطالب، تعداد لایک ها و اظهارنظرها و نیز بر روی شکل گیری تصویر کلی مد نظر ما در مورد هر مطلب تاثیرگذار است.
افرادی که قصد انتشار اخبار جعلی را دارند، می توانند از این سازوکارها سوءاستفاده کنند و مردم را فریب دهند. خالقان اخبار جعلی ابتدا اسناد رسمی منتشر شده دولت ها و مقامات و نهادهای معتبر را بازنشر کرده و در ادامه بخش هایی از آنها را به گونه ای تفسیر و تعبیر می کنند که با معنای واقعی آنها در تضاد کامل باشد.
این سازوکار بارها و بارها مورد استفاده قرار گرفته و به عنوان مثال،اوایل شیوع کرونا از سندی رسمی که توسط وزارت بهداشت ایتالیا منتشر شده بود برای بازنشر خبری دروغ در مورد ممنوع شدن کالبدشکافی فوت شدگان در اثر ابتلا به ویروس کرونا استفاده شد. این در حالی بود که در اصل سند به این موضوع اشاره ای نشده بود و تنها بخشی از آن به غلط به شکلی تفسیر و تعبیر شده بود تا خبر دروغ مدنظر استخراج شود.
از همین شیوه برای انتشار خبری دروغ در مورد تمدید سیاست های قرنطینه تا بهار سال ۲۰۲۱ در ایتالیا استفاده شده بود. این بار بیانیه نخست وزیر ایتالیا بدین منظور دستکاری شده بود.
* ۲. زمینه های تفکر
لایه شناختی دوم زمینه های تفکر نام دارد. وقتی ما اطلاعاتی را دریافت کرده یا در مورد چیزی فکر می کنیم، ذهن ما از طرح های مفهومی از پیش تعریف شده برای زمینه سازی در مورد آن و درک نهایی موضوع استفاده می کند. همین طرح ها تعیین کننده موافقت یا مخالفت با موضوعات مختلف خواهد بود.
قالب های فکری افراد در این زمینه بسیار وابسته به ذهنیت آنهاست و پس زمینه زندگی هر فرد، تجارب و عادات اجتماعی او در این زمینه کاملاً نقش آفرین است. هر بار ما چیزی می آموزیم که موید باورهای ذهنی قبلی باشد، آن را صحیح تصور کرده و در ذهنمان ذخیره می کنیم. اما اگر آموزش های جدید بر ضد باورهای قبلی ما باشد در برابر آن موضع می گیریم.
از همین رو اگر خبری جدید با تصورات ذهنی قبلی ما سازگار باشد، آن را پذیرفته و به حافظه می سپاریم تا دیدگاه های قبلی ما تقویت شود. در غیر این صورت داده های جدید را نمی پذیریم تا از ایجاد تضاد شناختی و سردرگمی ذهنی جلوگیری شود.
بنابراین اگر از قبل گرایشات راست گرایانه داشته باشیم، روایت های راست گرایانه از رویدادهای مختلف را بیشتر می پذیریم. بر همین اساس روایت رسانه های دست راستی از بد بودن یا خطرناک بودن مهاجرانی که از راه دریا به اروپا می رسند را به راحتی باور می کنیم. افراد معتقد به این طرز تفکر شاهد ته نشین شدن این نوع روایت ها در ذهن خود و تقویت آن از طریق مطالعه اخبار موید این دیدگاه هستند. چنین افرادی خبر جعلی پیاده شدن مهاجران در منطقه امبریای ایتالیا را که اصلاً به دریا دسترسی ندارد، به راحتی باور می کنند. در مقابل افرادی که از قبل دارای پیش زمینه های چپ گرایانه و متفاوتی در قبال مهاجران هستند نسبت به چنین اخباری بدبینی دارند و به راحتی آنها را نمی پذیرند.
یکی از جالب ترین مثال ها در این زمینه انتشار گسترده ویدئویی در مورد تشدید امکان ابتلا به کرونا به علت تشعشعات دکل های نسل پنجم تلفن همراه بوده است. این ویدئو اولین بار توسط یک تلویزیون آنلاین به نام kla.tv در سوئیس منتشر شد. در این ویدئو به طور مکرر از تصاویر مردی در حال سرفه با دستکش و کاپشن استفاده شده بود که تصویری غالب در ذهن افراد در مورد زمستان است که معمولاً با سرماهوردگی و انفولانزا همراه است. در ادامه در این تصاویر از دکل های مخابراتی نسل پنجم هم استفاده شده بود تا به دروغ بین این دو پدیده ارتباط برقرار شود.
*۳. معادل سازی و تاکید
این لایه شناختی مربوط به چگونگی و نحوه اطلاع رسانی به مردم است. به عنوان مثال نحوه انعکاس آمار مبتلایان به کرونا در هر کشور تصور و برداشت ما از وضعیت آن کشور در این زمینه را شکل می دهد. اگر بیان شود از ابتلای شیوع ویروس کرونا در یک کشور صدها هزار نفر مبتلا شده اند تصوری منفی از آن کشور در ذهن ما شکل می گیرد. اما اگر تاکید شود که از این افراد تنها ۵ درصد فوت شده اند، تصور ما متفاوت و تا حدی مثبت خواهد بود. این دو خبر تصوراتی متفاوت را در ذهن ما شکل می دهند که به واکنش های متفاوتی منجر می شود.
معادل سازی ذهنی ما از اخبار دریافتی و تاکید برای ته نشین شدن آن در ذهن هم به باورپذیری اخبار دستکاری شده کمک می کند. به عنوان مثال خبری منتشر شد که بر اساس آن در بیمارستان های ایتالیا زنان مجبور به استفاده از ماسک های حفاظتی در زمان تولد نوزادانشان شده اند. اما به این نکته اشاره نشد که این اجبار در بیمارستان های فرانسه، اسپانیا، کانادا و ژاپن هم وجود داشته و از همین طریق جوی منفی در مورد ایتالیا ایجاد شد. همین تاکید بر ضرورت ماسک زدن دانش آموزان ایتالیایی بدون اشاره به اجرای این پروتکل در برخی کشورهای دیگر اروپایی باعث ایجاد بدبینی به مقامات ایتالیایی شد.
* ۴. علیت سیستمی
آخرین لایه شناختی که به درک علت پذیرش اخبار جعلی کمک می کند، علیت سیستمی است. این لایه را می توان با علیت مستقیم مقایسه کرد، سازوکاری مبنایی که همه ما ناخودآگاه برای یادگیری چیزهای جدید و معنا سازی از جهان به کار می بریم. علیت مستقیم درک رابطه متقابل دو رویداد را برای ما ممکن می کند، زیرا ما یک رویداد را علت و دیگری را معلول تلقی می کنیم. مثلاً علت گریه یک نوزاد را گرسنگی او می دانیم یا چرخاندن کلید را در قفل عامل بازشدن آن می دانیم.
اما سازوکارهای علی و معلولی وجود دارند که درک و مشاهده آنها به صورت سریع و شفاف ممکن نیست. به عنوان مثال می توان به موضوع نژادپرستی اشاره کرد. همچنین برخی امور فنی مانند ارتباطات بی سیم یا اثرات مصرف داروها بر بدن را نمی توان به صورت واضح مشاهده کرد.
منتشرکنندگان اخبار جعلی از روابط علی و معلولی مبهم برای باورپذیرکردن ادعاهای خود استفاده می کنند.
به عنوان مثال، گرمایش کره زمین اثرات مخرب نامحسوسی بر زندگی ما داشته است. اما این اثرات برای اکثر مردم ملموس و محسوس نیست. لذا منتشرکنندگان اخبار جعلی این موضوع را به طور کلی دروغ می دانند. در این زمینه کار به جایی رسید که دونالد ترامپ رئیس جمهور سابق آمریکا مدعی شد چون در سرمای هوا در پاییز و زمستان تغییر ملموسی رخ نداده، پس گرمایش زمین هم آن طور که ادعا می شود بد نیست. این مثالی ملموس از لایه شناختی علیت سیستمی است. باید توجه داشت که گرمایش زمین پدیده ای بسیار پیچیده است که آن را به شیوه های عادی علت ومعلولی نمی توان توضیح داد.
*نتیجه گیری
باید توجه داشت که انتشار اخبار جعلی و پذیرش آن حاصل وجود لایه های شناختی متعددی است که افراد را به پذیرش اخبار مذکور وادار کرده و آنها را در این زمینه اقناع می کند. درک سازوکارهای منتهی به تاثیرگذاری این لایه های شناختی به ما کمک می کند تا از خود در برابر پذیرش اخبار جعلی حفاظت کنیم و بهتر بتوانیم این خبرها را شناسایی و حذف کنیم. همچنین باید توجه داشت که به منظور افزایش توان افراد برای حفاظت از خود در برابر اخبار جعلی باید به آنها آموزش های بیشتری داده شود.(منبع:فارس)