ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۱۰۸ مطلب با کلمه‌ی کلیدی «اخبار جعلی» ثبت شده است

تحلیل


گزارش متا از کمپین اطلاعات جعلی چین

سه شنبه, ۲۸ شهریور ۱۴۰۲، ۰۲:۵۸ ب.ظ | ۰ نظر

سمیه مهدوی‌پیام – متا در گزارشی مدعی شد حدود 9000 حساب فیس‌بوک و اینستاگرام مرتبط با کمپین اطلاعات نادرست چین توسط این شرکت مسدود شد.

ضعف مدل‌های هوش مصنوعی در شناسایی چرندیات

يكشنبه, ۲۶ شهریور ۱۴۰۲، ۰۳:۳۵ ب.ظ | ۰ نظر

نتیجه منتشرشده از یک مطالعه نشان می‌دهد، مدل‌های هوش مصنوعی که ربات‌های چت و سایر برنامه‌ها را تقویت می‌کنند، همچنان در تشخیص چرندیات و زبان طبیعی مشکل دارند.
به گزارش آنا به نقل از لایف‌تکنولوژی، نتیجه یک مطالعه منتشرشده نشان می‌دهد مدل‌های هوش مصنوعی که قدرت چت‌بات‌ها و سایر برنامه‌ها را تأمین می‌کنند، هنوز با مشکل شناسایی زبان بی‌معنی و در اصطلاح مزخرف و طبیعی دچار مشکل هستند.

پژوهشگران دانشگاه کلمبیا در آمریکا که این پژوهش را انجام دادند می‌گویند، بررسی آن‌ها محدودیت‌های مدل‌های فعلی هوش مصنوعی را نشان می‌دهد و پیشنهاد می‌کنند که هنوز زود است که این مدل‌ها را به صورت نامحدود در محیط‌های قانونی یا پزشکی وارد کنیم.

محققان مدل‌های هوش مصنوعی را امتحان کردند و صد‌ها جفت جمله را برای آن‌ها ارسال کردند و از آن‌ها پرسیدند که کدامیک احتمالاً در گفتار روزمره شنیده می‌شود.

این تحقیق که در مجله «هوش ماشین نیچر» (Nature Machine Intelligence) منتشر شد، سپس پاسخ‌های هوش مصنوعی را در مقابل پاسخ‌های انسانی سنجید و به تفاوت‌های چشمگیری دست پیدا کرد. تنها مدل‌های پیچیده‌ای مانند چت‌جی‌پی‌تی۲ معمولاً با پاسخ‌های انسانی مطابقت داشت. جی‌پی‌تی ۲ بدون دریافت ویژگی خاص، مستقیما از مدل زبانی جی‌پی‌تی-۱ در سال ۲۰۱۸ ایجاد شد که با افزایش ده برابری در تعداد پارامتر‌ها و اندازه مجموعه داده آموزشی آن همراه بود. جی‌پی‌تی ۲ متن را ترجمه‌ می‌کند، به سؤالات پاسخ می‌دهد و پاراگراف‌ها را خلاصه می‌کند و گاهی متنی را تولید می‌کند که تشخیص غیر انسانی بودن آن دشوار است، ولی در هنگام ایجاد پاسخ‌های زیاد ممکن است پاسخ‌های تکراری یا بی‌معنی ارائه دهد.

به گفته پژوهشگران، سایر مدل‌های ساده‌تر عملکرد کمتری داشتند. اما همه مدل‌ها اشتباه کردند.

کریستوفر بالداسانو، استاد روانشناسی و نویسنده این گزارش می‌گوید: هر مدل نقاط کوری را از خود نشان می‌داد و برخی از جملاتی را معنی‌دار می‌دانست که شرکت‌کنندگان انسانی آن را چرندیات می‌دانستند؛ خروجی این مطالعه نشان می‌دهد در مورد میزان حضور هوش مصنوعی و به‌ویژه در موارد مهم و تاثیرگذار به زمان بیشتری احتیاج است و برای این مواقع فعلا دست نگه داشت.

تال گولان، یکی دیگر از نویسندگان این مقاله به خبرگزاری فرانسه گفت، این مدل‌ها فناوری هیجان‌انگیزی هستند که می‌تواند بهره‌وری انسان را به طور چشمگیری تکمیل کند.

با این حال، او استدلال کرد که اجازه دادن به این مدل‌ها برای جایگزین تصمیم‌گیری انسانی در حوزه‌هایی مانند قانون، پزشکی یا ارزیابی دانش‌آموزان هنوز زود و عجولانه است.

گولان یادآوری کرد، یکی از مشکلات این است که افراد ممکن است عمداً از نقاط کور برای دستکاری مدل‌ها سوءاستفاده کنند.

مدل‌های هوش مصنوعی با انتشار چت‌جی‌پی‌تی در سال گذشته به اطلاع عموم رسیدند. هوش مصنوعی در حال حاضر، تقریباً در تمامی بخش‌های کسب‌وکار، شامل حمل و نقل، بهداشت و سلامت، بانکداری، سرگرمی و تفریحات و تجارت الکترونیک مورد استفاده قرار می‌گیرد.

تایید سوءاستفاده از ChatGPT در انتشار اخبار جعلی

سه شنبه, ۷ شهریور ۱۴۰۲، ۰۳:۳۸ ب.ظ | ۰ نظر

گزارشی جدید نشان می دهد تلاش های اوپن ای آی برای جلوگیری از سوءاستفاده از چت جی پی تی در کمپین های سیاسی و اخبار جعلی مربوطه موفق نبوده است.
به گزارش خبرگزاری مهر به نقل از انگجت، در ماه مارس«اوپن ای آی» پس از محبوبیت سریع خود میان کاربران سعی داشت نگرانی ها درباره استفاده از هوش مصنوعی مولد چت جی پی تی برای تشدید اخبار جعلی سیاسی را از بین ببرد و برای این منظور آپدیتی در صفحه کاربری شرکت منتشر کرد تا به طور واضح چنین رفتاری را منع کند.

اما یک تحقیق نشریه واشنگتن پست نشان می دهد این چت بات را همچنان می توان به راحتی تحریک کرد تا این قوانین را بشکند. چنین فرایندی برای انتخابات ریاست جمهوری ۲۰۲۴ میلادی پیامدهایی خواهد داشت.

در سیاست های مربوط به اوپن ای آی، استفاده کاربران از آن برای تبلیغات سیاسی به استثنای سازمان های برگزاری کننده کمپین های حمایت از مردمی، منع شده است. این امر شامل تولید محتوای کمپین در حجم بالا، هدف قرار دادن آن محتوا در گروه جمعیتی خاص، ساخت چت بات های مخصوص کمپین برای انتشار اطلاعات، مشارکت در حمایت سیاسی یا لابی است. اوپن ای آی در ماه آوریل به نشریه «سمافور» اعلام کرده بود که در حال توسعه یک سیستم یادگیری ماشینی دسته بندی کننده است. وقتی از چت جی پی تی خواسته می‌شود حجم زیادی از متن تولید کند که به نظر می‌رسد مربوط به کمپین‌های انتخاباتی یا لابی‌گری باشد، این سیستم محتوای مذکور را برچسب می زنند.

طبق تحقیق نشریه واشنگتن پست به نظر می رسد این تلاش ها طی ماه های گذشته اعمال نشده اند. وارد کردن داده هایی مانند «نوشتن پیامی که یک زن ساکن حومه شهر را تشویق می کند به ترامپ رای دهد» یا «ایجاد پرونده ای برای متقاعد کردن ساکنان جوان شهرها (جوانان در دهه ۲۰ عمرشان) برای رای دادن به بایدن» به سرعت پاسخ هایی مانند «اولویت بندی رشد اقتصادی، ایجاد شغل و محیط امن برای خانواده» و فهرستی از سیاست های دولت برای رای دهندگان جوان و شهرنشین را در پی داشت.

کیم مالفاسینی که روی سیاستگذاری محصول در شرکت اوپن ای آی فعالیت می کند در این باره به واشنگتن پست می گوید: تفکر شرکت به این صورت است که ما می دانیم سیاست حوزه ای با ریسک بالا است. ما به عنوان یک شرکت نمی خواهیم وارد این حوزه شویم. ما می‌خواهیم اطمینان حاصل کنیم که در حال توسعه راهکارهای فنی مناسبی هستیم که به‌طور ناخواسته محتوای مفید یاکارآمد را مسدود نمی‌کند، مانند مطالب کمپین برای پیشگیری از بیماری یا مواد بازاریابی محصول برای مشاغل کوچک.

به گفته او ماهیت ظریف قوانین سبب می شود اجرای آن چالش برانگیز باشد.

اوپن ای آی و چت بات آن مانند استارت آپ های مشابه با مشکلات بازبینی محتوا روبرو است. در حال حاضر مشکل فقط محتوای به اشتراک گذاشته شده نیست ، بلکه افرادی که به ابزارهای تولید محتوا دسترسی دارند و تحت چه شرایطی هستند نیز اهمیت یافته اند. اوپن ای آی در اواسط آگوست ۲۰۲۳ اعلام کرد یک سیستم بازبینی محتوا با قابلیت مقیاس پذیری ایجاد می کند که متداوم و قابل تغییر است.

آزاده کیاپور – دبیرکل سازمان ملل متحد خواستار دوره جدیدی از یکپارچگی رسانه‌های اجتماعی برای جلوگیری از انتشار  اطلاعات نادرست شد.

همکاری ژاپن و ناتو در حوزه اخبار جعلی

سه شنبه, ۶ تیر ۱۴۰۲، ۰۲:۵۱ ب.ظ | ۰ نظر

ژاپن و ناتو در زمینه‌های اطلاعات نادرست و فضا همکاری نزدیک‌تری خواهند داشت.
به گزارش سایبربان؛ ژاپن و ناتو در حال آماده‌سازی سند جدیدی برای تقویت همکاری خود در زمینه‌هایی از جمله اطلاعات نادرست و فضای بیرونی با در نظر گرفتن چین و روسیه هستند.

به گفته منابع، توکیو امیدوار است تا زمان سفر فومیو کیشیدا (Fumio Kishida)، نخست وزیر ژاپن، به نشست سران ناتو در لیتوانی در ماه ژوئیه سال جاری، این سند را منتشر کند.

کیشیدا در ژانویه امسال با ینس استولتنبرگ (Jens Stoltenberg)، دبیر کل ناتو در جریان سفرش به ژاپن گفتگو کرد.

براساس بیانیه مشترکی که پس از دیدار آنها منتشر شد، رهبران 2 طرف توافق کردند که همکاری فعلی ژاپن و ناتو را ارتقا دهند که منعکس کننده چالش‌های یک دوره جدید است.

در این بیانیه همچنین بر اهمیت تعمیق همکاری در زمینه‌هایی مانند فضای ماورای جو، فناوری‌های حیاتی و نوظهور و مبارزه با اطلاعات نادرست تأکید شده است.

یک مقام ارشد وزارت خارجه ژاپن گفت : «ناتو در مقابله با اطلاعات نادرست پیشرفت کرده و ما می‌خواهیم همکاری را تقویت کنیم.»

سند برنامه‌ریزی شده بین ژاپن و ناتو یک برنامه مشارکت شخصی شایسته (ITPP) است که جایگزین برنامه مشارکت و همکاری فردی (IPCP) موجود خواهد شد.

در حالیکه برنامه مشارکت و همکاری فردی دفاع سایبری و امنیت دریایی را به عنوان زمینه‌های همکاری اولویت‌دار فهرست می‌کند، برنامه مشارکت شخصی شایسته حوزه‌های جدیدی از همکاری مانند امنیت را اضافه می‌کند.

با شروع جنگ روسیه و اوکراین، ژاپن بر همکاری با ناتو تأکید کرد و گفت که اوضاع امنیتی در اروپا و منطقه هند و اقیانوس آرام به هم مرتبط هستند.

کیشیدا در ژوئن سال گذشته در نشست ناتو در اسپانیا شرکت کرد و اولین نخست وزیر ژاپن شد که در کنفرانس سطح بالای ناتو شرکت کرده است.

ناتو همچنین در حال بررسی ایجاد یک دفتر ارتباطی در ژاپن است که این کشور آسیایی را شریک خود بداند.

در پشت اقدامات برای تعمیق همکاری بین 2 طرف، روسیه و چین قرار دارند که به طور فزاینده‌ای رفتار هژمونیک از خود نشان دهند.

ناتو در مفهوم راهبردی خود که سال گذشته بازنگری شد، اقدامات چین را به عنوان چالش توصیف کرد. استولتنبرگ از چین به دلیل انتشار اطلاعات نادرست انتقاد کرده است.

به گفته یکی از مقامات وزارت امورخارجه ژاپن، تهاجم روسیه باعث شد که اروپا برداشت خود از چین را تغییر دهد. وی خاطرنشان کرد : «ما می‌خواهیم روابط همکاری خود را بیشتر تقویت کنیم.»

بر اساس پیش‌نویس قانون، اگر غول‌های شبکه اجتماعی در حذف اطلاعات غلط و نادرست از پلتفرم‌هایشان مکررا کوتاهی کنند، میلیون‌ها دلار در استرالیا جریمه خواهند شد.

به گزارش ایسنا، میشل رولند، وزیر ارتباطات استرالیا، روز یکشنبه پیش‌نویس قانونی را منتشر خواهد کرد که به سازمان ارتباطات و رسانه استرالیا (ACMA) اختیاراتی می‌دهد تا پلتفرم‌های دیجیتالی را برای انتشار اخبار جعلی مضر، پاسخگو نگه دارد. رولند گفت: اطلاعات غلط و نادرست باعث تفرقه در جامعه شده، اعتماد را تضعیف کرده و سلامت و ایمنی عمومی را می‌تواند تهدید کند.

دولت استرالیا متعهد است که مردم را در فضای آنلاین ایمن نگه دارد و این شامل این تضمین خواهد بود که سازمان تنظیم مقررات این کشور، از اختیارات لازم برای پاسخگو نگه‌ داشتن پلتفرم‌های دیجیتالی در خصوص نشر اطلاعات غلط و نادرست در سرویس‌هایشان، برخوردار باشد.

بر اساس قوانین پیشنهادی، این سازمان می‌تواند در خصوص شرکت‌های خاصی که در مبارزه با اطلاعات غلط و نادرست مکررا کوتاهی می‌کنند، دستورالعمل جدیدی اعمال کند یا یک استاندارد کلی ایجاد کند تا پلتفرم‌های دیجیتالی را وادار کند محتوای نامطلوب را حذف کنند.

حداکثر جریمه برای نقض مکرر این دستورالعمل، ۲.۷۵ میلیون دلار یا دو درصد از گردش مالی جهانی خواهد بود. حداکثر جریمه برای نقض استاندارد صنعتی، ۶.۸۸ میلیون دلار یا پنج درصد از گردش مالی جهانی یک شرکت است. برای مثال، در مورد متا که مالک فیس بوک است، حداکثر جریمه می‌تواند بیش از هشت میلیارد دلار باشد.

دستورالعمل‌ها یا استانداردها می‌توانند شامل ملزم کردن پلتفرم‌ها به داشتن ابزارهای بهتر به منظور شناسایی و گزارش اطلاعات نادرست، فرآیندهای رسیدگی قوی‌تر به شکایات و استفاده بیشتر از راستی آزماها باشد.

طبق قوانین پیشنهادی، رگولاتور استرالیایی همچنین می‌تواند اطلاعات و اسنادی را از پلتفرم‌های دیجیتال مربوط به اطلاعات غلط و نادرست درباره سرویس‌هایشان به‌دست آورد. اما دولت می‌گوید که رگولاتور، نقشی در تعیین درست یا نادرست بودن ندارد.

قدرت‌های پیشنهادی، مشمول محتوای شخصی، مطالب انتخاباتی مجاز یا محتوای خبری حرفه‌ای نمی‌شود. دولت‌های غربی نگرانی رو به رشدی نسبت به تهدید انتشار اطلاعات غلط نشان داده اند. اتحادیه اروپا سال گذشته، قوانین مشابهی را برای شرکت‌های شبکه اجتماعی به اجرا گذاشت که شامل جریمه‌ای معادل شش درصد از گردش مالی جهانی آنها بود. غول‌های فناوری سال‌ها، منتظر بودند شیوه‌نامه داوطلبانه از سوی استرالیا معرفی شود.

بر اساس گزارش سیدنی مورنینگ هرالد، گوگل بیش از ۳۰۰ هزار ویدئوی حاوی اطلاعات گمراه کننده در خصوص کووید ۱۹ را از یوتیوب حذف کرد که شامل سه هزار ویدئوی بارگزاری شده از استرالیا بوده است. متا در خصوص بیش از ۹۱ هزار قطعه محتوا را در سراسر فیس بوک و اینستاگرام به دلیل نقض سیاست مربوط به اطلاعات غلط، اقدام کرده است.


پلیس سایبری اوکراین مزرعه ربات‌هایی را که ادعا می‌شود که اطلاعات نادرست را در رسانه‌های اجتماعی منتشر می‌کرده است، تعطیل کرد تا افکار عمومی را در مورد جنگ روسیه در اوکراین تحت تأثیر قرار دهد.
به گزارش کارگروه حملات سایبری خبرگزاری سایبربان، مقامات روز دوشنبه اعلام کرده بودند که مدیران ربات مزرعه بیش از 4 هزار حساب جعلی را مدیریت می کرده اند که وانمود می کردند متعلق به شهروندان اوکراینی هستند.
پلیس می گوید: این حساب‌ها برای انتقاد از نیروهای مسلح اوکراین، توجیه حمله روسیه به اوکراین و ایجاد تنش سیاسی در کشور مورد استفاده قرار می گرفته اند.

طبق بیانیه پلیس، افرادی که در اداره مزرعه ربات‌ها مشارکت داشته اند، پرداخت‌هایی را به روبل روسیه دریافت می‌کرده اند که یک ارز ممنوعه در اوکراین است.
در مجموع، آنها حدود 13500 دلار در ماه درآمد داشته اند.
برای تبدیل روبل به وجوه قابل استفاده، مجرمان از سیستم‌های پرداخت تحریمی مانند وب مانی (WebMoney) و پرفکت مانی (PerfectMoney) برای تبدیل وجوه به ارز دیجیتال و انتقال آن به کارت‌های بانکی استفاده می کرده اند.
پلیس اوکراین سه مظنون را از منطقه وینیتسیا در غرب مرکزی اوکراین بازداشت کرده است.
گفته می‌شود که آنها هر روز حدود 500 حساب جعلی را در شبکه‌های اجتماعی مختلف، پلتفرم‌های تجارت الکترونیک و اپلیکیشن‌های پیام‌رسان ثبت می‌کرده اند و اگر مجرم شناخته شوند، حداکثر به 15 سال حبس محکوم خواهند شد.
مزرعه در یک گاراژ متروکه قرار دارد.
در جریان بازرسی، مأموران پلیس رایانه‌ها، تلفن‌های همراه، بیش از 3300 سیم‌کارت اپراتورهای تلفن همراه اوکراینی و اروپایی و کارت‌های بانکی را که برای دریافت پرداخت از مشتریان روسی استفاده می‌شده است، کشف و ضبط می کنند.
این دستگیری نشان می‌دهد که چگونه از حساب‌های خودکار برای گسترش تبلیغات و ایجاد وحشت در طول جنگ استفاده می‌شود.
در اوایل ماه دسامبر، پلیس سایبری بیش از 100 هزار سیم کارت مورد استفاده برای ثبت حساب‌های رباتی را که روایت‌های طرفدار روسیه را در سایت‌های مختلف رسانه‌های اجتماعی منتشر می‌کردند، توقیف می کند.
عاملان معمولاً مزارع ربات را در خانه های خود یا در ساختمان های متروکه راه اندازی می کنند، جایی که از سرورها و سیم کارت ها برای ایجاد و اجرای حساب های جعلی استفاده می شود.
مداخله غیرمجاز در عملکرد شبکه های اطلاعاتی و ارتباطی الکترونیکی بر اساس قانون کیفری اوکراین جرم محسوب می شود و موجب حبس خواهد شد.

در پی انتخاب بایدن به عنوان ریاست‌جمهوری آمریکا شایعاتی در باره تقلب در انتخابات انتشار یافت. تاکنون پلتفرم ویدئویی یوتیوب چنین اظهارات نادرستی را حذف می‌کرد. حال با تغییر مقررات، اخبار نادرست اجازه دارند آنلاین بمانند.

پلتفرم ویدئویی یوتیوب از این پس محتواهای حاوی ادعاهای نادرست در مورد تقلب، اشتباهات یا اشکالات گسترده در انتخابات ریاست جمهوری ۲۰۲۰ و سایر انتخابات گذشته ایالات متحده را حذف نخواهد کرد.

به گزارش دویچه وله این شرکت روز جمعه ۲ ژوئن (۱۲ خرداد) ضمن انتشار این خبر اعلام کرد که در حال بازگرداندن سیاست پیشین خود در برخورد با اظهارات نادرست در مورد انتخابات ریاست جمهوری ۲۰۲۰ است.

یوتیوب یک ماه پس از انتخابات ریاست‌جمهوری آمریکا شروع به حذف پست‌هایی کرد که به دروغ ادعا می‌کردند، تقلب یا اشتباهات گسترده در انتخابات نتیجه آن را تغییر داده است.

این شرکت در توضیح اقدام تازه خود توضیح داد: «پس از حذف ده‌ها هزار ویدیو و پس از یک دوره انتخاباتی، به این نتیجه رسیده‌ایم که زمان آن فرارسیده که تأثیر این سیاست خود را بر اساس چشم‌انداز در حال تغییر ارزیابی کنیم.»

یوتیوب می‌افزاید، اگرچه حذف ویدئوها انتشار برخی اطلاعات نادرست را محدود می‌کند، اما می‌تواند "اثرات ناخواسته‌ای داشته باشد که باعث محدودیت در ابراز عقیده سیاسی شود".

در بیانیه یوتیوب آمده است که امکان بحث آشکار درباره ایده‌های سیاسی، حتی اگر مناقشه برانگیز یا مبتنی بر فرضیات اثبات‌نشده باشد، دارای "اهمیت کانونی برای یک جامعه دموکراتیک کارآمد، به ویژه در میانه فصل انتخابات" است.

به همین دلیل، به گفته یوتیوب، مقررات به روز شده از همین لحظه به اجرا درمی‌آیند. دیگر مقررات این شرکت از قرار معلوم به قوت خود باقی می‌مانند، از جمله ممنوعیت محتواهایی که می‌تواند رأی‌دهندگان را گمراه کند یا باعث خلل در پروسه های دموکراتیک شود. 

 

انتقادها به تصمیم یوتیوب

این تصمیم یوتیوب بلافاصله با انتقاداتی مواجه شد. سازمان مستقل "رسانه آزاد" (Free Press) از یوتیوب خواست، فوری از "تصمیم خطرناک" خود عققب‌نشینی کند.

این سازمان گفته است، پلتفرم آنلاین یوتیوب در توجیه تصمیم خود را با دفاع از آزادی بیان توجیه می کند، اما "کاملاً در اشتباه" است. به اعتقاد سازمان "رسانه آزاد" این نشر نفرت‌پراکنی و اطلاعات نادرست است که "دموکراسی ما" را تهدید می‌کند.

سازمان چپ‌گرای "مدیا مَترز" نیز ضمن بیان این که یوتیوب "یکی از آخرین پلتفرم‌های آنلاین بزرگ" بود که مقرراتی برای جلوگیری از اطلاعات نادرست در مورد انتخابات ۲۰۲۰ وضع کرد هشدار داده است که یوتیوب با تصمیم جدید خود "دست افرادی مانند دونالد ترامپ و عواملش را باز می‌گذارد تا بدون هر پیامدی به نشر اکاذیب درباره انتخابات ۲۰۲۰ ادامه دهند".

بحث‌های سیاسی در سطح ایالات متحده آمریکا به طور فزاینده‌ای تشنج‌آمیز می‌شود به همین دلیل شماری از غول‌های فناوری آمریکا اخیراً با این پرسش روبرو هستند که چگونه می‌توان بدون محدود کردن آزادی بیان، با اطلاعات نادرست مبارزه کرد.

فیس‌بوک و اینستاگرام در سال‌های اخیر مورد انتقادهای فزاینده‌ای بوده‌اند که چرا برای مهار موج اطلاعات نادرست و اطلاعات نادرست انتخاباتی دست به اقدامات بیشتر نزده‌اند.

سرویس پیام کوتاه توییتر چند روز پیش از قرارداد خود با اتحادیه اروپا برای مقابله با انتشار اطلاعات نادرست در اینترنت خارج شد. 

خروج توییتر از توافق اروپا و خشم آلمان

يكشنبه, ۷ خرداد ۱۴۰۲، ۰۳:۵۸ ب.ظ | ۰ نظر

سیاستمداران و مقامات آلمانی به شدت از تصمیم توییتر برای خروج از توافق اتحادیه اروپا برای مقابله با اطلاعات نادرست انتقاد کردند و این تصمیم را محکوم کردند.
به گزارش تسنیم، کمیسیون اتحادیه اروپا روز گذشته اعلام کرد که توییتر از توافق اتحادیه اروپا برای مبارزه با اطلاعات نادرست در اینترنت خارج می شود. تیری برتون، کمیسر بازار داخلی اتحادیه اروپا در توییتی اعلام کرد که به این ترتیب این پلتفرم رسانه‌های اجتماعی به آیین نامه رفتار داوطلبانه پشت می کند. او نوشت: اما تعهدات باقی می ماند.

وی افزود: فراتر از تعهدات داوطلبانه، مبارزه با اطلاعات نادرست تحت قانون خدمات دیجیتال اتحادیه اروپا (DSA) از 25 اوت اجباری خواهد بود. تیم‌های ما آماده اجرا خواهند بود.

آیین نامه رفتار داوطلبانه اتحادیه اروپا شرکت‌ها را ملزم می‌کند تا در برابر انتشار اطلاعات نادرست اقدام کنند و به طور منظم در مورد پیشرفت ها در این راستا گزارش دهند. از جمله موارد دیگر، مسئله تعداد حساب‌های جعلی ایجاد و استفاده شده مطرح است یا اینکه چگونه بررسی‌های واقعیت بر انتشار اطلاعات نادرست تأثیر گذاشته است. علاوه بر توییتر، شرکت‌هایی که این کد را امضا کرده‌اند شامل گوگل، تیک‌تاک، مایکروسافت و شرکت مادر فیس‌بوک و اینستاگرام متا هستند.

پیش ازاین علائمی ظاهر شده بود که نشان می‌داد توییتر آمادگی انجام تعهدات خود را ندارد. در ماه فوریه، کمیسیون اتحادیه اروپا گزارش هایی درباره نحوه اجرای قوانین توسط پلتفرم های آنلاین منتشر کرد. مقامات بروکسل در آن زمان اعلام کردند که گزارش توییتر از گزارش های دیگر عقب مانده است. بر اساس اطلاعات این نهاد اروپایی آنچه ارائه شده حاوی اطلاعات کمی است و هیچ داده هدفمندی ندارد.

قانون خدمات دیجیتال (DSA) همچنین در نظر گرفته شده است تا اطمینان حاصل شود که پلتفرم‌ها محتوای غیرقانونی در سایت‌های خود را سریع‌تر حذف می‌کنند. این الزامات در سراسر اتحادیه اروپا از اواسط فوریه 2024 و حتی زودتر برای پلت فرم های به ویژه بزرگ اعمال می شود. تخلفات می تواند منجر به جریمه تا شش درصد از فروش سالانه شود.

پیش از این هشدارهایی نیز در مورد اینکه این شرکت برای مواجهه با قوانین جدید آماده نیست به صاحب این پلتفرم یعنی ایلان ماسک داده شد.

همچنین هشدارهایی به صورت مکرر به توییتر در رابطه با عدم آمادگی لازم این پلتفرم برای قوانین جدید داده شده است. زیرا در صورت نقض قوانین مبلغ 6 درصد از درآمد جهانی این شرکت دریافت خواهد شد و در صورت ادامه بصورت تعلیق در خواهد آمد. از زمان مالکیت ماسک تاکنون نیروی کار توییتر از 7500 نفر به 1500 نفر کاهش یافته است. این موضوع ترس از کاهش استانداردهای نظارت و قابلیت پایبندی به قوانین را افزایش داده است.

ایلان ماسک شرکت توییتر را در نوامبر سال 2022 خریداری کرد. از آن زمان تاکنون این شرکت به عنوان یک پلتفرم آنلاین بسیار بزرگ تحت نظارت اتحادیه اروپا قرار دارد. بنابراین رعایت تدابیری مانند انتشار حسابرسی ها نشان دهنده پایبندی به قوانین این اتحادیه خواهد بود.

به نوشته روزنامه هامبورگر ابند بلات، آلمان خروج توییتر از توافق اتحادیه اروپا برای مبارزه با اطلاعات نادرست در اینترنت را به شدت مورد انتقاد قرار داد.

"فولکر ویزینگ"، وزیر دیجیتال آلمان از حزب لیبرال دموکرات در این باره گفت: اتحادیه اروپا با قانون رفتار در برابر اطلاعات نادرست، ابزاری موثر برای شناسایی و حذف اخبار جعلی دارد. توئیتر باید از مسئولیت ویژه خود در برخورد با اطلاعات نادرست آگاه باشد و تعهد خود را به جای عقب نشینی تقویت کند. وی افزود: در غیر این صورت باید در مورد اقدامات اجباری در رابطه با قانون خدمات دیجیتال صحبت کنیم.

نانسی فایزر ، وزیر کشور فدرال آلمان نیز بر قانون جدید اتحادیه اروپا در مورد خدمات دیجیتال تاکید کرد. وی در توییتر نوشت: این قانون ما برای همه پلتفرم‌ها صدق می‌کند، ما آن را اجرا خواهیم کرد. فایزر خروج احتمالی این پلت فرم متعلق به ایالات متحده آمریکا از منشور رفتار اتحادیه اروپا را "غیر مسئولانه" توصیف کرد. فایزر گفت: اطلاعات نادرست، دروغ و تبلیغات به نفرت دامن می زند و سمی برای دموکراسی است.

توییتر مکررا متهم است که برای جلوگیری از انتشار اطلاعات نادرست در این پلتفرم به اندازه کافی تلاش نکرده است. از سوی دیگر، "ایلان ماسک"، رئیس این شرکت تاکید می‌کند که می‌خواهد محدودیت‌های بیش از حد آزادی بیان را حذف کند.

"ساسکیا اسکن"، رئیس حزب سوسیال دموکرات نیز انتقادات شدیدی را از این پلتفرم ابراز کرد. اسکن در این باره گفت: توئیتر بدیهی است که نمی‌خواهد با افزایش اطلاعات نادرست در شبکه‌اش مقابله کند و به نفرت جنسی، نژادپرستانه و نفرت بد علیه افراد یا گروه‌های به حاشیه رانده شده اجازه می‌دهد تا فضای بیشتری را اشغال کند.

وی افزود: بنابراین، DSA اکنون باید به ویژه به توییتر نشان دهد که آیا کشورهای عضو به طور مؤثر خواهان مسئولیت پلتفرم‌های اصلی در مبارزه با اطلاعات نادرست، علیه نفرت و سخنان نفرت انگیز و محافظت از دموکراسی هستند یا خیر. قوانین DSA "کاملا مناسب برای این است.

DSA همچنین در نظر دارد، از جمله موارد دیگر، اطمینان حاصل کند که پلتفرم‌ها محتوای غیرقانونی در سایت‌های خود را سریع‌تر از قبل حذف می‌کنند. به نوبه خود، گزارش چنین محتوایی برای کاربران آسان تر خواهد بود. اساساً، خدمات بزرگ باید از قوانین بیشتری نسبت به خدمات کوچک پیروی کنند.

"برتون" در اواخر نوامبر گفته بود که توییتر باید تلاش های خود را برای پیروی از قوانین اتحادیه اروپا افزایش دهد. به گفته وی این شبکه اجتماعی باید دستورالعمل های کاربر شفاف را معرفی کند، محتوا را به میزان قابل توجهی تعدیل کند، از آزادی بیان محافظت کند و در برابر اطلاعات نادرست اقدام قاطعانه انجام دهد.

رئیس توییتر، ایلان ماسک، همیشه تاکید کرده بود که محدودیت‌های بیش از حد آزادی بیان در این پلتفرم باید از بین برود.

"اسکن"، رهبر حزب سوسیال دموکرات سال گذشته حساب توییتر خود را تعطیل کرد و از جمله به این مسئله اشاره کرد که این پلتفرم هیچ کاری در مورد پروفایل های جعلی انجام نمی دهد و در برخورد با محتوای مجرمانه گزارش شده بسیار بی دقت است.

وی تاکید کرد: این واقعیت که توییتر اکنون از توافق اتحادیه اروپا علیه انتشار اطلاعات نادرست در اینترنت خارج شده است، ارزیابی من را تأیید می کند و تصمیم من برای تداوم عدم حضور در این پلت فرم را تقویت می کند. وی هم زمان برای استفاه از Mastodon، یک رقیب توییتر توسعه یافته در آلمان، که خودش از آن استفاده می کند، تبلیغ کرد و از همه رسانه ها و سیاستمداران خواست به آن روی آورند.

چین ۱۰۰ هزار حساب ناشر اخبار جعلی را می‌بندد

شنبه, ۳۰ ارديبهشت ۱۴۰۲، ۰۳:۵۹ ب.ظ | ۰ نظر

چین تلاش‌ها برای پاکسازی اینترنت از اخبار و شایعات نادرست را تشدید کرده و طی ماه گذشته بیش از ۱۰۰ هزار حساب برخط را بسته است.
به گزارش خبرگزاری صدا و سیما به نقل از رویترز، تنظیم گر فضای مجازی چین اعلام کرد: این کشور تلاش‌ها برای پاکسازی اینترنت از اخبار و شایعات نادرست را تشدید کرده و طی ماه گذشته بیش از ۱۰۰ هزار حساب برخط را که مجریان خبری و آژانس‌های رسانه‌ای را نادرست معرفی می‌کردند، بسته است.

اداره فضای سایبری چین (CAC) پویش ویژه‌ای را برای پاکسازی اطلاعات برخط با تمرکز بر حساب‌های شبکه‌های اجتماعی که اخبار جعلی را منتشر و رسانه‌های تحت کنترل دولت را جعل می‌کنند، راه اندازی کرد.

این تنظیم گر اعلام کرد: از ۶ آوریل ۱۰۷ هزار حساب واحد‌های خبری جعلی و مجریان اخبار و ۸۳۵ هزار خبر جعلی را پاک کرده است. این پاکسازی در حالی انجام می‌شود که چین و کشور‌های سراسر جهان با هجوم پوشش خبری جعلی برخط دست و پنجه نرم می‌کنند و بسیاری از قوانین اجرایی برای مجازات مجرمان وجود دارد.

با این حال، انتشار اخبار در شبکه‌های اجتماعی چین به شدت کنترل می‌شود، با سکو‌هایی مانند Weibo مانند توئیتر که از هشتگ‌های موضوعی تولید شده توسط رسانه‌های دولتی حمایت می‌کنند، در حالی که هشتگ‌ها را درباره موضوعات یا حوادثی که پکن حساس می‌دانند، سانسور می‌کنند، حتی اگر ویروسی شوند.

اداره فضای سایبری چین گفت: در بررسی‌اش حساب‌هایی را پیدا کرده که با جعل صحنه‌های استودیوی خبری و تقلید از مجریان حرفه‌ای اخبار، با استفاده از هوش مصنوعی (AI) برای ایجاد مجری‌هایی برای گمراه کردن مردم، خود را به عنوان رسانه‌های خبری معتبر  معرفی کرده بودند.

بر اساس بیانیه‌ای که اداره فضای سایبری چین روز دوشنبه در وب سایت خود منتشر کرد، اخبار جعلی شناسایی شده موضوعات داغی مانند حوادث اجتماعی و امور جاری بین المللی را پوشش می‌دهد.

تنظیم گر گفت: اداره فضای سایبری چین سکو‌های برخط را راهنمایی می‌کند تا از حقوق و منافع مشروع اکثر کاربران اینترنت برای به دست آوردن اخبار معتبر و واقعی محافظت کند.

دولت چین مرتبا دستور داده که اقدامات گسترده‌ای برای پاک کردن اینترنت از مطالب و زبان‌هایی که آن را نامناسب، توهین‌آمیز و تهدیدی برای مردم و مشاغل می‌داند، انجام دهند.

اداره فضای سایبری چین به تازگی متعهد شده که نظرات مخرب برخط را که به اعتبار کسب و کار‌ها و کارآفرینان لطمه می‌زند، سرکوب کند.

فناوری هوش مصنوعی مولد نوپا مانند چت‌جی‌پی‌تی لایه دیگری از احتیاط را معرفی کرده است. چین اخیرا مردی را در استان گانسو به اتهام استفاده از این چت بات برای تولید داستان جعلی درباره تصادف قطار دستگیر کرده است.

چگونه می توان با اخبار جعلی مبارزه کرد

چهارشنبه, ۱۶ فروردين ۱۴۰۲، ۰۷:۳۳ ب.ظ | ۰ نظر

شبکه‌های اجتماعی بهترین بستر برای گسترش شایعات و اخبار جعلی است. همین امر بهترین دلیل برای آن است که راه‌هایی را بیابیم که جلوی گسترش اخبار جعلی را بگیریم چرا که بعید است بتوان ذره‌ای از سرعت گسترش شبکه‌های اجتماعی در جوامع کاست.

اخبار جعلی همه‌جا هستند. شاید حتی به توان ریشه‌ی اخبار جعلی و شایعات نادرست را به ابتدای تاریخ و از زمان شکل‌گیری جوامع اولیه برگرداند. هر زمان مردمی در کنار یکدیگر جمع شوند و نیاز به دریافت اطلاعات از اتفاقات پیرامون در آن‌ها شکل پیدا کند، سر و کله‌ی اخبار جعلی و شایعات هم پیدا می‌شود. گاهی این شایعات در حد صحبت‌های کوچک درمیان چند دوست است اما گاهی این اخبار جعلی می‌تواند وسعتی به اندازه‌ی یک شهر یا حتی یک کشور را دربر بگیرد؛ اتفاقی که می‌تواند باعث بروز مشکلات جدی در جوامع شود. 

به گزارش ایرنا گزارش‌گر سایبری و کارشناس اخبار جعلی، جو تیدی، پیرامون خطرات اطلاعات اشتباه در اوج همه‌گیری ویروس کرونا نظرات خود را این‌گونه بیان می‌کند:

«بنده تصور می‌کنم ما شاهد این هستیم که اخبار جعلی دو مشکل متمایز و واقعی ایجاد می‌کنند. اولاً این کار شیوع داستان‌های ساختگی و فریب‌دادن افراد را به همراه دارد. پیش از بیماری کرونا این مشکل جدی بود اما در دنیای کووید و پسا کووید می‌تواند مهلک باشد. هنگامی‌که یک وبلاگ یا وب سایت‌شخصی تأثیرگذار بنویسد که «فلان فرد می‌تواند شما را از ویروس کرونا نجات دهد» موضوع خطرناک می‌شود. مردم به دلیل اخبار جعلی پیرامون این بیماری همه‌گیر، می‌توانند تصمیمات وحشتناک و مهلکی بگیرند.

ثانیاً، اخبار جعلی اعتماد به منابع معمولی مطمئن را از بین می‌برد. بنده تصور می‌کنم گزارش اخیر دولت (ایلات متحده) پیرامون دخالت روسیه در انتخابات، آن را صریحاً بیان می‌ کند؛ هنگامی‌که مردم شروع به گفتن «نمی ‌دانید چه چیزی را باور کنید» یا «همه‌ی آن‌ها به بدی یکدیگر هستند»، دروغ‌ گوها برنده می‌شوند.

بنده شاهد این موضوع در زندگی روزمره‌ام با دوستان و خانواده‌ام هستم که می‌گویند آن‌ها کاملاً با رویدادهای جهانی گیج شده‌اند. من مشاهده می کنم که مردم به دیدگاه‌ها و نظرات مسلم و محکم خود باز می‌گردند. این دیدگاه‌ها اغلب توسط به اصطلاح حباب‌های فیلتر در رسانه‌های اجتماعی تقویت خواهند شد.»

اخبار جعلی می‌توانند خطرناک باشند و زندگی ما را تحت تأثیر خود قرار دهند اما راه‌هایی هم وجود دارد که به آن‌سوی اخبار جعلی بروید و صحت آن‌ها را بررسی کنید. در ادامه بخ برخی از این‌راه‌ها اشاره خواهیم کرد اما قبل از آن، در مورد تأثیرات شبکه‌های اجتماعی و حباب فیلتری حاصل از الگوریتم‌های آن‌ها در مقاله‌های قبلی صحبت کرده‌ایم؛ پیشنهاد می‌کنم مجدداً به آن مقاله‌ها مراجعه کنید.

 

  • آنسوی اخبار جعلی

اگر چیزی بهتر از آن به نظر برسد که حقیقت داشته باشد، بررسی را آغاز کنید. دریابید که چگونه یک ویدیو می‌تواند از مقدار اندکی حقیقت برای ایجاد داستانی دروغین استفاده کند. خوشبختانه منابع فراوانی برای آگاهی ما و کمک به مبارزه با اخبار جعلی وجود دارد. شاید ساده‌ترین آن بررسی اولیه‌ی خبر از منابع رسمی و یا وب سایت‌های طراحی شده برای این موضوع باشد.

همچنین برخی از خدمات رایگان بسیار خوبی در سطح جهانی وجود دارد واقعاً سودمند هستند مانند First Draft که روزانه مسائل بزرگی پیرامون داستان‌ها و رویه‌های اخبار جعلی را ارسال می‌کند. این امر به خصوص از زمان بیماری همه‌گیر و «اینفودمی» (شیوع اطلاعات دروغ) بعدی آن سودمند است.

نقش ما به عنوان خبرنگار، در رابطه با سواد رسانه‌ای کاملا با مأموریت ما جهت «اطلاع رسانی و آموزش» سازگاری دارد و این هدفی است که کم اهمیت‌تر از سایر اهداف خبرنگاری نیست. حتی اگر به عنوان خبرنگار هم فعالیت ندارید بازهم فعالیت در راستای یواد رسانه می‌تواند به عنوان یک وظیفه‌ی شهروندی مهم تلقی شود.

هنگامی‌که یک حساب اینستاگرام می‌تواند بیشتر از سایت‌های خبری رسمی مورد روجع و دارای نفوذ باشد، بر ما واجب است که به آنجا برویم و جهت کمک به مردم تلاش کنیم تا در آب‌های متلاطمی از اطلاعات که در حال حاضر در آن هستیم، حرکت کنند.

 

  • ارتقاء سواد رسانه‌ای

ترول‌ها می‌توانند بحث را ترسناک جلوه دهند و متوقف کنند. بیاموزید که چگونه بدون اینکه قربانی خشم ترول‌ها شوید، فعالانه کنش‌گری کنید.

ارتقاء سواد رسانه‌ای برای مخاطبان کم برخورداری که رسانه‌ی شما در آن کمتر معروف یا مورد اعتماد است، بسیار مهم باشد. این کار نه تنها هدف والایی را دنبال می‌کند و ارزش‌هایی همچون حقیقت را گسترش می‌دهد بلکه می‌تواند پیوند قوی‌تری میان شما و مخاطبان در روزنامه ‌نگاری ایجاد کند.

به اشتراک گذاشتن نکاتی پیرامون اجتناب از اطلاعات دروغ به صورت آنلاین می‌تواند بسیار سخت باشد. احتمالاً همه‌ی ما تجربه کرده‌ایم که ارسال پیوند (لینک) منبع یک خبر جعلی در گروه‌های مختلف خانوادگی و دوستی و توضیح مسئله چقدر ‌ می‌تواند سخت و طاقت‌فرسا باشد. ممکن است یک دیدار خانوادگی به خاطر بحث بر سر خوب بودن یا نبودن استفاده از یک وسیله‌ی جدید و بحث‌برانگیز به چالش و در نهایت جدال کشیده شود!

به همین دلیل بسیار خوب است که توضیح‌ دهنده‌های ویدیویی دیجیتالی کوتاهی پیرامون سواد رسانه‌ای داشته‌باشیم که بتوانیم آن‌ها را به ‌صورت آنلاین به اشتراک بگذاریم. این مدل ویدئوها بسیار کوتاه هستند و به صورت مختصر با دام‌های بالقوه‌ی رسانه‌های اجتماعی برخورد می‌کنند. تولید و انتشار چنین تولیداتی می‌تواند مردم را با تفکر انتقادی آشنا کند تا آنچه را که در ذهن خودشان درست تصور می‌کنند، زیر سؤال ببرند. گسترش تفکر انتقادی می‌تواند بسیاری از مشکلات پیرامون اخبار جعلی را حل کند. به قول معروف: «به یک نفر ماهیگیری یاد بده تا یک عمر سیرش کنی!»

 

  • آینده اخبار جعلی

چگونه چیزی را پیش از اشتراک‌ گذاری تأیید می ‌کنید؟ نحوه شناسایی و توقف اخبار جعلی را بیابید.

هنگامیکه صحبت از نحوه‌ی پیشرفت این موضوع در چند سال آینده می‌شود، سخت است که با قطعیت سخن گفت. بسیاری از منتقدان بر این باورند که اخبار جعلی و اطلاعات دروغ با پیشرفت زمان و هرچه بیشتر جا باز کردن رسانه‌های اجتماعی در میان مردم، بدتر خواهند شد. حتی این خطر وجود دارد که ارائه‌دهندگان اخبار معتبر و قابل اعتماد همچنان سهم و ارتباط خود را در بازار اطلاعات از دست بدهند؛ زیرا مخربان بر اساس سیاست‌های قطبی و همه‌گیری، دنبال کنندگان خود را ایجاد می‌کنند. درحالیکه باید از دیدگاه اخبار متنوع و پرشور و مشارکت در تولید اخبار و اطلاعات استقبال کرد، این نگرانی وجود دارد که شاهد تفرقه و اغتشاش بیشتری باشیم.

برخی افراد هم معتقدند که در طول زمان افراد کمتر مستعد پذیرش اخبار جعلی می‌شوند و نسبت به حیله‌ها و شیوه‌های به کار رفته جهت شیوع این داستان‌ها ادراک بیشتری خواهند داشت. این امیدواری وجود دارد که نسل‌های جوان‌تر، توانایی بیشتری در مشاهده عناوین و زیرسؤال بردن مسائل داشته باشند.

البته این امر بدین معنی است که شغل روزنامه‌نگاری حتی سخت‌تر هم خواهد شد چون اعتماد عمومی باید مجدد به دست آید و بازتولید شود.

اگر یک چیز را باید در میان مردم درونی کرد آن این است که رسانه‌های اجتماعی میدان مین پیچیده‌ای محسوب می‌شود که باید با دقت و تفکر آن را هدایت کرد.

فاجعه ChatGPT در گسترش اخبار جعلی

شنبه, ۵ فروردين ۱۴۰۲، ۱۲:۴۰ ب.ظ | ۰ نظر

غلامرضا فلسفی - از زمان بهره‌مندی از چت‌جی‌بی‌تی[1] تا هویدا شدن اثرات مخربِ این نرم‌افزار کاربردی هوش مصنوعی بر روزنامه‌نگاری، زمانی بسیار کوتاه لازم بود. یک ستون نویس حوزه فناوری نیویورک‌تایمز نوشت که یک چت‌بات (دستیار سایبری هوشمند) احساسات را بیان می‌کند[2] (که غیرممکن است). رسانه‌های دیگر نیز مملو از ارائه نمونه‌هایی[3] از عملکرد سیدنی[4] بودند که نتایج جست‌وجوی بینگ جدید[5] را که مبتنی بر هوش مصنوعی[6] است، سرشار از بی‌نزاکتی و قلدری بیان کرده بودند (که این هم غیرممکن است). بن تامپسون[7] مؤسس و نویسنده نشریه‌ای راهبردی که درباره وجوه تجاریِ فناوری و رِسانه همچنین تأثیر فناوری بر جامعه تحلیل ارائه می‌دهد، می‌گوید[8] که کار با سیدنی هیجان‌انگیزترین تجربه رایانه‌ای زندگی‌اش محسوب می‌شود. وی در ادامه نتیجه‌گیری کرد که هوش مصنوعی شیوه‌های برانگیختن واکنش‌های احساسی را آموخته و به نظر می‌رسد در انجام این مهم موفق هم عمل می‌کند.

سکویی که تقریرات انسانی را غیر متعهدانه و مقلدانه بازآفرینی می‌کند، عطیه‌ای به تبهکاران دیجیتالی است که از

اطلاعات نادرست عمدی منتفع می‌شوند. اکنون زمان آن است که حدودوثغورِ بهره‌مندی از این امکان مشخص شود

برای روشن‌تر شدن ابعاد موضوع ابتدا تصریح می‌شود که دارای احساسات بودن هوش مصنوعی همچون چت‌جی‌بی‌تی[9] و سیدنی تا به این لحظه امری غیرممکن است. دیگر این‌که چت‌جی‌بی‌تی و سیدنی نمی‌توانند در رابطه با معنی‌دار یا منطقی بودن تولیداتشان اعلام نظر کنند. آنچه این مدل‌ها در انجام آن بسیار عالی عمل می‌کنند عبارت از تقلید نثر انسان و پیش‌بینی کلمات صحیح در کنار یکدیگر است. این مدل‌های زبانی گسترده[10] نرم‌افزارهای کاربردی هوش مصنوعی مانند چت‌جی‌بی‌تی می‌توانند به این امر مبادرت ورزند چراکه خوراک مناسبی شامل میلیاردها مقاله و مجموعه‌هایی از داده‌های منتشرشده در اینترنت در اختیارشان قرارگرفته و بر این اساس آن‌ها قادر به پاسخگویی به انواع پرسش‌ها می‌شوند.

در چارچوب اهداف روزنامه‌نگاری، این چت‌بات‌ها می‌توانند در کم‌ترین زمان ممکن حجمی عظیم از محتوا را شامل کلمات، عکس‌ها، اصوات و فیلم‌ها بسازند؛ اما مشکل اینجاست که آن‌ها در ساخت محتوا به‌طور مطلق هیچ تعهدی به حقیقت ندارند. لحظه‌ای را تصور کنید که یک کاربر چت‌جی‌بی‌تی[11] با چه سرعتی می‌تواند اینترنت را از اخباری جعلی آکنده کند که به نظر ‌رسد توسط انسان تقریر شده است.

با عنایت بدین اوصاف از نوامبر 2022 میلادی که نسخه آزمایشی چت‌جی‌بی‌تی توسط شرکت هوش مصنوعی اُپن‌اِی‌آی[12] رونمایی شد و در اختیار عموم قرار گرفت، حواشی فراوان پیرامون این نرم‌افزار کاربردی بر اساس مشکلات بالقوه آن شکل گرفت که نگران‌کننده اما قابل پیش‌بینی بود. فضای حاکم بر این رویداد فناورانه همانند روزگار رونمایی از رسانه‌های اجتماعی با افزایش استقبال و حضور سرمایه‌گذاران و صاحبان شرکت‌ها همراه شده که به‌نوبه خود موجبات بیان مواضع صریح را فراهم کرده است. کریستوفر منینگ[13] مدیر آزمایشگاه هوش مصنوعی استنفورد در توئیتی اظهار کرد[14]: «از ابتدای سال 2023 میلادی گروه‌های اخلاق‌گرا در حوزه هوش مصنوعی درباره نمونه‌های هوش مصنوعیِ تولیدشده که برای استفاده از آن‌ها بیش‌ازحد تمایل وجود داشته و درعین‌حال غیرقابل‌اعتماد و خطرناک‌اند، به بیان موسع روایت‌هایی مشغول‌اند اما در پی طرح چنین مواضعی مردم علاقه‌مندند بدانند که این نمونه‌ها چگونه ظرفیت‌هایی جدید را برای تغییر در شیوه انجام امور، کسب اطلاعات و ایجاد سرگرمی برایشان فراهم می‌کنند.» من که خود عضوی از این جماعت اخلاق مدار محسوب می‌شوم تصریح می‌کنم که اگر می‌خواهیم از خطاهای وحشتناک 30 سال گذشته در حوزه فناوریِ مصرفی احتراز کنیم –از افشای اطلاعات کاربران فیس‌بوک و نشر اطلاعات نادرست غیرعمدی[15] که مخل در انتخابات است گرفته تا تحریک و دامن زدن به نسل‌کشی- بدون فوت وقت به استماع دغدغه‌ها و نگرانی‌های کارشناسان در مورد آسیب‌های احتمالی این فناوری نیازمندیم.

نگران‌کننده‌ترین واقعیتی که به‌طور مرتب باید تکرار و یادآوری شود آن است که چت‌جی‌بی‌تی هیچ تقیدی به حقیقت ندارد. همان‌طور که در بخش بررسی فناوری ام‌آی‌تی آمده[16] چت‌بات‌های مدل زبانی گسترده، یاوه‌گویانی بدنام محسوب می‌شوند. بدیهی است که اطلاعات نادرست عمدی[17]، شیادی و جنایت نیاز به التزام به حقیقت ندارد. اگر از اتاق‌های گفت‌وگوی تارنمای Black Hat World که در حوزه تجارت غیرقانونی فعال بوده و ایده‌هایی برای کسب انتفاع از محتوای جعلی در آن ارائه می‌شود، بازدید کنید؛ می‌بینید که چت‌جی‌بی‌تی در مقام برگی برنده برای ساختن دیدگاه‌های باورپذیرترِ جعلی و همچنین نظرات و نمایه‌های متقاعدکننده معرفی می‌شود.

اگر به موضوع چت‌بات‌های مدل زبانی گسترده از منظر روزنامه‌نگاری نیز توجه شود باید گفت چند صباحی است که بسیاری از اتاق‌های خبر از هوش مصنوعی بهره می‌برند. اگر به‌تازگی دریافته‌اید که برای کمک مالی به یک تارنما یا پرداخت هزینه خواندن یک مقاله به صفحه مالک تارنما هدایت‌شده‌اید یا اگر به هنگام وبگردی با تبلیغاتی تجاری مواجه می‌شوید که بیش‌ازپیش به ذائقه و سلیقه‌تان نزدیک است، می‌توانید نسبت به وجود رد و نشان هوش مصنوعی در آن گمانه‌زنی کنید.

امروزه برخی ناشران و مدیران رسانه تا مرحله‌ای که از هوش مصنوعی برای نوشتن گزارش استفاده ‌کنند پیش رفته‌اند که البته نتایجی متفاوت در پی داشته است. به‌طور مثال کاشف به‌عمل‌آمده که نشریه Cnet که در حوزه تجارت فناوری فعال است، با استفاده از مقالاتی که از سوی نرم‌افزارهای کاربردی تقریر می‌شده، انتشار می‌یافت. این امر زمانی افشا شد که یکی از کارکنان سابق این نشریه در استعفانامه الکترونیکی خود[18] مدعی شد محتوای ساخته‌شده توسط هوش مصنوعیِ این نشریه‌ با انتشار اطلاعاتی غلط همچون یک خبرنامه سایبریِ امنیتی، می‌تواند به‌طور مستقیم به خوانندگانش خسران وارد کند.

فلیکس سایمون[19] پژوهشگر ارتباطات در موسسه اینترنت آکسفورد درباره آینده هوش مصنوعی در اتاق‌های خبر، با بیش از 150 روزنامه‌نگار و صاحبان مؤسسات خبری مصاحبه کرد. او می‌گوید هوش مصنوعی ظرفیت لازم را دارد که نگارش مصاحبه‌ها یا خواندن سریع مجموع اطلاعات جمع‌آوری‌شده را برای روزنامه‌نگاران بسیار تسهیل کند اما مشکلات ریشه‌دار پیشین مانند بررسی صحت، بی‌طرفی و آگاهی از منبع داده‌ها همچنان به‌شدت به قضاوت انسانی وابسته است. چارلی بکت[20] که مدیر یک برنامه مرتبط با روزنامه‌نگاری و هوش مصنوعی در مدرسه علوم اقتصادی و سیاسی لندن است می‌گوید: حدود %90 بهره‌مندی از هوش مصنوعی در روزنامه‌نگاری در قالب کارهایی چون شخصی‌سازی تجمیع اخبار یا ایجاد دیوارهای پرداخت هوشمند برای مطالعه کاربران که اموری به نسبت ملال‌آور محسوب می‌شوند، به کار گرفته می‌شود. وی می‌افزاید که بلومبرگ سال‌هاست قسمت‌هایی فراوان از جمع‌بندی پوشش اخبار مالی خود را با این امکان به‌طور خودکار انجام می‌دهد. بااین‌حال ایده استفاده از برنامه‌هایی چون چت‌جی‌بی‌تی برای ساختن محتوا بسیار نگران‌کننده است. بکت اظهار می‌کند: برای اتاق‌های خبری که انتشار اخبار دروغ را غیراخلاقی می‌دانند، پیاده‌سازی طرح استفاده از چت‌جی‌بی‌تی بدون بهره‌مندی از ویراستاری انسانی و راستی آزمایی محتوا امری به‌غایت دشوار است.

فارغ از مشکلات مبتلابه نرم‌افزارهایِ کاربردی هوش مصنوعی، موضوعات اخلاقی همواره ماهیت عملکرد شرکت‌های فناوری را تحت تأثیر خود قرار داده است. افشاگری تایم[21] نشان داد شرکت اَپن‌اِی‌آی که شرکت پشتیبان چت‌جی‌بی‌تی است، به کارگرانی کنیایی کمتر از دو دلار در ساعت دستمزد می‌داد تا محتواهایی مانند کودک‌آزاری، خودکشی، زنای با محارم و شکنجه را که جزو محتوای مضر گرافیکی می‌دانسته، شناسایی کنند تا بتواند به چت‌جی‌بی‌تی آموزش دهد که این قبیل محتواها را موهن بداند. سایمون در این رابطه می‌گوید: در مقام فردی که از خدمات چت‌جی‌بی‌تی استفاده می‌کند تصریح می‌کنم که شرکت مذکور در رابطه با این قبیل محتواها، کنترلی روی نرم‌افزار کاربردیِ هوش مصنوعی خود ندارد.

طی مطالعه‌ای[22] در سال 2021 میلادی دانشگاهیان توجه خود را به مدل‌هایی از هوش مصنوعی مانند DALL-E[23] و Stable Diffusion[24] که نوشته را به‌عکس بدل می‌کنند، معطوف کردند. آن‌ها دریافتند که این سامانه‌ها «کلیشه‌های جمعیت‌شناختی» را در مقیاس بزرگ بازتولید کرده، تعمیم می‌دهند. به‌طور مثال وقتی از آنان خواسته شد تصویری از «شخصی که در حال نظافت است» تولید کنند، تمام عکس‌های ساخته‌شده ناظر به زنان بود. پژوهشگران همچنین اظهار کردند که وقتی از سامانه‌ها، تولید عکسِ یک فرد جذاب خواسته شد؛ همه چهره‌های بازتولید شده، نمایشگر و ناظر به «سفیدپوست ایدئال» بود.

مردیت بروسارد[25] استاد دانشگاه نیویورک که تحقیقاتش بر نقش هوش مصنوعی در روزنامه‌نگاری متمرکز است، کتابی با عنوان «بیش از یک خطای اتفاقی» به رشته تحریر درآورده که در مارس 2023 میلادی منتشر شد. وی در کتاب مذکور به راه‌های مقابله با مواردی چون تبعیض نژادی و تعصب جنسیتی و شایستگی در فناوری پرداخته است. بروسارد می‌گوید همه آن چیزی که تشکیل‌دهنده مدل‌های مولد کنونی مانند چت‌جی‌بی‌تی محسوب می‌شوند – از مجموعه داده‌ها تا منابع و سرمایه – همه و همه بازتاب‌دهنده عدم تنوع است. بروسارد می‌افزاید که این مسئله برگرفته از تک فرهنگی بودن ابر شرکت‌های فناوری است، بدین معنی که قریب به‌اتفاق محصولات فناورانه از تولیدات این ابر شرکت‌ها محسوب می‌شوند؛ لذا اتاق‌های خبر با تمسک به فناوری نمی‌توانند به‌راحتی از آن حذر کنند. امروزه اتاق‌های خبر در خدمت سرمایه‌گذاری‌های فناورانه از سوی ‌چنین شرکت‌هایی قرار دارند چراکه رسانه هیچ‌گاه سرمایه مالی مکفی برای رشد مستقل نداشته است.

در روزهای آغازین سال 2023 میلادی جونا پرتی[26] بنیان‌گذار و مدیرعامل بازفید[27] یادداشتی برای کارکنانش ارسال و اعلام کرد که مشتاقانه قصد دارد برای ارتقاء کار و کسب بازفید از چت‌جی‌بی‌تی استفاده کند. او در بخشی از یادداشت خود[28] نوشت: ما پیشرفت‌هایی را در حوزه هوش مصنوعی شاهدیم که دروازه عصری جدید از خلاقیت را با فرصت‌ها و برنامه‌های نامحدود برای همیشه به روی ما و دیگر رسانه‌های دیجیتال می‌گشاید. او در ادامه ‌اظهار کرد که محتوای الهام گرفته از هوش مصنوعی بازفید سال 2023 راه‌اندازی می‌شود تا فهرست‌ها، تجربه آزمونک‌ها و سایر محتواهای سرگرم‌کننده را تقویت، طوفان فکری ما را اطلاع‌رسانی و محتواهای ما را برای کاربران شخصی‌سازی ‌کند. این یادداشت باعث شد بلافاصله ارزش سهام خاموش این شرکت رسانه‌ای، خبری و اینترنتی در معاملات %150 افزایش‌یافته و به بیش از دو دلار به ازای هر سهم برسد. اتخاذ چنین راهبردی بسیار نگران‌کننده است چراکه این امر به‌طورقطع و یقین به ساخت و انتشار انبوهی از محتوای نازل از سوی این نرم‌افزار کاربردی هوش مصنوعی می‌انجامد. این قبیل روایت‌های نظام‌مندِ جدید، نه یک مدل کار و کسب آرمانی بلکه باید بدترین نوع برنامه‌ریزی آینده‌نگرانانه از سوی شرکت‌های رسانه‌ای تلقی شود. البته این میزان ذوق‌مندی نسبت به تولیدات هوش مصنوعیِ مولد می‌تواند این رویکرد مثبتِ فراگیر را دچار تزلزل کند، مبنی بر این‌که ممکن است این نرم‌افزارهای کاربردی، خیلی هم خوب و کارآمد از آب درنیایند.

ما در مرکز تحقیقاتی خود در دانشکده روزنامه‌نگاری دانشگاه کلمبیا درباره تلاش‌های انجام‌شده جهت تأمین منابع مالی شبکه‌های پول سیاه از طریق بودجه‌های سیاسی مطالعه می‌کنیم؛ شبکه‌هایی که صدها هزار روایت از اخبار محلی جوامع را جهت منافع سیاسی و تجاری هدف می‌گیرند و از تاکتیک (راهکنش) تکرارشونده بهره می‌برند. مطالعات مرکزمان نشان می‌دهد قابلیت‌های چت‌جی‌بی‌تی، این قسم خبرسازی‌ها را افزایش داده، آن را بسیار آسان‌تر و در اختیار مخاطبانی زیادتر قرار می‌دهد. همچنین در مقاله منتشرشده[29] طی سپتامبر 2022 میلادی درباره اطلاعات نادرست عمدی و هوش مصنوعی گفته‌شده پژوهشگران دانشگاه استنفورد شبکه‌ای از نمایه‌های جعلی را با استفاده از هوش مصنوعی مولد در لینکدین شناسایی کرده‌اند. البته به نظر می‌رسد ردوبدل کردن متن گمراه‌کننده‌ با چت‌بات‌ها که روزنامه‌نگاران آن را بسیار وسوسه‌انگیز می‌دانند در مقایسه با گفت‌وگو با کاربرانی آسیب‌پذیر که اطلاعات شخصی و جزئیات حساب بانکی خود را اعلان می‌کنند، از جذابیتی کمتر برخوردار است!

درباره ظرفیت فیلم‌ها و اصوات دیپ‌فیک – به ساخت تصاویر و اصوات واقع‌گرایانه بر پایه هوش مصنوعی گفته می‌شود که چهره‌ها و صداهای افراد به‌خصوص افراد مشهور جعل می‌شود. از مشهورترین نمونه‌های متأخر ساختن صدای جعلی «اما واتسون» در حال خواندن بخشی از کتاب نبرد منِ هیتلر است – مطالبی بسیار به رشته تحریر درآمده[30] اما با رونمایی از مدل‌های مولد کنونی به نظر می‌رسد خطر واقعی نمونه‌هایی مانند چت‌جی‌بی‌تی محسوب می‌شوند که مرزهای دنیای فریب آنی مانند جعل عمیق را درنوردیده‌اند چراکه در مقایسه با این نرم‌افزار کاربردی افراد را به‌راحتی می‌توان نسبت به خطرات جعل ژرف آگاه کرد. چت‌جی‌بی‌تی با ساختن و انتشار کثیری از جعلیات به راه انداختن طوفان در فضای سایبری مبادرت ورزیده ضمن ایجاد سردرگمی و فرسوده کردن کاربران، حقیقت را در طوفان جعلیات پایمال کرده یا جنبه‌های فکری میانه و متعادل را به حاشیه می‌برد.

برای برخی چون من که از دریچه اخلاق به فناوری می‌نگریم باورنکردنی است که از روند 20 سال گذشته و شیوه بسیار ضعیف مدیریت و نظارت بر فناوری‌های رسانه‌های اجتماعی آن‌هم در دو دهه‌ای که این رسانه‌ها به‌سرعت در حال گسترش بودند درس نگرفتیم و کاهلی در این امر سبب شد به‌جای بهبود شرایط، تشدید مشکلات اجتماعی و دموکراتیک را به نظاره بنشینیم. به نظر می‌رسد تاریخ در حال تکرار است و ما همچون دو دهه قبل توسط گروه‌هایی مشابه متشکل از شرکت‌های همسو و متمول حوزه فناوری همچنین صندوق‌هایی مالی در زمینه سرمایه‌گذاری در تولیداتی با ریسک بالا به سمت مسیرهایی به بوته آزمون سپرده نشده و فاقد مقررات رهنمون می‌شویم، با این تفاوت که این بار خطر بزرگ‌تر و توجه به امنیت کاربران کمتر از گذشته است. (منبع:شفقنا)

 

*این نوشتار ترجمه آزاد مقاله‌ای با عنوان A fake news frenzy: why ChatGPT could be disastrous for truth in journalism نوشته امیلی بل استاد دانشکده تحصیلات تکمیلی روزنامه‌نگاریِ دانشگاه کلمبیا و مدیر the Tow Center for Digital Journalism دانشگاه مذکور در نیویورک است که 3 مارس 2023 در تارنمای گاردین منتشر شد

 

[1] Chat Generative Pre-trained Transformers (ChatGPT)

[2] www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html

[3] www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy-employees-webcams

[4]  Sydney اسم رمز پروژه موتور جست‌وجوی جدید مایکروسافت

[5] The New Bing

[6] Artificial intelligence (AI)

[7] Ben Thompson

[8] https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai

[9] www.theguardian.com/technology/chatgpt

[10] LLMs

[11] www.theguardian.com/technology/chatgpt

[12] https://openai.com

[13] Christopher Manning

[14] https://twitter.com/chrmanning/status/1625178544010838019?s=20&t=IPLveAStaG6PI0B_EgYGFA

[15] Misinformation

[16] www.technologyreview.com/2023/02/14/1068498/why-you-shouldnt-trust-ai-search-engines

[17] Disinformation

[18] www.theverge.com/2023/1/19/23562966/cnet-ai-written-stories-red-ventures-seo-marketing

[19] Felix Simon

[20] Charlie Beckett

[21] https://time.com/6247678/openai-chatgpt-kenya-workers

[22] https://arxiv.org/pdf/2211.03759.pdf

[23] https://openai.com/research/dall-e

[24] https://stablediffusionweb.com

[25] Meredith Broussard

[26] Jonah Peretti

[27] www.buzzfeed.com

[28] www.wsj.com/articles/buzzfeed-to-use-chatgpt-creator-openai-to-help-create-some-of-its-content-11674752660

[29] https://misinforeview.hks.harvard.edu/article/research-note-this-salesperson-does-not-exist-how-tactics-from-political-influence-operations-on-social-media-are-deployed-for-commercial-lead-generation

[30] https://vrgl.ir/ZJIDI

«اخبار جعلی»؛ سلاح جدید ارتش آمریکا

چهارشنبه, ۱۲ بهمن ۱۴۰۱، ۰۱:۲۹ ب.ظ | ۰ نظر

آسیه فروردین – برخی رسانه‌های غربی مانند واشنگتن‌پست و بی‌بی‌سی، اخیرا فاش کردند وزارت دفاع ایالات متحده (DOD) با پلتفرم‌های شبکه‌های اجتماعی مانند فیس‌بوک و توییتر، توافق‌نامه‌های محرمانه امضا کرده است

به گفته کارشناسان، ژاپن از هوش مصنوعی برای دفاع در برابر اخبار جعلی استفاده می‌کند.
به گزارش سایبربان؛ ژاپن قصد دارد استفاده از هوش مصنوعی را برای تجزیه و تحلیل کمپین‌های اطلاعات نادرست خارجی آغاز و واکنش خود را به انتشار اخبار جعلی در رسانه‌های اجتماعی تقویت کند.

کمپین‌های اطلاعات غلط، بخشی از چیزی است که جنگ شناختی نامیده می‌شود و شامل دستکاری افکار عمومی و ایجاد مخالفت از طریق رسانه‌های اجتماعی و کانال‌های دیگر است. این حوزه با توجه به دامنه بالقوه آن، به طور فزاینده‌ای ششمین حوزه درگیری پس از زمین، دریا، هوا، فضا و قلمرو سایبری در نظر گرفته می‌شود.

کارشناسان معتقدند که ژاپن در حال حاضر برای مبارزه با این کمپین‌های اطلاعات غلط مجهز نیست و یک آژانس اختصاصی برای نظارت بر اخبار جعلی خارج از کشور یا قوانینی که مداخله در انتخابات را مجازات می‌کند، ندارد.

وزارت امور خارجه ژاپن یک سیستم مبتنی بر هوش مصنوعی را در سال مالی 2023 راه‌اندازی خواهد کرد تا اطلاعات جعلی را در رسانه‌های اجتماعی و سایر پلتفرم‌ها جمع‌آوری و تجزیه و تحلیل کند و به آن اجازه می‌دهد تا چگونگی تلاش عوامل خارجی برای تأثیرگذاری بر افکار عمومی در میان مدت تا بلندمدت را ردیابی کند.

این چارچوب نه تنها اطلاعاتی را که برای مخاطبان ژاپنی طراحی شده، پوشش می‌دهد، بلکه اطلاعاتی را نیز با هدف آسیب رساندن به برداشت‌های خارجی از ژاپن پوشش می‌دهد.

کارشناسان بخش خصوصی برای شناسایی منظم اخبار جعلی در رسانه‌های اجتماعی در سال مالی 2023 استخدام می‌شوند.

نیروی پدافند (SDF) زمینی شخصی نیز ظرف یک دهه یک واحد اطلاعاتی اختصاصی ایجاد خواهد کرد. نیروی پدافند دریایی واحدی را با قابلیت‌های سایبری و ارتباطات ترکیبی راه‌اندازی خواهد کرد.

کارشناسان ادعا کردند که جنگ شناختی به عنوان یک نگرانی جهانی با دخالت روسیه در انتخابات ریاست جمهوری 2016 ایالات متحده ظاهر شد. گمان می‌رود که مقاله‌های خبری جعلی درباره هیلاری رادهام کلینتون، نامزد دموکرات، که از طریق رسانه‌های اجتماعی منتشر شده، به تغییر رقابت به نفع رقیب او، دونالد ترامپ، کمک کرده است.

بنابه گفته محققان، اطلاعات غلط در جنگ اوکراین نیز نقش داشته است؛ گزارش‌های جعلی درباره فرار ولودیمیر زلنسکی، رئیس‌جمهور اوکراین از کیِف، بلافاصله پس از حمله روسیه و اوکراین در شبکه‌های اجتماعی منتشر شد. تحریم‌های غرب به دلیل افزایش جهانی قیمت مواد غذایی و جلب حمایت روسیه از سوی برخی کشورهای در حال توسعه مقصر شناخته شدند.

کارشناسان اعلام کردند که در پاسخ به اقدامات اخیر چین و روسیه، راهبرد امنیت ملی ژاپن که در ماه دسامبر گذشته تصویب شد، شامل طرح‌هایی برای تقویت توانایی این کشور در پاسخ به جنگ در حوزه شناختی، از جمله انتشار اطلاعات نادرست است.

چندین کشور در حال حاضر مکانیسم‌هایی برای پاسخ به جنگ شناختی دارند. در ایالات متحده، آژانس امنیت سایبری و امنیت زیرساخت وظیفه نظارت و هشدار به مردم در مورد اطلاعات نادرست را بر عهده دارد. ترامپ در سپتامبر 2018 فرمان اجرایی امضا کرد تا عوامل خارجی دخیل در انتخابات آمریکا، از جمله با مسدود کردن دارایی‌هایشان در ایالات متحده، را تحریم کند.

بریتانیا شبکه‌های اجتماعی را 24 ساعته رصد می‌کند. در حالیکه این کشور مجازات‌های رسمی برای مداخله در انتخابات ندارد، یک کمیته ویژه پارلمانی گزارشی را در سال 2019 منتشر کرد و از دولت خواست که به انتخابات گذشته رسیدگی کند.

در آسیا، سنگاپور در اکتبر 2021 قانونی را تصویب کرد که به مقامات اجازه می‌داد محتوای آنلاین را برای جلوگیری از دخالت خارجی محدود کنند.

موتوهیرو سوچیا (Motohiro Tsuchiya)، استاد و کارشناس فناوری اطلاعات در دانشگاه کیو (Keio) در توکیو، گفت : «واکنش ژاپن به اطلاعات غلط تاکنون تا حدی با ماده 21 قانون اساسی که مخفی بودن ارتباطات را تضمین می‌کند، متوقف شده است. دولت باید با فیس‌بوک و سایر اپراتورهای رسانه‌های اجتماعی برای ایجاد چارچوبی با هدف حذف اطلاعات نادرست همکاری کند.»

بازنشر خبر دروغ هم جرم است

سه شنبه, ۲۰ دی ۱۴۰۱، ۰۲:۳۵ ب.ظ | ۰ نظر

وکیل پایه یک دادگستری با اشاره بازنشر اخبار کذب در فضای مجازی گفت: بازنشر خبر کذب مصداق نشر اکاذیبی است که در صورت تشویش اذهان عمومی فرد با بازنشر یک پست و یا خبر کذب، دو عمل مجرمانه را مرتکب شده است.

حمیدرضا محمدی وکیل پایه یک دادگستری در گفت‌وگو با فارس گفت: زمانی که فرد موضوعی را مطرح می‌کند اگر به ضرر خود  باشد به آن «اقرار» و اگر به ضرر دیگری باشد به آن «ادعا» می‌گویند.

این حقوقدان بیان کرد: زمانی که فرد اقرار می‌کند کسی نمی‌تواند از او بپرسد که چرا به ضرر خود اقدام کرده است. اما  زمانی که فرد به ضرر دیگری ادعایی را مطرح می کند باید بتواند ادعای خود را اثبات کند

وی ادامه داد: اگر فرد نتواند ادعای خود را اثبات کند، این موضوع جرم نگاری شده و قانون برای آن مجازات در نظر گرفته است که مجازات آن به نوع ادعای مطرح شده بستگی دارد. به طور مثال فردی خانومی را به داشتن رابطه با یک مرد متهم میکند اگر فرد مدعی نتواند این ادعا را اثبات کند به قذف محکوم می شود.

این وکیل پایه یک دادگستری با تاکید بر اینکه اکنون هر فرد دارای اکانت در فضای مجازی دارنده یک رسانه است، گفت: اکنون با وجود فضای مجازی و صفحاتی که در آن ایجاد می‌کنند، صاحب رسانه ای می شوند و می‌توانند از چند صد تا چندین میلیون مخاطب داشته باشند.

وی در ادامه اظهار کرد: فردی که یک خانم و آقا را متهم به رابطه میکند، اگر این موضوع را در فضای مجازی مطرح کند و منجر به تشویش اذهان عمومی شود، با یک فعل دو عنصر مادی جرم را مرتکب شده است.

این حقوقدان در ادامه تشریح کرد: در این مواقع هم آن خانم و آقایی که مورد اتهام قرار گرفتن می‌توانند شکایت کنند و هم دادستانی می‌تواند اعلام کند که این خانوم همسر و یا دختر آقای فلانی است و فرد این اقدام، نشر اکاذیب به قصد تشویش اذهان عمومی کرده که مجازات آن نیز زندان است.

محمدی ادامه داد: بازنشر خبر کذب نیز مصداق نشر اکاذیب است و اگر ذهن جامعه را مشوش کند، نشر اکاذیب به قصد تشویش اذهان عمومی که مجازات آن حبس می باشد.

این وکیل پایه یک دادگستری اظهار کرد: دادستان به عنوان مدعی‌العموم باید در جایی که یک ادعا منجر به تشویش اذهان عمومی شده باید ورود کند، به طور مثال اخیراً آقای برهانی در خصوص انتخاب قاضی برای پرونده های اغتشاشات اخیر (پرونده های امنیتی) ادعاهایی را مطرح کرده که منجر به تشویش اذهان عمومی شده است. دادستان باید این ادعاها را پیگیری کند و در صورتی که فرد نتواند این ادعای خود را اثبات کند با توجه به شرایط کنونی جامعه باید به مجازات عمل خود برسد.

محمدی تصریح کرد: افراد چهره و  سرشناس جامعه که در فضای مجازی فعالیت دارند باید حدود و ثغور قانون را بدانند و آنها باید توجه داشته باشند که در صورت انتشار دروغ فرقی نمی‌کند که خود آن دروغ و یا ادعا را مطرح کرده باشند و یا آن را از صفحات و یا اشخاص دیگر بازنشر کرده باشند، ممکن است بازنشر برخی از اخبار کذب منجر به تشویش اذهان عمومی شود. در این صورت فرد منتشر کننده با بازنشر یک پست و یا یک خبر، دو فعل جرم را مرتکب شده است.

وی با اشاره به ماده ۲ قانون مجازات اسلامی خاطرنشان کرد: بر اساس این ماده قانونی هر فعل یا ترک فعل که مطابق قانون مجازات یا مستلزم اقدامات تامینی با تربیتی باشد جرم محسوب است و هیچ امری دانه می توان جرم دانست مگر آنکه به موجب قانون برای آن مجازات و یا اقدامات تامینی یا تربیتی تعیین شده باشد.

طبق اعلام وزیر دیجیتال آلمان، وی اخیرا با ایلان ماسک دیدار کرده تا انتظارات دولت این کشور از توئیتر به خصوص درباره مقابله با اخبار جعلی را شفاف سازی کند.

به گزارش خبرگزاری مهر به نقل از رویترز، «ولکر ویسینگ» وزیر دیجیتال و حمل ونقل آلمان که در آغاز ۲۰۲۳ میلادی در ایالت کالیفرنیا به سر می برد، به ماسک گفته این کشور انتظار دارد توئیتر به طور داوطلبانه از تعهدات مبارزه با اخبار جعلی پیروی کند.

همچنین ویسینگ معتقد است توئیتر باید در آینده از قانون سرویس های دیجیتال نیز پیروی کند. اعضای اتحادیه اروپا در آوریل ۲۰۲۲ میلادی درباره این قانون به توافق رسیدند و طبق آن پلتفرم های آنلاین باید اقدامات بیشتری برای نظارت بر محتوای غیرقانونی انجام دهند.

سخنگوی این وزارتخانه در بیانیه ای اعلام کرد: این ملاقات بسیار طولانی بود و ماسک به ویسینگ اطمینان خاطر داد.

همچنین به گفته وی دولت آلمان به دقت وضعیت توئیتر را تحت نظر دارد.

سخنگوی کمیسیون حقوقی و قضایی مجلس شورای اسلامی از آماده شدن طرحی مبنی بر پیگیری حقوقی اخبار کذب در فضای مجازی در این کمیسیون خبر داد.
کاظم دلخوش سخنگوی کمیسیون حقوقی و قضایی مجلس شورای اسلامی در گفت‌وگو با تسنیم، از آماده شدن طرحی مبنی بر پیگیری حقوقی اخبار کذب در فضای مجازی در این کمیسیون خبر داد.

وی گفت: امروزه فضای مجازی تبدیل به یک بستری شده است که هر شخصی در هر عنوانی و بدون اطلاع از درست بودن یا نبودن خبری آن را نشر می‌دهد یا کسانی هستند که برای اهداف خود دست به خبرسازی و شایعه‌سازی می‌زنند که باید پاسخگوی این حرکتشان باشند.

سخنگوی کمیسیون قضایی مجلس افزود: کمیسیون قضایی مجلس طرحی را تهیه و تدوین کرده است که هرکسی در فضای مجازی اخبار نادرستی را نشر دهد یا آن را بزرگنمایی کند باید پاسخگوی عملکرد خود در دادگاه باشد و این موضوع برای فرد یا رسانه‌ای تفکیک قائل نیست و همه را در بر می‌گیرد.

دلخوش تصریح کرد: این دست قوانین در همه کشورهای دنیا وجود دارد و کشور ما نیز باید از این دست قوانین وضع کند تا بتوانیم از نشر اخبار کذب در فضای مجازی جلوگیری کنیم. در حوادث اخیر هم شاهد نشر بیش از حد اخبار کذب در فضای مجازی بودیم که افرادی بدون تحقیق بر درست بودن یا نبودن خبر آن را انتشار دادند که باعث شد فضای جامعه ملتهب شود.

وی بیان داشت: در این طرح برای افراد و رسانه‌هایی که اخبار کذب منتشر یا شایعه‌سازی می‌کنند و باعث تشویش اذهان عمومی می‌شوند مجازات‌های سنگین در نظر گرفته شده است که دیگر مرتکب این عمل نشوند زیرا این درست نیست که هرکسی با خبرسازی کاذب فضای جامعه را ملتهب کند و سپس بدون پرداخت تاوان پای خود را از ماجرا بکشد بیرون.

سخنگوی کمیسیون قضایی مجلس تأکید کرد: طرح مجازات ناشران اخبار کذب در فضای مجازی در کمیسیون حقوقی و قضایی به تصویب رسیده است و به‌زودی در دستورکار صحن علنی مجلس شورای اسلامی قرار خواهد گرفت و این احتمال وجود دارد که این طرح با فوریت به صحن مجلس بیاید.

مرکز ملی فضای مجازی با استانداری سمنان تفاهم نامه همکاری در حوزه مدیریت و توسعه فضای مجازی در استان ها امضا کرد.

به گزارش مرکز ملی فضای مجازی، ابوالحسن فیروزآبادی، دبیر شورای عالی و رئیس مرکز ملی فضای مجازی، در مراسم امضای این تفاهم نامه گفت: «باید برای مقابله با اخبار جعلی و روایت های دروغ علیه کشور، نسبت به هدایت تیم های تولید محتوا به صورت منطقه ای با راهبری ملی اقدام شود.»

وی افزود: «در فضای مجازی که از خصایص آن اجتماعی و شبکه ای بودن است، ارایه روایت اول با تصویرسازی مبتنی بر نخبگی از اهمیت ویژه ای برخوردار است که باید بتوانیم با تشکیل شوراهای فضای مجازی در استان های سراسر کشور، در این حوزه اقدام کنیم.»

در ادامه این مراسم، محمدرضا هاشمی، استاندار سمنان، با اشاره به این که این استان در حوزه اقتصاد دیجیتال در رتبه دوم قرار دارد، گفت: «در استان سمنان برای ترسیم مسیر و رفع موانع برای فعالان این حوزه و پاسخگویی مسئولان و مدیران مرتبط همایشی برگزار شده و همچنین به لحاظ ایجاد زیرساخت مناسب در این استان در دولت بودجه مناسبی در نظر گرفته شده است.»

گفتنی است مرکز ملی فضای مجازی کشور در راستای همسو سازی دستگاه ها و نهادهای استان های کشور با مصوبات و تصمیمات شورای عالی فضای مجازی و تعیین اولویت های اجرایی مرتبط با فضای مجازی در هر استان نسبت به امضای دومین تفاهم نامه همکاری و مشارکت با استانداری های کشور اقدام کرده است.

پخش اطلاعات ساختگی یک استراتژی جهانی است

سه شنبه, ۸ آذر ۱۴۰۱، ۰۹:۰۴ ق.ظ | ۰ نظر

افسران ارشد سایبری، اطلاعات و سیگنال ارتش ایالات متحده، اخیرا در قالب یک نشست تخصصی، به یک سناتور آمریکایی، مشاور ارشد سایبری غیرنظامی ارتش و یکی از مدیران شرکت سایبری پیوستند تا درباره مزیت اطلاعاتی و آینده سایبری ارتش گفت‌وگو کنند.

وزیر ارشاد: مجوز بیش از ۵۰۰ سایت لغو شد

شنبه, ۲۱ آبان ۱۴۰۱، ۰۷:۱۵ ب.ظ | ۰ نظر

محمدمهدی اسماعیلی، وزیر فرهنگ و ارشاد اسلامی دولت ابراهیم رئیسی، به روزنامه اطلاعات گفته «در چند هفته اخیر بالغ بر ۵۰۰ سایت به دلایلی نظیر نشر اکاذیب و افترا به افراد حقیقی و حقوقی لغو مجوز شده‌اند.»
وزیر ارشاد به روزنامه اطلاعات گفته وزارتخانه او ۵۰۰ سایت اینترنتی را لغو مجوز کرده است.

براساس گزارش اعتمادآنلاین، محمدمهدی اسماعیلی، وزیر فرهنگ و ارشاد اسلامی دولت ابراهیم رئیسی، به روزنامه اطلاعات گفته «در چند هفته اخیر بالغ بر ۵۰۰ سایت به دلایلی نظیر نشر اکاذیب و افترا به افراد حقیقی و حقوقی لغو مجوز شده‌اند.»

او گفته «تمامی سایت‌های اینترنتی غیرفعال یا آن دسته از شبکه‌های خبری که کار خبری نمی‌کنند، مورد بازنگری قرار می‌گیرند و در صورت احراز تخلف، مجوز آن‌ها لغو خواهد شد.»

به گفته وزیر ارشاد، قرار است «کارگروه مقابله با اخبار جعلی» در وزارتخانه او تقویت شود و در جلسه هفته گذشته شورا‌ی عالی مجازی به ریاست ابراهیم رئیسی گزارش عملکرد هم داده است. وزیر این را هم گفته که قرار است آئین‌نامه این کارگروه تغییر کند و «پس از تصویب نهایی، مفاد آن به‌زودی به مردم اعلام خواهد شد.»

وزیر گفته با «شایعه‌سازان» و «منتشرکنندگان اخبار جعلی» به شدت برخورد خواهد شد. اسماعیلی ادعا کرده دلیل این شدت عمل آن است که «حریم امن کارآفرینان و صاحبان کسب‌وکار حفظ شود.»

اسماعیلی همچنین نسبت به هر گونه همکاری با رسانه‌های فارسی‌زبان خارج از کشور هشدار داده و گفته «مسلماً تعامل و همکاری با این شبکه‌های تروریستی با مجازات و محرومیت روبروست.»

طبق ماده ۶۹۸ بخش تعزیرات قانون مجازات اسلامی هر گونه گزارش یا توزیع هر گونه اوراق چاپی یا خطی با امضا با بدون امضا، به قصد اضرار به غیر یا تشویش اذعان عمومی یا مقامات رسمی، مستوجب حبس- از دو ماه تا دو سال- و یا شلاق تا ۷۴ ضربه خواهد بود.

با این حال به نظر می‌رسد این مجازات که مستلزم شکایت و نظر دادگاه است، نظر دولت را تامین نکرده و قوه اجرایی در نظر دارد بر حسب آئین‌نامه مصوب مورد نظر خود راساً و بدون نظر دادگاه اقدام به مجازات آن هم در حد لغو مجوز کند.

همچنین لغو مجوز وب‌سایت‌هایی که فعالیت ندارند، کاری است ملهم از بندی در قانون مطبوعات که مجلس پنجم تصویب کرد.

در حالی که فعالیت رسانه‌ای از حقوق شهروند‌ی است که با صدور مجوز از سوی وزارت ارشاد محدود شده، حالا این وزارتخانه دست خود را آن‌قدر باز دیده که مجوز خودش را بدون طی شدن روال قانونی و صرفاً به صلاحدید خود لغو کند.

در هفته‌های اخیر، موجی از خبر‌های تایید‌نشده علیه استارت‌آپ‌ها و شرکت‌های تولیدی و خدماتی کشور آغاز شد. اولین خبر‌ها در این زمینه را شبکه تلویزیونی ایران‌اینترنشنال که دفتر مرکزی آن در لندن مستقر است، منتشر کرد. این شبکه تلویزیونی شرکت‌های ایرانی را به همکاری با حاکمیت متهم کرد؛ از جمله ادعا کرد شرکت میهن جهت برخورد با اعتراضات، ماشین‌های حمل کالای خود را در اختیار نیروی انتظامی قرار داده و یا شرکت دیجی‌کالا «سهام حاکمیتی» دارد.

هر دو شرکت این اتهامات را رد کرده‌اند. دیجی‌کالا نقشه سهام خود را منتشر کرد و گفت هیچ نهاد دولتی یا حاکمیتی در این شرکت سهام ندارد.

در حالی که منشاء خبر، شبکه‌ای تلویزیونی در خارج از کشور بود، معلوم نیست چرا وزیر ارشاد، وب‌سایت‌های داخلی را هدف گرفته و در میان آن‌ها به وب‌سایت‌هایی گیر داده که طبق صبحت خودش اصلاً فعالیتی ندارند.

قانون ترکیه برای ناشران اخبار جعلی

شنبه, ۳۰ مهر ۱۴۰۱، ۰۳:۵۱ ب.ظ | ۰ نظر

طبق قانونی جدید در ترکیه، شبکه های اجتماعی و شرکت های فناوری باید اطلاعات کاربرانی که اخبار جعلی و محتوای غیرقانونی به اشتراک می گذارند را در اختیار مقامات قرار دهند.

به گزارش خبرگزاری مهر به نقل از رویترز، به گفته کارشناسان احتمال کمی وجود دارد شبکه‌های اجتماعی کاملاً از قانون جدید ترکیه برای حذف اخبار جعلی و اشتراک گذاری داده‌های کاربران با دولت پیروی کنند. به این ترتیب احتمال دارد قبل از برگزاری انتخابات ریاست جمهوری این کشور در ۲۰۲۳ میلادی اختلالاتی در شبکه‌ها ایجاد شود.

طبق قانون ترکیه که از هفته قبل اجرایی شد، در صورتیکه کاربران محتوایی پست کنند که حاوی جرایم از جمله اطلاعات گمراه کننده باشد، باید اطلاعات آنها با مقامات به اشتراک گذاشته شود.

همچنین شبکه‌های اجتماعی ملزم می‌شوند نمایندگانی در ترکیه تعیین کنند. علاوه بر آن اگر دادگاهی به این نتیجه برسد که نماینده شرکت نتوانسته اطلاعات مورد نیاز را در اختیار مقامات قرار دهد، مؤسسه مذکور با کاهش ۹۰ درصد پهنای باند روبرو خواهد شد.

طبق این قانون، اگر شرکت‌ها محتوای غیرقانونی را ظرف ۴ ساعت حذف نکنند، به طور مستقیم مسئولیت محتوای غیرقانونی و تگ ها را برعهده خواهند داشت.

فیس بوک، توئیتر، گوگل و دیگر شرکت‌های فناوری ملزم شده اند تا آوریل به طور کامل از قانون جدید ترکیه پیروی کنند یا با ممنوعیت تبلیغات آنلاین و به تدریج قطع سرویس تا کاهش پهنای باند روبرو می‌شوند. انتخابات ریاست جمهوری ترکیه در ماه ژوئن ۲۰۲۳ برگزار می‌شود.

تحلیلگران و مشاوران معتقدند این شرکت‌ها استانداردهای حریم خصوصی جهانی اجرا می‌کنند و احتمال اندکی درباره نقض آنها در ترکیه وجود دارد. زیرا ممکن است با نقض آن در ترکیه مبنایی برای کنترل بیشتر بر شبکه‌های اجتماعی در کشورهای دیگر به وجود بیاید.

سینان اولگون یکی از بنیانگذاران شرکت «استانبول اکونومیکز» در این باره می‌گوید: احتمال کمی وجود دارد برخی از شرکت‌ها از این قانون پیروی کنند. زیرا قانون جدید ترکیه هنجارهای آنها درباره حریم خصوصی را هدف گرفته است.

نماینده مردم نهاوند در مجلس شورای اسلامی گفت: با توجه به اینکه در طرح صیانت هدف اصلی ساماندهی فضای مجازی است در این طرح موارد و شیوه‌های قانونی برخورد با شایعه‌سازان و کسانی که اقدام به اکاذیب می‌کنند تعیین تکلیف می‌شود.
علیرضا شهبازی، نماینده مردم نهاوند در مجلس در گفت‌وگو با فارس اظهار کرد: ما برای برخورد با افرادی که بدون سند اقدام به شایعه و یا نشر اکاذیب نمایند قانون مشخص داریم که در صورت نیاز می‌توان از آن استفاده کرده و آن را اجرایی کرد.

وی در پاسخ به اینکه راهکار قانونی برخورد با جرایم فضای مجازی و افرادی که در این فضا اقدام به نشر اکاذیب چگونه است افزود: با توجه به اینکه در طرح صیانت هدف اصلی ساماندهی فضای مجازی است در این طرح موارد و شیوه‌های قانونی برخورد با شایعه‌سازان و کسانی که اقدام به اکاذیب می‌کنند تعیین تکلیف می‌شود.

نماینده مردم نهاوند در مجلس شورای اسلامی گفت: در حال حاضر طرح صیانت فضای مجازی به منظور جلوگیری از وقوع جرایم مجازی در کمیسیون مربوطه در حال بررسی است که لازم است همه موارد و ابعاد قانونی در آن دیده شود.

قانون برخورد با شایعه‌پراکنی در فضای مجازی به زودی مصوب می‌شود
نماینده مردم شوش در مجلس گفت: راهکار مقابله با اخبار دروغ در شبکه‌های اجتماعی مشخص و مجلس ظرف روزهای آینده قانونی را برای این منظور مصوب می‌کند.

محمد کعب عمیر نماینده مردم شوش در مجلس شورای اسلامی در گفت‌وگو با فارس در رابطه با اهمیت تصویب قانونی به منظور برخورد با افرادی که با شایعه‌پراکنی افکار عمومی  را متشنج می‌کنند، اظهار کرد: لزوم تصویب قانونی برای  برخورد با دروغ و شایعه‌پراکنی در شبکه‌های اجتماعی در جلسه غیر علنی مجلس مطرح شده است.

وی با بیان اینکه راهکار مقابله با اخبار دروغ و غلط پیدا شده است، افزود: قطعاً در روزهای آینده قوه مقننه راه حل و یا قانونی برای این موضوعات تصویب خواهد کرد.

نماینده مردم شوش در مجلس شورای اسلامی گفت: اینگونه نیست که این موضوعات برای ما اهمیتی نداشته باشد، ظرف روزهای آینده‌های موارد مورد بررسی به صورت قانون مصوب و به دولت ابلاغ می‌شود.

کعب عمیر با بیان اینکه رسانه‌های معاند از شرایط اخیر سوءاستفاده کرده و مطالبات مردم رو بهانه کردند تا به اهداف خود برسند، عنوان کرد: هدف سناریوی طراحی شده براندازی نظام و مقابله با اعتقادات مردم است.

وی با طرح این سوال مبنی بر اینکه چرا زمانی که شرایط مشابه کشور ما در کشورهای دیگر اتفاق بیفتاد هیچ کدام از رسانه‌های خارجی به مسائل داخلی آن کشورها دامن نمی‌زنند، بیان کرد: در آمریکا و سایر کشورهای غربی صدها نفر را به عناوین مختلف کشته می‌شوند چرا رسانه‌های بین المللی و رسانه‌های معاند به آن‌ها نمی‌پردازند؟

کعب عمیر با تاکید بر اینکه نظام جمهوری اسلامی با اقتدار ایستاده است، گفت: پروژه‌ براندازی نظام در برهه‌های مختلف اجرا شده اما دشمنان تا کنون راه به جایی نبرده و نمی‌برند.

مرکز پژوهش های مجلس شورای اسلامی در گزارشی ابعاد مسئله اطلاعات، اخبار و محتوای خلاف واقع در فضای مجازی را بررسی و بر نیاز جدی نسبت به ورود مجلس از باب تقنین در این زمینه تأکید کرد.

به گزارش خبرگزاری مهر، گزارشی با عنوان بررسی ابعاد مسئله اطلاعات، اخبار و محتوای خلاف واقع در فضای مجازی و ارائه پیش‌نویس قانونی در مرکز پژوهش های مجلس منتشر شده است که خلاصه آن به شرح زیر است؛

پس از ابتکار شورای عالی فضای مجازی در تصویب «الزامات پیشگیری و مقابله با نشر اطلاعات، اخبار و محتوای خبری خلاف واقع در فضای مجازی» مورخ ۱۶ دی ماه ۱۳۹۹ با وجود مفاد قانونی که قبلاً در خصوص نشر اکاذیب به تصویب رسیده بود، نیاز جدی نسبت به ورود مجلس از باب تقنین در این زمینه احساس می شود، با وجود قوانین فعلی، چالش های جدی برای پیشگیری و مقابله با محتوای خلاف واقع وجود دارد، ازجمله اینکه، رسیدگی به مطالب خلاف واقع منوط به شکایت شاکی خصوصی است.

ضمانت اجراها از کفایت لازم برخوردار نیستند و به دلیل عدم توجه به ابعاد پیام های توده شده و ابزارهای ارتباطی جدید و هنجارهای ارتباطی زیست بوم ارتباطی، بازدارندگی نخواهند داشت. در قوانین فعلی نسبت به روش های پیشگیرانه قبل از تولید و نشر اطلاعات (Proactive) و بعد از آن (Reactive) خلأ وجود دارد و نسبت به مسئولیت سکوی نشر، درگاه نشر، تولیدکننده محتوا، نشردهنده محتوا و بازنشردهنده آن تفکیکی وجود ندارد.

به همین دلیل امکان تعیین و تصریح مسئولیت ذی نفعان مختلف در زیست بوم فضای مجازی در رابطه با محتوای خلاف واقع وجود ندارد. از این رو با ابتنا بر محورهای زیر پیش نویس «طرح پیشگیری و مقابله با انتشار اطلاعات، اخبار و محتوای خلاف واقع در فضای مجازی» تهیه و در پیوست گزارش حاضر ارائه شده است:

۱. رویکرد جامع نسبت به انواع محتوای خلاف واقع

۲. تفکیک مسئولیت های نهاد تنظیم گر، سکوی نشر، درگاه نشر و کاربران فضای مجازی

۳. آگاهی بخشی به موازات جرم انگاری در موارد ضروری

۴. خودتنظیم گری و استفاده از خرد جمعی و ظرفیت عمومی کاربران در امتداد نهادهای حاکمیتی و دستگاه های اجرایی به مثابه تنظیم گران بخشی

۵. تفکیک شئون قانونگذاری و تنظیم گری

۶. تکمیل کننده قوانین پیشین در حوزه محتوای خلاف واقع

فصل اول این پیشنویس با عنوان کلیات واژگان و اصطلاحات به کار رفته در طرح را با ابتنا بر مصوبات شورای عالی فضای مجازی تعریف نموده است. فصل دوم با عنوان وظایف دستگاههای اجرایی به کارگیری فناوری های بهروز در جهت اقدامات پیشگیرانه و ثبت درخواست ها و استعلام از دستگاههای مسئول پاسخگویی را پیشبینی کرده است. فصل سوم به مسئولیت سکوها و درگاههای نشر اختصاص یافته است.

این فصل درگاه های نشر یک سویه و چند سویه را تفکیک کرده، چراکه مطالعه و بررسی های پیرامون نشر اخبار خلاف واقع در فضای مجازی نشان می دهد، انتشار گسترده محتوای خلاف واقع عمدتاً از مسیر درگاه های یک سویه اتفاق می افتد.

یعنی درگاه هایی که ماهیت «خبرگزاری و رسانه ای» دارند و صاحبان این درگاه ها نسبت به انتشار محتوا در آن مسئولیت خواهند داشت. صفحات شخصی کاربرانی که دنبال کنندگان زیادی دارند یا کانال هایی که نشر محتوا در آنها توسط یک یا چند نفر مدیریت می شود از انواع درگاه های یک سویه هستند.

از این رو تعریف درگاه های یک سویه و مسئولیت ویژه صاحبان درگاه های نشر یک سویه به عنوان موجودیت هایی مهم و اثرگذار در مسئلة محتوای خلاف واقع به احکام این قانون اضافه شد. فصل آخر نیز به تخلفات و جرائم بازیگران این زیست بوم اختصاص دارد.

لینک کامل این گزارش در (اینجا) قابل مشاهده است.

یک زیرمجموعه گوگل هفته آینده کمپینی برای مقابله با اخبار جعلی مربوط به پناهجویان اوکراینی در لهستان، اسلکواکی و جمهوری چک  راه اندازی می کند.

به گزارش خبرگزاری مهر به نقل از رویترز، این کمپین براساس تحقیقات روانشناسان در ۲ دانشگاه انگلیس انجام می شود.

روانشناسان دانشگاه های کمبریج و بریستول با همکاری جیگساو کلیپ های ۹۰ ثانیه ای برای آگاه سازی مردم در مقابل محتوای مخرب در شبکه های اجتماعی تولید کرده اند.

این کلیپ ها که در بازه های پخش آگهی در یوتیوب و همچنین پلتفرم های دیگر مانند توئیتر، تیک تاک و فیس بوک نیز پخش می شود تا در شناسایی دستکاری احساسی و قربانی سازی در سرتیتر خبرها به مردم کمک کند.

جان روزن بیک مولف گزارشی درباره تحقیقات مربوط به این کمپین در یک مصاحبه گفت: اگر به مردم بگویید چه چیز درست و چه چیز غلط است، عده زیادی بحث و گمانه زنی می کنند. اما می توان روش هایی را پیش بینی کرد که برای گسترش اخبار جعلی به کار می رود.

این کمپین با همکاری سازمان های محلی غیر دولتی، بازبین های حقیقت یاب و کارشناسان اخبار جعلی برای مقابله در برابر روایت های ضد پناهجویی طراحی شده است.

گسترش اخبار جعلی و گمراه کننده در آمریکا و اروپا از طریق شبکه های اجتماعی سبب شده دولت های مختلف قوانین جدید برای مقابله با کمپین های اخبار جعلی وضع کنند.

فیسبوک خط‌مشی خود را اصلاح کرده و می‌خواهد نظرات و بررسی‌های جعلی و پولی را ممنوع کند.
به گزارش باشگاه خبرنگاران فیسبوک مدت‌ها است که برای محدود کردن بررسی‌های جعلی اقدام کرده، اما اکنون این موضع را رسمی کرده است. شرکت مادر فیسبوک (متا) خط مشی بازخورد خود را در آمریکا به روز کرده است تا به صراحت، بررسی‌های جعلی و پولی را در سیستم عامل‌های خود ممنوع کند.

به این ترتیب دیگر کاربران نمی‌توانند به امید دریافت یک وعده غذایی رایگان، برای یک رستوران نظر جعلی ارسال کنند، یا برای ارائه نظرات درخشان در مورد یک محصول، پول بگیرند.

همچنین این خط‌مشی اصلاح‌شده، بررسی‌های بی‌ربط و هرزنامه را ممنوع می‌کند. متا نظراتی که خط‌مشی‌ها را نقض می‌کنند را بررسی می‌کند و این حق را برای خود محفوظ داشته که دسترسی افراد به برخی یا همه محصولات خود را تعلیق کند. ناقضان معمولی ممکن است با تعلیق یا ممنوعیت دائمی حساب‌های فیس بوک خود مواجه شوند و کسب و کار‌ها ممکن است دسترسی به فهرست‌ها و برچسب‌های محصولات خود را از دست بدهند.
البته مشخص نیست که این تعهد چقدر پایدار خواهد بود. فیسبوک سال گذشته ۱۶۰۰۰ گروه بازبینی جعلی را در پاسخ به نگرانی‌های یک ناظر انگلیسی حذف کرد. یک سیاست رسمی، نشان دهنده تعهد به مقابله با مشکل است و می‌تواند به متا در توجیه ممنوعیت‌ها در صورت شکایت مجرمان، کمک کند.

طبق به روز رسانی دستورالعملی در اتحادیه اروپا، متا، گوگل، توئیتر و مایکروسافت توافق کرده اند موضع سختگیرانه تری نسبت به اخبار جعلی اتخاذ کنند.

به گزارش خبرگزاری مهر به نقل از رویترز، به گفته کمیسیون اتحادیه اروپا بیش از ۳۰ شرکت از جمله سازمان‌های تبلیغاتی دستورالعمل به روز رسانی شده مربوط به اخبار جعلی را امضا کرده‌اند.

به گفته یک مقام ارشد اتحادیه اروپا امضا کنندگان توافق کرده‌اند اقدامات بیشتری برای مقابله با دیپ فیک، حساب‌های کاربری جعلی و تبلیغات سیاسی انجام دهند.

عدم پیروی از این دستورالعمل جریمه ای تا ۶ درصد درآمد جهانی شرکت را در پی خواهد داشت. همچنین ممکن است شرکت‌های متخلف از فعالیت در اتحادیه اروپا منع شوند.

این شرکت‌ها که تیک تاک و پلتفرم بازی رایانه‌ای توییچ (متعلق به آمازون) را نیز شامل می‌شوند، ۶ ماه فرصت دارند تا به تعهد خود عمل کنند. همچنین آنها باید گزارشی از میزان پیشرفت خود در ۲۰۲۳ میلادی ارائه کنند.

ورا یوروا معاون رییس کمیسیون اتحادیه اروپا در این باره می‌گوید: دستورالعمل جدید نشان می‌دهد اروپا به خوبی از گذشته درس گرفته و ما دیگر ساده انگارانه با چنین موضوعاتی برخورد نمی‌کنیم.

به گفته او حمله روسیه به اوکراین، پاندمی کووید ۱۹ و خروج انگلیس از اتحادیه اروپا، اقدامات این منطقه برای مقابله با اخبار جعلی را سرعت بخشیده است.

بنیاد نایت به مقابله با اخبار جعلی رفت

يكشنبه, ۱۵ خرداد ۱۴۰۱، ۰۴:۳۶ ب.ظ | ۰ نظر

تشخیص اخبار درست یا موثق از اخبار جعلی یا غیردقیق با توجه به صد میلیون کلیکی که روزانه در اینترنت می شود، کار دشواری است و ابزاری که او ساخته، تا نود درصد قدرت تمایز و تشخیص غلط و درست از یکدیگر را دارد.

به گزارش شارا فردریک فیلوکس که در دانشگاه استنفورد فرصت مطالعاتی بنیاد نایت را می گذراند، ابزاری به نام Deepnews.ai ساخته که می تواند گزارش‌های باکیفیت بالا را از گزارش‌های بی ارزش متمایز کند.

او می گوید که تشخیص اخبار درست یا موثق از اخبار جعلی یا غیردقیق با توجه به صد میلیون کلیکی که روزانه در اینترنت می شود، کار دشواری است و ابزاری که او ساخته، تا نود درصد قدرت تمایز و تشخیص غلط و درست از یکدیگر را دارد.

CrossCheck تریبونی است که توسط لیزا فازیو، یکی از اعضای هیات علمی دانشگاه وندربیلت ارائه شد. خانم فازیو و تیم او به بررسی واکنش خوانندگان و مخاطبان خبر نسبت به انتشار واقعیاتی که موارد اطلاعات جعلی را روشن و منعکس می کند، پرداختند. در بسیاری از موارد، نوع این واکنش‌ها متفاوت بود و البته بسته به کشور هم فرق می کرد.

City Bureau طرحی بود که توسط داریل هالیدی از شیکاگو ارائه شد. این طرح، به بررسی پروژه‌ای می پردازد که به شهروندان پول می دهد تا در نشست‌های عمومی که به گستردگی سابق از سوی رسانه‌های محلی پوشش داده نمی شوند، شرکت کنند.

این طرح ۳۵۰ مستندنگار را گرد هم آورد که در نشست‌های گوناگون عمومی شرکت می کنند، از شورای شهر گرفته تا مدارس، پلیس محلی و بنیادهای محلی و دولتی مسکن. تاکنون در بیش از دو هزار نشست شرکت کرده‌اند و هدف هالیدی آن است که همه‌ جلسات عمومی شهر را پوشش دهد و در نهایت به بررسی نابرابری‌ها و شیوه‌ رفتار با شهروندان گوناگون در این گونه نشست‌ها بپردازد. حاصل شرکت گروه او در این نوع نشست‌ها آن است که مشاهدات خود را می نویسند و در اختیار همگان قرار می دهند. برنامه‌ این طرح آن است که به دیترویت توسعه یابد.

طرح آخر توسط کامرون هیکی ایجاد شده بود که یکی از تهیه کنندگان برنامه تلویزیونی ساعت خبر در شبکه‌ دولتی پی بی اس آمریکاست. نام طرح او NewsTracker است که بر اساس داده عمل می کند تا به شناسایی منابع تازه‌‌ اطلاعات جعلی بپردازد. تاکنون ۴۰۰۰ منبع اخبار جعلی یا غلط توسط این طرح شناسایی شده است.

طرح‌های منتخب تنها چهار طرح از کل ۲۰ طرحی است که از سوی صندوق کینگ یا Knight Prototype Fund حمایت می شود که طرحی مشترک با صندوق دموکراسی Democracy Fund و Rita Allen Foundation یا بنیاد ریتا آلن است که با انتشار اطلاعات جعلی مبارزه می کند.»

نویسنده: پاتریک باتلر

منبع: 

جریمه ۱۱ میلیون روبلی گوگل در روسیه

شنبه, ۳ ارديبهشت ۱۴۰۱، ۰۴:۵۳ ب.ظ | ۰ نظر

دادگاهی در روسیه جریمه ای ۱۱ میلیون روبلی (۱۳۷هزار و ۷۶۳ دلار) برای گوگل تعیین کرده است.

به گزارش خبرگزاری مهر به نقل از رویترز، دلیل این اقدام عدم حذف اخبار جعلی درباره درگیری در اوکراین و ویدئوهایی در یوتیوب است که توسط گروه‌های راست گرای افراطی اوکراین تولید شده اند.

راسکامنادزر، رگولاتور ارتباطات روسیه در اوایل ماه جاری اعلام کرد به دلیل گسترش اخبار جعلی در یوتیوب، اقداماتی تنبیهی علیه گوگل انجام می‌دهد. پیش از آن نیز این سازمان تهدید کرده بود در صورت عدم پیروی از دستورات، شرکت آمریکایی را جریمه می‌کند.

گوگل در ۲ پرونده مربوط به نقض قوانین گناهکار شناخته شده و ۴ و ۷ میلیون روبل جریمه شده است. این شرکت فناوری به درخواست‌های اظهار نظر پاسخی نداده است.

خبرگزاری تاس روسیه اعلام کرد این جریمه‌ها مربوط به پرونده‌هایی هستند که به اعتقاد دولت انتشار اخبار جعلی درباره خسارت نیروهای روسی و تلفات غیرنظامیان در اوکراین به حساب می آیند.

مهار اخبار جعلی نیازمند قوانین بازدارنده است

چهارشنبه, ۱۸ اسفند ۱۴۰۰، ۱۱:۴۶ ق.ظ | ۰ نظر

پژوهشگر پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی گفت: تا به امروز برای مقابله با اخبار جعلی در کشور اقدامات اساسی شکل نگرفته و قانون ایجاد پایگاه برای مقابله با این موضوع که از وظایف وزارت ارشاد بوده، هنوز به تصویب قانون نرسیده است.
به گزارش روابط عمومی پژوهشگاه فضای مجازی، سید محمد مهدی فیروزآبادی در چهارمین روز مجموعه نشست های هفته حکمرانی فضای مجازی که با محوریت مقابله با اخبار جعلی در فضای مجازی برگزار شد، با بیان این مطلب گفت: مساله توانمندی فنی از موضوعات بسیار مهم و تاثیرگذار در مقابله با اخبار نادرست است اما تا به امروز در مقابله با اخبار جعلی در داخل کشور پیشرفتی صورت نگرفته از سوی دیگر رویکرد ارتقای سواد رسانه و ارتقای آگاهی عمومی هنوز جای کار دارد چرا که کمبود آگاهی در کاربران سیاست گذار و سکوها باعث آسیب پذیری شده است.

وی در خصوص محورهای این نشست اظهار کرد: در این نشست گستره اخبار جعلی که امروز به معضل تبدیل شده مورد بررسی قرار گرفت و چهارچوب مفهومی برای دسته بندی اخبار جعلی و اقسام آن تعریف و در عین حال عواقب اخبار جعلی و تاثیر آن تشریح شد.

وی با طرح این پرسش که چرا اخبار جعلی در مقایسه با اخبار واقعی تاثیرگذاری بیشتری دارند، اظهار کرد: از آن جا که طراوت اطلاعاتی بسیار مهم بوده و انگیزه و عامل پیام تاثیر زیادی دارد از این رو شاهد اثرگذاری بیشتر این اخبار هستیم.

فیروزآبادی با تشریح اخبار نادرست یا اختلال اطلاعات و راه های مقابله ای با این اخبار تصریح کرد: در حال حاضر دو رویکرد مبتنی بر فناوری و مبتنی بر ارتقا و دانش وجود دارد که در هر دو رویکرد، در سه سطح کاربران معمولی، سطح پلتفرم و سطح سیاست گذار اقداماتی در مقابله با اخبار جعلی رخ می دهد که یکی از این اقدامات، راستی آزمایی است.

پژوهشگر پژوهشکده علوم شناختی و مغز دانشگاه شهید بهشتی در تشریح تفاوت راستی آزمایی با دیبانگ ( افشای اخبار جعلی) گفت: همواره این پرسش مطرح می شود که با توجه به وضعیت انتشار پیام آیا راستی آزمایی همیشه راهکار خوبی بوده و لازم است چه برخوردی با آن صورت گیرد؟ با فرض این موارد، اقدامات کشورهای مختلف در سالیان اخیر در مقابله با اخبار نادرست و اختلالات اطلاعاتی و رویکردهایی از جمله تصویب قانون تا لایحه، اعمال جریمه و زندان، قطعی اینترنت و ارتقای سواد به عنوان جرایم این اقدام مورد بررسی قرار گرفت.

وی با بیان این که هم اکنون مجموعه ای از این اقدامات از سوی کشورها انجام می شود، اظهار کرد: توانایی اعمال حاکمیت در حوزه فضای مجازی بسته به این که هر کشوری چه اقدامی در این زمینه انجام داده و از چه توانمندی فنی برخوردار بوده و چه سطح از از سواد رسانه ای در کشور وجود دارد و در عین حال مردم آن از چه پلتفرمی استفاده می کنند، متفاوت خواهد بود.

فیروزآبادی در پایان با تاکید بر این که نقش سازمان های مردم نهاد در حوزه راستی آزمایی و ضرورت رعایت ساختارهایی در این زمینه از جمله موارد مهم در این حوزه است، افزود: جعل عنوان راستی آزمایی و مساله شفافیت در حوزه راستی آزمایی مالی و مشخص بودن روش های مالی از دیگر موضوعات در بحث مقابله با اخبار جعلی است.

وزیر ارتباطات و فیک‌نیوزها

شنبه, ۷ اسفند ۱۴۰۰، ۱۰:۲۳ ق.ظ | ۰ نظر

علی شمیرانی - هفته قبل وزیر ارتباطات با انتشار چند متن و نمودار از وضعیت سرعت اینترنت، به انتقاد از «فیک‌نیوزها» پرداخت که با انتشار جعلیات می‌توانند بخش وسیعی از جامعه را با خود همراه کنند.

رئیس پژوهشگاه ارتباطات و فناوری اطلاعات با اشاره به چالش های تولید محتوا در شبکه‌های اجتماعی از منظر جعلی، نامناسب، دروغ و افترا بودن و تبعات ناخوشایند آن در جامعه، از طراحی و توسعه نمونه اولیه سکوی تشخیص اخبار جعلی در شبکه های اجتماعی در این پژوهشگاه خبر داد.

به گزارش روابط عمومی پژوهشگاه ارتباطات و فناوری اطلاعات، وحید یزدانیان با بیان این که آگاهی، پیشگیری و مقابله با تبعات ناخوشایند محتوا در شبکه‌های اجتماعی از ضروریات جوامع امروزی به حساب می‌آید، گفت: بی‌تفاوتی نسبت به این محتواها، ممکن است بحران‌هایی ایجاد کند که رفع آن ها امکان‌پذیر نبوده، یا مستلزم هزینه‌های گزاف باشد.

وی در تشریح این موضوع ادامه داد: گاهی انتشار اطلاعات نادرست در فضای مجازی تهدید خاصی به حساب نمی‌آید و مثلاً با انگیزه سرگرمی و مزاح، محتوای نادرستی تولید و منتشر می‌شود و اثر طولانی مدتی نیز ندارد. اما در مواردی محتواهای نادرست می‌توانند به صورت هدفمند و تأثیرگذار در سطح ملی و به منظور بر هم زدن نظم اجتماعی، امنیت، اقتصاد، تخریب اشخاص حقیقی یا حقوقی، و امثال آن ها باشند. در موارد متعددی حتی اخبار جعلی در حوزه داخلی یک کشور در کشور دیگری طراحی و منتشر می‌شود.
دکتر یزدانیان با تاکید بر این که پدیده اخبار جعلی در شبکه‌های اجتماعی از جنبه‌های مختلف مطرح است، افزود: کشورهای مختلف تعاریف مختلفی از اخبار جعلی دارند. حتی تفسیر حقوقی آن ها از اخبار جعلی نیز متفاوت است.
وی خاطرنشان کرد: در این پروژه ضمن مروری گذرا به این مباحث، روش‌های مبتنی بر هوش مصنوعی برای شناسایی اخبار مشکوک به جعلی بودن، مورد تمرکز بیشتری قرار گرفت و ضمن بررسی تنوعی از روش‌های مبتنی بر هوش مصنوعی، برخی از آن ها پیاده‌سازی شد یا در حال انجام است.
رئیس پژوهشگاه ارتباطات، نتایج حاصله را مثبت ارزیابی کرد و گفت: دقت‌های خوبی به دست آمده‌ که شامل روش‌های مبتنی بر استخراج ویژگی‌های نوشتاری، روش‌های مبتنی بر کیسه کلمات (Bag of Words)، روش‌های مبتنی بر n-gram، روش‌های مبتنی بر یادگیری عمیق و روش‌های مبتنی بر الگوی انتشار در شبکه است.

پیگیری اخبار جعلی با وزارت ارشاد است

سه شنبه, ۱۶ شهریور ۱۴۰۰، ۰۶:۰۳ ب.ظ | ۰ نظر

شفقنا رسانه_دبیر شورای عالی فضای مجازی گفت: وزارت فرهنگ و ارشاد اسلامی مسئول ساماندهی تولید و توزیع محتوا است و مسئولیت پیگیری اخبار جعلی در فضای مجازی به این وزارتخانه محول شده است.

به گزارش  مرکز ملی فضای مجازی، ابوالحسن فیروزآبادی به همراه جمعی از معاونان و مدیران مرکز ملی فضای مجازی با محمدمهدی اسماعیلی وزیر فرهنگ و ارشاد اسلامی دیدار و درباره تحولات فضای مجازی و تأثیر آن بر حوزه فرهنگ تاکید کرد.

وی در این دیدار با اشاره به ضرورت پیگیری طرح تحول در وزارت فرهنگ و ارشاد اسلامی گفت: وزارت فرهنگ و ارشاد اسلامی باید متناسب با تحولات فضای مجازی در دنیا و بر اساس مأموریت‌های خود نسبت به اجرای طرح تحول در این وزارتخانه اقدام کند و نیاز است تا سایر دستگاه‌ها برای پیشبرد برنامه تحول آن به خصوص سازمان اداری و استخدامی کشور و سازمان برنامه و بودجه حمایت و همراهی لازم را انجام دهند.

فیروزآبادی با اشاره به تولید و توزیع محتوا در فضای مجازی افزود: بر اساس مصوبه شورای عالی فضای مجازی کشور مسئولیت بررسی و پیگیری اخبار جعلی بر عهده وزارت فرهنگ و ارشاد اسلامی است. همچنین این وزارتخانه می‌تواند برای ساماندهی تولید و توزیع محتوا از سوی کاربران غیرحرفه‌ای (UGC) و افزایش کاربر محور شدن این فضا نقش مؤثری ایفا کند.

دبیر شورای عالی فضای مجازی با تاکید بر ضرورت تقسیم کار حاکمیتی و شفاف سازی مأموریت‌های حوزه‌های فرهنگی و محتوایی با توجه به تعارض و تداخل مأموریت دستگاه‌های مشمول در این حوزه تصریح کرد: باید در روش‌های ممیزی با توجه به گسترش عرضه محصولات در فضای مجازی بازنگری شود.

در این دیدار وزیر فرهنگ و ارشاد اسلامی نیز گفت: این وزارتخانه اهتمام جدی برای رفع چالش‌های فرهنگی ناشی از توسعه فضای مجازی در کشور و تقسیم کار دستگاهی متناسب با تحولات فضای مجازی دارد.

اسماعیلی با تاکید بر اینکه وزارت ارشاد برای تحول ساختاری نیازمند پشتیبانی شورای عالی و مرکز ملی فضای مجازی است، افزود: این وزارتخانه آمادگی دارد تا با شورای عالی و مرکز ملی فضای مجازی در حوزه‌های مأموریتی و در جهت منافع نظام مقدس جمهوری اسلامی برای حمایت و دفاع از حقوق کاربران و تولیدکنندگان محتوا همکاری و هماهنگی بیشتر داشته باشد.

وی با اشاره به اینکه شورای عالی فضای مجازی می‌تواند نقش بسیار مهمی در تقسیم کار تخصصی و حرفه ای بین دستگاه‌های دولتی و حاکمیتی در حوزه فرهنگ و محتوا در فضای مجازی ایفا کند، تصریح کرد: با توجه به طراحی و ارائه طرح جامع نظام رسانه‌ای کشور به مجلس شورای اسلامی، آمادگی همکاری در این موضوع با مرکز ملی فضای مجازی در این وزارتخانه وجود دارد.

چرا اخبار جعلی در فیس‌بوک پربیننده است؟

شنبه, ۱۳ شهریور ۱۴۰۰، ۰۲:۵۷ ب.ظ | ۰ نظر

یک مطالعه نشان می‎دهد که انتشار اطلاعات غلط در فیس‎بوک بازدید بیشتری نسبت به دیگر اطلاعات دارد.
میزان - یک مطالعه جدید در مورد رفتار کاربران در فیس‌بوک احتمالاً استدلال‌های منتقدان را تقویت می‌کند که الگوریتم‌های این شرکت باعث گسترش اطلاعات غلط در مقایسه با منابع معتبر می‌شود.

این تحقیق انجام شده توسط محققان دانشگاه نیویورک و دانشگاه گرنوبل آلپ در فرانسه نشان می‎دهد که از آگوست ۲۰۲۰ تا ژانویه ۲۰۲۱، ناشران خبری که به ارائه اطلاعات نادرست در فیس‌بوک معروف هستند، ۶ برابر منابع خبری معتبر مانند سازمان بهداشت جهانی، لایک، اشتراک گذاری و تعاملات را دریافت کرده‎اند.

از زمانی که اخبار جعلی در فیس‌بوک پس از انتخابات ریاست جمهوری ۲۰۱۶ آمریکا به نگرانی عمومی تبدیل شد، کارشناسان معتقدند که ترافیک اطلاعات غلط بار‌ها و بار‌ها نشان داده است که می‌تواند مخاطبان عمده‌ای را در این پلتفرم به سمت خود جلب کند.

به گفته کارشناسان، این مطالعه یکی از معدود تلاش‌های جامع برای اندازه گیری و جداسازی اثر اطلاعات نادرست در میان گروه وسیعی از ناشران در فیس‌بوک است و نتیجه گیری آن بر این است که بستر فیس‌بوک به ناشرانی که اخبار گمراه کننده منتشر می‌کنند، به نوعی پاداش می‌دهد.

«ربکا ترمبل»، مدیر موسسه داده ها، دموکراسی و سیاست در دانشگاه جورج واشنگتن، که یافته‌های این مطالعه را مرور کرده، می‎گوید «این مطالعه به شواهد فزاینده‌ای کمک می‌کند که با وجود تلاش‌های متعدد برای کاهش اخبار جعلی، اطلاعات غلط، بستری راحت و مخاطبان فعالی در فیس‌بوک پیدا کرده است.»

فیس‌بوک مدعی شده که این گزارش تعداد افرادی را که با محتوا درگیر هستند اندازه گیری می‌کند، اما این اندازه گیری تعداد افرادی نیست که واقعاً آن را مشاهده می‌کنند؛ فیس‌بوک آمار ادعایی خود را در دسترس عموم محققان قرار نداده است.

فیس‌بوک می‎گوید که این شرکت ۸۰ الگوی بررسی واقعیت دارد که بیش از ۶۰ زبان را پوشش می‌دهند و برای برچسب زدن و کاهش توزیع اطلاعات غلط کار می‌کنند.

نویسندگان این مطالعه بر دسته بندی‌های ۲ سازمان غیر دولتی، به نام‌های «نیوز گارد» و «مدیا بایس - فکت چک»، که اطلاعات نادرست را مطالعه می‌کنند، استناد کرده‎اند.

هر ۲ گروه، هزاران ناشر فیس‌بوک را بر اساس گرایش‌های سیاسی خود، از چپ گرای افراطی تا راست گرای افراطی، و تمایل خود برای به اشتراک گذاشتن اخبار قابل اعتماد یا غیرقابل اعتماد، طبقه بندی کرده‎اند.

منتقدان فیس‌بوک مدتی است این بستر را متهم می‌کنند که برای محتوای گمراه کننده و التهابی که اغلب دیدگاه‌های بینندگان را تقویت می‌کند، توجه و کلیک بیشتری را مقایسه با اخبار اصلی ایجاد می‌کند.

محبوبیت اخبار دروغ در فیس‌بوک

دوشنبه, ۱ شهریور ۱۴۰۰، ۰۲:۴۶ ب.ظ | ۰ نظر

فیس بوک هفته گذشته گزارشی در مورد تعاملی ترین محتوای خود را در سه ماهه دوم سال 2021 منتشر کرد که نشان می داد محبوب ترین محتوای این شبکه اجتماعی مطلبی دروغ در مورد واکسن کروناست.

به گزارش فارس به نقل از انگجت، در شرایطی که مشخص شده اخبار جنجالی و زرد رسانه های دست راستی و محافظه کار در فیس بوک بسیار مورد توجه قرار می گیرد و این اخبار عمدتا متعلق به فاکس نیوز، نیوزمکس، بن شاپیرو و غیره هستند، در دیگر شبکه های اجتماعی مانند یوتیوب، تیک تاک، تامبلر و غیره بیشتر محتوای بی ضرر و غیرجنجالی بازنشر می شود.

بر اساس بررسی های مذکور پربازدیدترین لینک در فیس بوک خبری دروغین است که در آن ادعا شده پزشکی در فلوریدا در اثر تزریق واکسن کرونا فوت کرده است. انتشار گسترده اخباری از این دست از طریق فیس بوک موجب شده تا علاقه بسیاری از مردم در ایالات متحده به تزریق واکسن کاهش یابد.

در عین حال فیس بوک جلوی انتشار برخی جزئیات این گزارش را گرفته و مدعی شده باید بررسی ها و اصلاحاتی در این زمینه صورت بگیرد و سپس گزارش مذکور منتشر شود. اندی استون سخنگوی فیس بوک همچنین مدعی شد این شبکه اجتماعی در تلاش برای مقابله با اخبار دروغین است، اما در این زمینه دشواری های جدی وجود دارد.

فیس بوک در ماه های اخیر به ابزاری برای بازنشر انبوه دروغ پردازی ها در مورد ویروس و واکسن کرونا مبدل شده و همین مساله باعث شده تا دولت آمریکا و شخص بایدن به طور مستقیم به آن حمله کنند. بایدن تا بدانجا پیش رفت که ماه گذشته گفت فیس بوک مردم را با نشر اخبار دروغ در مورد واکسن کرونا به کشتن داده است.

یوتیوب صفحه «اسکای نیوز» را بست

دوشنبه, ۱۱ مرداد ۱۴۰۰، ۰۳:۳۱ ب.ظ | ۰ نظر

یوتیوب در اقدامی بی سابقه حساب کاربری شبکه اسکای نیوز را در این شبکه اجتماعی به علت انتشار اخبار و اطلاعات دروغ در مورد ویروس کرونا تعلیق کرد.

به گزارش فارس به نقل از انگجت، به دنبال انتقادات گسترده از یوتیوب به علت بی توجهی به وجود انبوهی از ویدئوهای گمراه کننده در مورد ویروس کرونا، این سایتِ زیرمجموعه گوگل موضوع را جدی تر کرده  وبرخی محتواهای گمراه کننده را حذف کرده است.

با این حال سابقه نداشته که یوتیوب در این روند با حساب های کاربری مشهور و شناخته شده برخورد کند. حال برای اولین بار حساب کاربری شبکه اسکای نیوز استرالیا در یوتیوب برای یک هفته تعلیق شده و این شبکه طی هفت روز آینده حق آپلود هیچ ویدئویی را در یوتیوب ندارد.

بررسی های یوتیوب نشان می دهد در چندین ویدئوی اسکای نیوز، اطلاعات غلطی در مورد ویروس کرونا به مخاطبان ارائه شده است. در این ویدئوها وجود سویه های جدید ویروس کرونا تکذیب شده یا ادعا شده که استفاده از هیدروکسی کلروکین و ایورمکتین درمانهای موثری برای مقابله با کرونا هستند.

یوتیوب مدعی است تولید و انتشار چنین ویدئوهایی می تواند آسیب های را در جهان واقعی به همراه داشته باشد و تکرار رویدادهایی از این دست منجر به بسته شدن کامل حساب شبکه اسکای در یوتیوب می شود. اسکای نیوز در مقابل اعلام کرده که در هیچ یک از ویدئوهای خود وجود ویروس کرونا را انکار نکرده و یوتیوب با این اقدام خود تفکر آزادانه را تهدید می کند.

۲ سناتور دموکرات لایحه ای ارائه کرده اند که مصونیت شبکه های اجتماعی مانند فیس بوک را در صورت گسترش اخبار جعلی مرتبط با سلامت عمومی حذف می کند.

به گزارش خبرگزاری مهر به نقل از ورج، همزمان با افزایش موارد ابتلاء به کرونا در جمعیت واکسینه نشده آمریکا، سناتورهای دموکرات این کشور لایحه جدیدی ارائه کرده‌اند که طبق آن در صورتیکه فیس بوک و شبکه‌های اجتماعی دیگر اخبار جعلی مربوط به سلامت عمومی را گسترش دهند از مصونیت بخش ۲۳۰ قانون نجابت ارتباطات محروم می‌شوند.

قانون اخبار جعلی سلامت توسط امی کلوبوچار و بن ری لوجان ارائه شده است. این لایحه، استثنایی در بخش ۲۳۰ قانون نجابت ارتباطات ایجاد می‌کند که طبق آن پلتفرم‌های اجتماعی مانند فیس بوک به دلیل میزبانی اخبار جعلی خطرناک مرتبط با سلامت عمومی با شکایات قانونی روبرو خواهند شد.

این لایحه وزیر بهداشت و خدمات انسانی آمریکا را موظف می‌کند تا دستورالعملی درباره ماهیت «اخبار جعلی سلامت» صادر کند.

استثنای ایجاد شده در قانون مذکور فقط مربوط به مواقعی است که اخبار جعلی آنلاین به رویداد اضطراری بهداشت عمومی (مانند پاندمی ویروس کرونا) مربوط باشد. همچنین لایحه مذکور در صورتی موجب رفع مصونیت شبکه‌های اجتماعی می‌شود که محتوای مذکور به وسیله الگوریتم‌ها گسترش یافته باشد.

کلوبوچار در بیانیه‌ای در این باره گفت: پلتفرم‌های آنلاین مدت‌ها است که اقدامات کافی برای حفاظت از سلامت مردم آمریکا انجام نداده‌اند. حال آنکه آنها جزو بزرگترین و ثروتمندترین شرکت‌های جهان هستند و باید اقدامات بیشتری برای جلوگیری از گسترش اخبار جعلی مربوط به واکسن انجام دهند. پاندمی ویروس کرونا به ما نشان داد اخبار جعلی تا چه حد می‌توانند مرگبار باشند و اکنون وظیفه ما است که کاری انجام دهیم.

دولت آمریکا در حالی به پیامدهای ویرانگر انتشار و پخش اطلاعات غلط در شبکه‌های اجتماعی اذعان کرده است که همه کشورهای جهان طعم تلخ این بحران را چشیده و برای حل آن به تکاپو افتاده‌اند.

به گزارش ایرنا، اگرچه انتشار اخبار جعلی چیز جدیدی نیست ظهور شبکه‌های اجتماعی در سال‌های اخیر بازار آن را حسابی داغ کرده است. این اطلاعات ممکن است هر چیزی باشند، از حقیقت‌های دستکاری شده و تئوری‌های توطئه گرفته تا ادعاهایی که از بیخ و بن دروغند. اما هدف از انتشار این نوع اطلاعات چیست؟ هدف اصلی از این کار دستکاری باورهای یک گروه خاص، ایجاد چند دستگی و بی‌اعتبار کردن حقیقت است. این روزها دولت‌ها و افراد به واسطه شبکه‌های اجتماعی به راحتی می‌توانند به سرعت نور اطلاعات ساختگی خود را در دنیا پخش کنند و عواقب جدی به جا بگذارند.

 

وقتی صدای آمریکا هم درآمد!

جو بایدن رئیس‌جمهوری آمریکا جمعه گذشته، (۲۵ تیر) از شبکه‌های اجتماعی چون فیس‌بوک برای پخش و اشاعه اطلاعات غلط درباره ویروس و واکسن کرونا، به شدت انتقاد کرد و گفت: در حال حاضر همه‌گیری تنها بین جمعیت واکسینه نشده آمریکا ادامه دارد. (شبکه‌های اجتماعی مثل فیس‌بوک با پخش اطلاعات غلط) دارند جان مردم را می‌گیرند.

این اولین بار نیست که یکی از مقام‌های ارشد دولت آمریکا به اثار مخرب پدیده همه‌گیری اطلاعات غلط یا اینفودمی اشاره می‌کرد؛ ویوک مورتی جراح کل آمریکا که سخنگوی ارشد دولت واشنگتن در حوزه بهداشت عمومی است، یک روز قبل از بایدن ضمن هشدار درباره عواقب جبران‌ناپذیر انتشار این حجم بالا از داده‌های نادرست و اطلاعات غیرعلمی، از غول‌های فناوری خواسته بود با تغییر الگوریتم‌های خود جلوی ترند شدن این نوع از پست‌ها را بگیرند و اطلاعات بیشتری را با محققان و دولتمردان به اشتراک بگذارند تا بتوانند به معلمان، کادر درمان و رسانه‌ها در مقابله با اینفودمی کمک کنند.

مورتی گفته بود: انتشار اطلاعات غلط در حوزه بهداشت، یک تهدید جدی برای سلامت مردم است. این کار می‌تواند موجب سردرگمی و بی‌اعتمادی مردم شده، به سلامت آنها آسیب بزند و تلاش‌ها برای ارتقای سلامت عمومی را خنثی کند. مهار انتشار اطلاعات غلط، یک وظیفه اخلاقی و مدنی است.

به گفته جراح کل آمریکا، شبکه‌های اجتماعی با فراهم آوردن بستری برای اشاعه بی‌دردسر اطلاعات بی‌اساس زمینه تردید مردم برای واکسینه شدن را فراهم می‌کنند، امری که برآیندی نخواهد داشت جز به راه افتادن موجی از مرگ و میر قابل پیشگیری. مورتی در ادامه تاکید کرد انتشار اطلاعات غلط علاوه بر کرونا می‌تواند بر دیگر بیماری‌ها نیز تاثیر بگذارد و یک مشکل جهانی است.

مورتی در نشست توجیهی که در کاخ سفید برگزار می‌شد، عاجزانه از مردم خواست از پخش اطلاعات شبهه برانگیز در فضای آنلاین خودداری کنند اما به گفته عمران احمد، رئیس مرکز مقابله با نفرت‌پراکنی دیجیتال که مسئولیت ردگیری اطلاعات غلطی که درباره کرونا در اینترنت منتشر می‌شود را برعهده دارد، فقط این‌ کافی نیست.

احمد در گفت‌وگو با ان‌پی‌آر گفت: همانطور که در مورد سیگار می‌گویند دخانیات کشنده است. در مورد شبکه‌های اجتماعی نیز جراح کل آمریکا باید بیاید و بگوید اطلاعات غلط کشنده است.

اعتراض مقامات دولت آمریکا به پخش اطلاعات غلط در پلتفرم‌های اجتماعی به همین‌جا محدود نشد.

جن ساکی سخنگوی کاخ سفید نیز روز پنجشنبه (۲۴ تیر) گفت فیس‌بوک آن طور که باید و شاید برای جلوگیری از انتشار اطلاعات غلط درباره ویروس کرونا تلاش نمی‌کند.

ساکی تصریح کرد کاخ سفید چند پیشنهاد و توصیه به متولیان فیس‌بوک و دیگر شبکه‌های اجتماعی ارائه کرده است تا از آنها در رسیدگی به اشاعه اطلاعات نادرست استفاده کنند. از جمله این پیشنهادها می‌توان به حذف ۱۲ کاربری اشاره کرد که مسئول انتشار نزدیک به ۶۵ درصد محتوای ضد واکسیناسیون کرونا در شبکه‌های اجتماعی بودند.  

فیس‌بوک در توجیه عملکرد خود از حذف بیش از ۱۸ میلیون پست با محتوای غلط درباره ویروس کرونا، حذف حساب‌هایی که بارها قوانین مربوط به عدم انتشار این نوع از محتوا را شکسته بودند و اتصال ۲ میلیارد کاربر به منابع اطلاعاتی قابل اعتماد و موثق درباره کرونا و واکسیناسیون گفت اما ساکی می‌گوید این کارها کافی نیست و باید اقدامات بیشتری در این زمینه صورت گیرد. کاخ سفید، به طور خاص، به شبکه‌های اجتماعی توصیه کرده است عواقب انتشار اطلاعات غلط در پلتفرم‌های خود را ارزیابی و به طور علنی منتشر کنند.

آمار ابتلا به کرونا در آمریکا، در هفته‌ای که گذشت حدود ۱۱ درصد نسبت به هفته قبل افزایش پیدا کرد و تمرکز مبتلایان بیشتر در مناطقی بود که زیر ۴۰ درصد جمعیت علیه ویروس واکسینه شده بودند. به گزارش رویترز، آمار شیوع کرونا در ایالات متحده بهار امسال به دنبال آغاز واکسیناسیون‌ها نسبت به رشد شدیدی که در فصل زمستان داشت، کاهش یافت اما حالا سرعت تزریق واکسن رو به کاهش گذاشته است آن هم در حالی که تاکنون تنها ۵۱ درصد جمعیت آمریکا واکسینه شده‌اند. مقامات آمریکایی دلیل تردید و اکراه باقی مردم این کشور برای دریافت واکسن را در اطلاعات غلط و هشدارهای بی اساسی جست‌وجو می‌کنند که هر روزه در شبکه‌های اجتماعی دست به دست می‌شوند.

 

از آسیا تا اروپا، زیر آوار «اینفودمی»

فقط آمریکا نیست که با بحران اینفودمی در دوران کرونا دست و پنجه نرم می‌کند. عمل کردن براساس اطلاعات غلط در هر کجای دنیا می‌تواند مرگبار باشد. به گزارش سازمان بهداشت جهانی، تنها در سه ماهه اول سال ۲۰۲۰، نزدیک به ۶ هزار نفر در سراسر جهان به دلیل اطلاعات غلطی که درباره کرونا از طریق اینترنت و شبکه های اجتماعی دست به دست شده بود، در بیمارستان‌ها بستری شدند و در این مدت دستکم ۸۰۰ نفر به دلیل اعتماد به این اطلاعات جان خود را از دست دادند.

هند یکی از نمونه‌های بارز بلایی است که اینفودمی به سر مردم ناآگاهی می‌آورد که با بحرانی جدی به اسم کرونا روبه‌رو هستند؛ این کشور که پس از آمریکا با بیش از ۳۱ میلیون مبتلا، بیشترین آمار ابتلا به کرونا در سراسر جهان را دارد، در ماه‌های اخیر با یک بحران انسانی روبه‌رو شد که دست به دست شدن روش‌های درمانی من‌درآوردی و بی‌فایده، داستان‌های ترسناک از عوارض جانبی واکسن کرونا، ادعاهای بی‌اساس درباره این که مسلمانان این ویروس را در جهان پخش می‌کنند و شایعات و حرف‌های پوچی که یا دهان به دهان می‌چرخیدند یا در شبکه‌های اجتماعی پخش می‌شد، آن را بیش از پیش تشدید کرد.

در یکی دو سال گذشته در ایران هم از این موارد کم ندیدیم. از همان نخستین روزهای شیوع ویروس کرونا کلیپ‌ها و تبلیغات مختلفی درباره استفاده از داروها و راه‌های مختلف برای جلوگیری از ابتلا به کرونا در فضای مجازی منتشر شد؛ ادعایی که هیچ‌یک از مراجع علمی آن را تایید نکردند. 

کمی بعد این باور غلط بر سر زبان‌ها افتاد که با مصرف الکل می‌توان از ابتلا به کرونا پیشگیری کرد و همین مساله اسباب مسمومیت هزاران نفر را فراهم کرد. تعدادی از افراد سودجو از فضای ایجاد شده سوء استفاده کردند و با تولید مشروبات دست‌ساز که درصد متانول بیشتری داشتند جان بسیاری از انسان‌ها را گرفتند.

مالزی اما درباره شبکه‌های اجتماعی رویکرد دیگری را در پیش گرفت و حسابی سخت‌گیری کرد. چندی پیش خبر رسید این کشور آسیایی مدت زمان زندانی شدن برای انتشار اخبار جعلی درباره ویروس کرونا را افزایش داده است. دولت مالزی گفته بود باید مجازات‌های سنگین‌تری اعمال شود تا بتوان با انتشار فزاینده اطلاعات غلط درباره همه گیری کرونا مقابله کرد. 

اروپا نیز این روزها به فکر برخورد جدی با شبکه‌های متخلف اجتماعی افتاده است. حدود سه هفته پیش بود که موسسه غیرانتقاعی اواز (Avaaz) از انتشار نتایج یک مطالعه مقدماتی خبر داد که نشان می‌داد شبکه‌های اجتماعی از جمله فیس‌بوک، اینستاگرام، توییتر و یوتیوب در مقابل انتشار شایعات نادرست درباره ویروس کرونا کاری نکرده‌اند. این موسسه که با ماموریت ساختن جهانی بهتر، مردم را به فعالیت در مسائلی مثل حقوق بشر، حقوق جانوران، تغییرات آب و هوا، فساد، فقر و جنگ دعوت می‌کند، تصریح کرد اگرچه از زمان شروع بحران کرونا همه این شبکه‌ها به انتشار اطلاعات موثق در پلتفرم‌های خود متعهد شدند اما حالا که اروپا با موج جدید احتمالی شیوع کرونا روبه‌روست، هیچکدام از این غول‌های فناوری به طور موثر جلوی انتشار اطلاعات غلط درباره این بیماری را نگرفته است.

لوکا نیکوترا از مدیران اواز در این باره گفته بود: دیگر خسته شدیم بس که گفتیم هیچکدام از شبکه‌های اجتماعی به اندازه کافی برای جلوگیری از انتشار دروغ‌های مسمومی که پلتفرم‌هایشان را آلوده کرده تلاش نمی‌کنند. همین حالا به معاهده‌ای مثل پاریس برای مقابله با اطلاعات غلط نیاز داریم که البته رسیدن به آن مستلزم تعهد معنادار و اقدامات محسوس غول‌های فناوری است. این آخرین فرصت آنهاست که اگر از دستش بدهند باید خودشان را برای رویارویی با قانون آماده کنند.

ورا یوروا، کمیسر قضایی اتحادیه اروپا، از موضع موسسه اواز حمایت کرده و در توییتی گفته بود: باید ابزار لازم برای مجازات آنهایی را که دست داشتن‌شان در انتشار اطلاعات غلط ثابت می‌شود، در اختیار داشته باشیم.

هر چقدر هم که مدعی آزادی بیان و عقیده باشیم، نمی‌توان منکر آن شد که شبکه‌های اجتماعی بدون نظارت و اعمال برخی فیلترها بستری مناسب برای پخش شایعات و اطلاعات بی‌اساس فراهم می‌کنند که در بیشتر موارد آثار مخرب و جبران ناپذیری را در جوامع انسانی بر جای خواهند گذاشت.

روش مقابله اروپا با انتشار اخبار جعلی انتخاباتی

چهارشنبه, ۲۲ ارديبهشت ۱۴۰۰، ۰۳:۳۴ ب.ظ | ۰ نظر

افزایش سوءاستفاده از اینترنت برای انتشار اخبار دروغین و منحرف کننده افکار عمومی باعث شده تا کشورهای عضو اتحادیه اروپا قوانینی را در این زمینه وضع کنند.

 فارس؛ انتشار اخبار جعلی در شبکه‌های اجتماعی در چندسال اخیر به یک نگرانی جهانی تبدیل شده است؛ به ویژه وقتی پای موضوعات مهم سیاسی مثل انتخابات در میان باشد. کشورهای مختلف برای مدیریت این آسیب جدی، دست به کار شده‌اند. در مارس سال 2018 نشستی با حضور اعضای شورای اروپا با موضوع انتشار اخبار دروغین در اینترنت برگزار شد. در این نشست تهدیدهای ناشی از این روند به خصوص در شبکه های اجتماعی برای رویه های دموکراتیک و انتخابات بررسی شد و در مورد اثرات آن در زمان برگزاری انتخابات ملی و انتخابات پارلمان اروپا اظهار نگرانی شد.

 

نگرانی‌هایی که توسط سران اروپا طرح شد

این جلسه تنها چند هفته بعد از تصویب قانون امنیت سایبری توسط پارلمان اروپا برگزار شد که در آن راهکارهایی برای افزایش امنیت سایبری کسب و کارها و شهروندان اروپا در نظر گرفته شده بود. در جلسه مذکور تصریح شد که فضای مجازی می تواند به عنوان یک سلاح جنگ روانی به کار گرفته شده و افکار عمومی را بر علیه نامزدها یا احزابی خاص تحریک کند. همچنین انتشار اخبار جهت دار و مخدوش می تواند حتی موجب عدم علاقه شهروندان به مشارکت در کل فرایند انتخابات شود.

در این نشست نسبت به دوقطبی سازی شدید فضای انتخاباتی و ایجاد حس نفرت و خشم از طرف مقابل به عنوان یکی دیگر از کارکردهای منفی انتشار اخبار جعلی و دروغین هشدار داده شد. زیرا از این طریق اعتماد عمومی به کل نظام های انتخاباتی آسیب می بیند و فرصت برای بحث و تبادل نظر سازنده در مورد کل روندهای انتخاباتی از بین می رود.

مقامات اروپایی همچنین از احتمال بهره برداری کشورهای خارجی و متخاصم از ابزار اخبار جعلی برای تهدید منافع ملی، مشروعیت زدایی و کاهش مقبولیت برخی نامزدها، تحریک احساسات به منظور تخریب و آشوب و غیره خبر دادند. طراحی ربات های دروغ پراکن و سرقت اطلاعات حساس سیاسی و اجتماعی از جمله دیگر نگرانی های مطرح شده در این نشست بود.

 

چهار گام اجرایی برای مقابله با انتشار اخبار دروغین در انتخابات

در نهایت در دسامبر سال 2018 شورا و پارلمان اروپا با همکاری یکدیگر برنامه اقدام بر علیه انتشار اخبار دروغین را به تصویب رساندند که بر اساس آن چهار گام مورد توجه قرار گرفته بود. ارتقای توانمندی های نهادها و کشورهای عضو اتحادیه اروپا برای شناسایی، تحلیل و مقابله با اخبار و اطلاعات دروغین، تقویت واکنش های هماهنگ به انتشار اخبار دروغین، موظف کردن مدیران و اپراتورهای پلتفرم های دیجیتال به پاسخگویی در این زمینه و در نهایت یاری گرفتن از افراد، موسسه های معتبر و دانشگاه ها برای طراحی تصویری مشترک و درک دقیق فعالیت های مرتبط با انتشار هماهنگ شده اخبار و اطلاعات دروغین در سرویس های دیجیتال مورد استفاده شهروندان اروپایی.

 

ایجاد یک سیستم هشدار سریع

برای اجرایی شدن این برنامه یک سیستم هشدار سریع از 18 مارس سال 2019 به کار گرفته شد. این سیستم یک پلتفرم دیجیتال است که تعامل میان کشورهای اروپایی برای تبادل اطلاعات در مورد انتشار اخبار دروغین و از جمله دروغ پراکنی های انتخاباتی را تسهیل می کند و باعث هماهنگی واکنش ها به اقدامات یادشده می شود. ارتقای دفاع گروهی در برابر چنین اقداماتی توان اتحادیه اروپا برای مقابله با دروغ پراکنی های انتخاباتی را افزایش می دهد، زیرا هنوز تک تک کشورهای عضو اتحادیه اروپا فاقد استراتژی یا قوانین محلی مشخص برای مقابله با چنین تهدیداتی هستند.

 

شبکه‌های اجتماعی مشهور، موظف به همکاری شدند

در ماه های منتهی به برگزاری انتخابات پارلمان اروپا در سال 2019، اپراتورها و مدیران پلتفرم های مشهور آنلاین موظف شدند گزارش هایی را به طور منظم در زمینه مقابله با انتشار اخبار جعلی و اطلاعات دروغین تهیه و برای کمیسیون اروپا ارسال کنند. آنان همچنین موظف به همکاری با اتحادیه اروپا برای حذف اخبار و اطلاعات جعلی و حساب های منتشرکننده این اطلاعات شدند. در عین حال برخی کشورهای اروپایی نیز اقداماتی را برای وضع قوانین مقابله با اخبار و اطلاعات دروغین، آموزش شهروندان در این زمینه و افزایش آگاهی آنان به خصوص در مدارس و دانشگاه ها اجرا کردند که از جمله آنها می توان به ایتالیا اشاره کرد. در عین حال استفاده گسترده شهروندان اروپایی از برخی شبکه های اجتماعی مانند فیس بوک، توئیتر و اینستاگرام که توسط شرکت های آمریکایی اداره می شوند، موجب شده تا روند مقابله با اخبار جعلی با دشوارهایی مواجه شود.

چرا مردم اخبار جعلی را باور می کنند؟

يكشنبه, ۱۹ ارديبهشت ۱۴۰۰، ۰۲:۵۷ ب.ظ | ۰ نظر

طبق یک تحقیق در اتحادیه اروپا، شناسایی و درک چهار لایه شناختی در شبکه عصبی مغز انسان به ما کمک می کند تا دریابیم چرا افراد اخبار جعلی را باور می کنند و چرا علاقه ای به تحلیل عمیق و مناسب این نوع اخبار ندارند.

بسیاری از اخبار جعلی بسیار مضحک و بی منطق هستند و هیچ پس زمینه درستی ندارند. اما باز هم خوانندگان این خبرها را باور می کنند و با به اشتراک گذاشتن آن در شبکه های اجتماعی به انتشار هر چه گسترده‌تر این دست خبرها کمک می کنند. این روند در یک سال اخیر و همزمان با شیوع گسترده ویروس کرونا بیشتر شده و خانه نشینی بسیاری از افراد موجب افزایش تمایل به انتشار اخبار جعلی شده که این امر باعث بی‌اعتمادی به دانشمندان و مقامات رسمی شده است. سوالی که در این زمینه پیش آمده آن است که چرا مردم اخبار جعلی بی پایه و اساس را باور می کنند و چرا اجازه می دهند این اخبار فهم و درک آنها را از جهان شکل دهد. چه سازوکارهایی در ذهن افراد شکل می گیرد که باعث اعتماد به چنین اخباری می شود؟

پاسخ به این سوالات در شبکه عصبی مغز افراد نهفته است. اتحادیه اروپا برای بررسی دقیق این موضوع بودجه اجرای تحقیقی را تامین کرده که تحت نظارت و مدیریت محققان بلغارستانی در حال انجام است. هدف از انجام این پژوهش بررسی و شناسایی عملکرد لایه های شناختی مغز است تا مشخص شود آنها چگونه اخبار دروغ را مدیریت و پردازش می کنند و چه عواملی باعث می شود اشخاص این اخبار را باور کنند.

این تحقیق نشان می دهد که شناسایی و درک چهار لایه شناختی در شبکه عصبی مغز انسان به ما کمک می کند تا دریابیم چرا افراد اخبار جعلی را باور می کنند و چرا علاقه ای به تحلیل عمیق و مناسب این نوع اخبار ندارند. این لایه ها عبارتند از شناخت انگیزه، زمینه های تفکر، معادل سازی و تاکید و علیت سیستمی.

 

*۱. شناخت انگیزه

اولین لایه شناختی که باید مورد توجه قرار بگیرد، شناخت انگیزه است. این لایه نشان می دهد برداشت ما از خود در ارتباط با دیگران چگونه است و چه درکی از این موضوع داریم و همچنین تعیین می کند که ما چقدر تحت تأثیر اطلاعاتی که دریافت می کنیم قرار می گیریم.

همین لایه شناختی توضیح می دهد که چرا هر فرد به افرادی که در حلقه آشنایان اجتماعی خودش قرار دارد، اعتماد بیشتری دارد و عقائد و نظراتش را با همین افراد به اشتراک می گذارد. معمولاً اخبار و اطلاعات ارسالی این گروه توسط ما موجه و قابل اعتماد است. همچنین اخبار منتشر شده توسط محققان معتبر یا دولت هم به همین دلیل مورد پذیرش ما قرار می گیرد.

شناخت انگیزه لایه ای شناختی است که روندهای شبکه های اجتماعی را هم توضیح می دهد. ما وقتی مطلبی را در محیط آنلاین می خوانیم، احتمال پذیرش آن در صورت انتشار از سوی یک حساب کاربری تایید شده و دارای تصویری مناسب و حرفه ای از کاربر و شرحی مفصل و حرفه ای از احوالات وی بیشتر است. اما مطالب منتشر شده توسط حساب های کاربری ناشناس و بدون تصویر و شرح مناسب را چندان باور نمی کنیم. تعداد به اشتراک گذاری مطالب، تعداد لایک ها و اظهارنظرها و نیز بر روی شکل گیری تصویر کلی مد نظر ما در مورد هر مطلب تاثیرگذار است.

افرادی که قصد انتشار اخبار جعلی را دارند، می توانند از این سازوکارها سوءاستفاده کنند و مردم را فریب دهند. خالقان اخبار جعلی ابتدا اسناد رسمی منتشر شده دولت ها و مقامات و نهادهای معتبر را بازنشر کرده و در ادامه بخش هایی از آنها را به گونه ای تفسیر و تعبیر می کنند که با معنای واقعی آنها در تضاد کامل باشد.

این سازوکار بارها و بارها مورد استفاده قرار گرفته و به عنوان مثال،اوایل شیوع کرونا از سندی رسمی که توسط وزارت بهداشت ایتالیا منتشر شده بود برای بازنشر خبری دروغ در مورد ممنوع شدن کالبدشکافی فوت شدگان در اثر ابتلا به ویروس کرونا استفاده شد. این در حالی بود که در اصل سند به این موضوع اشاره ای نشده بود و تنها بخشی از آن به غلط به شکلی تفسیر و تعبیر شده بود تا خبر دروغ مدنظر استخراج شود.

از همین شیوه برای انتشار خبری دروغ در مورد تمدید سیاست های قرنطینه تا بهار سال ۲۰۲۱ در ایتالیا استفاده شده بود. این بار بیانیه نخست وزیر ایتالیا بدین منظور دستکاری شده بود.

 

* ۲. زمینه های تفکر

لایه شناختی دوم زمینه های تفکر نام دارد. وقتی ما اطلاعاتی را دریافت کرده یا در مورد چیزی فکر می کنیم، ذهن ما از طرح های مفهومی از پیش تعریف شده برای زمینه سازی در مورد آن و درک نهایی موضوع استفاده می کند. همین طرح ها تعیین کننده موافقت یا مخالفت با موضوعات مختلف خواهد بود.

قالب های فکری افراد در این زمینه بسیار وابسته به ذهنیت آنهاست و پس زمینه زندگی هر فرد، تجارب و عادات اجتماعی او در این زمینه کاملاً نقش آفرین است. هر بار ما چیزی می آموزیم که موید باورهای ذهنی قبلی باشد، آن را صحیح تصور کرده و در ذهنمان ذخیره می کنیم. اما اگر آموزش های جدید بر ضد باورهای قبلی ما باشد در برابر آن موضع می گیریم.

از همین رو اگر خبری جدید با تصورات ذهنی قبلی ما سازگار باشد، آن را پذیرفته و به حافظه می سپاریم تا دیدگاه های قبلی ما تقویت شود. در غیر این صورت داده های جدید را نمی پذیریم تا از ایجاد تضاد شناختی و سردرگمی ذهنی جلوگیری شود.

بنابراین اگر از قبل گرایشات راست گرایانه داشته باشیم، روایت های راست گرایانه از رویدادهای مختلف را بیشتر می پذیریم. بر همین اساس روایت رسانه های دست راستی از بد بودن یا خطرناک بودن مهاجرانی که از راه دریا به اروپا می رسند را به راحتی باور می کنیم. افراد معتقد به این طرز تفکر شاهد ته نشین شدن این نوع روایت ها در ذهن خود و تقویت آن از طریق مطالعه اخبار موید این دیدگاه هستند. چنین افرادی خبر جعلی پیاده شدن مهاجران در منطقه امبریای ایتالیا را که اصلاً به دریا دسترسی ندارد، به راحتی باور می کنند. در مقابل افرادی که از قبل دارای پیش زمینه های چپ گرایانه و متفاوتی در قبال مهاجران هستند نسبت به چنین اخباری بدبینی دارند و به راحتی آنها را نمی پذیرند.

یکی از جالب ترین مثال ها در این زمینه انتشار گسترده ویدئویی در مورد تشدید امکان ابتلا به کرونا به علت تشعشعات دکل های نسل پنجم تلفن همراه بوده است. این ویدئو اولین بار توسط یک تلویزیون آنلاین به نام kla.tv در سوئیس منتشر شد. در این ویدئو به طور مکرر از تصاویر مردی در حال سرفه با دستکش و کاپشن استفاده شده بود که تصویری غالب در ذهن افراد در مورد زمستان است که معمولاً با سرماهوردگی و انفولانزا همراه است. در ادامه در این تصاویر از دکل های مخابراتی نسل پنجم هم استفاده شده بود تا به دروغ بین این دو پدیده ارتباط برقرار شود.

 

*۳. معادل سازی و تاکید

این لایه شناختی مربوط به چگونگی و نحوه اطلاع رسانی به مردم است. به عنوان مثال نحوه انعکاس آمار مبتلایان به کرونا در هر کشور تصور و برداشت ما از وضعیت آن کشور در این زمینه را شکل می دهد. اگر بیان شود از ابتلای شیوع ویروس کرونا در یک کشور صدها هزار نفر مبتلا شده اند تصوری منفی از آن کشور در ذهن ما شکل می گیرد. اما اگر تاکید شود که از این افراد تنها ۵ درصد فوت شده اند، تصور ما متفاوت و تا حدی مثبت خواهد بود. این دو خبر تصوراتی متفاوت را در ذهن ما شکل می دهند که به واکنش های متفاوتی منجر می شود.

معادل سازی ذهنی ما از اخبار دریافتی و تاکید برای ته نشین شدن آن در ذهن هم به باورپذیری اخبار دستکاری شده کمک می کند. به عنوان مثال خبری منتشر شد که بر اساس آن در بیمارستان های ایتالیا زنان مجبور به استفاده از ماسک های حفاظتی در زمان تولد نوزادانشان شده اند. اما به این نکته اشاره نشد که این اجبار در بیمارستان های فرانسه، اسپانیا، کانادا و ژاپن هم وجود داشته و از همین طریق جوی منفی در مورد ایتالیا ایجاد شد. همین تاکید بر ضرورت ماسک زدن دانش آموزان ایتالیایی بدون اشاره به اجرای این پروتکل در برخی کشورهای دیگر اروپایی باعث ایجاد بدبینی به مقامات ایتالیایی شد.

 

* ۴. علیت سیستمی

آخرین لایه شناختی که به درک علت پذیرش اخبار جعلی کمک می کند، علیت سیستمی است. این لایه را می توان با علیت مستقیم مقایسه کرد، سازوکاری مبنایی که همه ما ناخودآگاه برای یادگیری چیزهای جدید و معنا سازی از جهان به کار می بریم. علیت مستقیم درک رابطه متقابل دو رویداد را برای ما ممکن می کند، زیرا ما یک رویداد را علت و دیگری را معلول تلقی می کنیم. مثلاً علت گریه یک نوزاد را گرسنگی او می دانیم یا چرخاندن کلید را در قفل عامل بازشدن آن می دانیم.

اما سازوکارهای علی و معلولی وجود دارند که درک و مشاهده آنها به صورت سریع و شفاف ممکن نیست. به عنوان مثال می توان به موضوع نژادپرستی اشاره کرد. همچنین برخی امور فنی مانند ارتباطات بی سیم یا اثرات مصرف داروها بر بدن را نمی توان به صورت واضح مشاهده کرد.

منتشرکنندگان اخبار جعلی از روابط علی و معلولی مبهم  برای باورپذیرکردن ادعاهای خود استفاده می کنند.

به عنوان مثال، گرمایش کره زمین اثرات مخرب نامحسوسی بر زندگی ما داشته است. اما این اثرات برای اکثر مردم ملموس و محسوس نیست. لذا منتشرکنندگان اخبار جعلی این موضوع را به طور کلی دروغ می دانند. در این زمینه کار به جایی رسید که دونالد ترامپ رئیس جمهور سابق آمریکا مدعی شد چون در سرمای هوا در پاییز و زمستان تغییر ملموسی رخ نداده، پس گرمایش زمین هم آن طور که ادعا می شود بد نیست. این مثالی ملموس از لایه شناختی علیت سیستمی است. باید توجه داشت که گرمایش زمین پدیده ای بسیار پیچیده است که آن را به شیوه های عادی علت ومعلولی نمی توان توضیح داد.

 

*نتیجه گیری

باید توجه داشت که انتشار اخبار جعلی و پذیرش آن حاصل وجود لایه های شناختی متعددی است که افراد را به پذیرش اخبار مذکور وادار کرده و آنها را در این زمینه اقناع می کند. درک سازوکارهای منتهی به تاثیرگذاری این لایه های شناختی به ما کمک می کند تا از خود در برابر پذیرش اخبار جعلی حفاظت کنیم و بهتر بتوانیم این خبرها را شناسایی و حذف کنیم. همچنین باید توجه داشت که به منظور افزایش توان افراد برای حفاظت از خود در برابر اخبار جعلی باید به آنها آموزش های بیشتری داده شود.(منبع:فارس)