ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۱۳۴ مطلب با کلمه‌ی کلیدی «اخبار جعلی» ثبت شده است

تحلیل


جعل عمیق و خلاء قوانین در کشور

شنبه, ۱۷ آذر ۱۴۰۳، ۰۴:۲۱ ب.ظ | ۰ نظر

یک وکیل دادگستری گفت: تدوین مقررات جامع و اجرای دقیق آن‌ها، نه‌تنها به حفاظت از حقوق شهروندان کمک می‌کند، بلکه اعتماد عمومی به نظام حقوقی و اجتماعی را نیز تقویت خواهد کرد.

به گزارش خبرنگار مهر، دیپ‌فیک یا تکنولوژی همانندسازی صوتی تصویری غیرواقعی، یک فناوری پیچیده و تقریباً جدید مبتنی بر هوش مصنوعی است. این فناوری با استفاده از الگوریتم‌های یادگیری عمیق (Deep Learning) و فناوری هوش مصنوعی این امکان را به کاربران می‌دهد تا از صدا و تصاویر واقعی، صدا و تصاویری غیرواقعی بسازد و محتوایی تولید کند که امکان تشخیص غیرواقعی بودن آن بسیار سخت و حتی غیرممکن است. با پیشرفت این فناوری احتمال سوءاستفاده و کلاهبرداری از آن توسط مجرمان و جرایم سایبری نیز افزایش پیدا کرده است.

در همین راستا، شهرام مختاری وکیل پایه یک دادگستری در گفتگو با خبرنگار مهر درباره فناوری‌های نوین و موضوعات حقوقی اظهار کرد: فناوری ایجاد محتوا جعلی هوشمند (Deepfake) یکی از پیشرفت‌های نوین در عرصه فناوری است که قابلیت بازسازی تصاویر، ویدئوها و حتی صداهای افراد را دارد. شاید این فناوری در زمینه‌هایی مانند سینما، بازی‌های رایانه‌ای و آموزش به‌عنوان ابزاری خلاقانه کاربرد دارد، اما در صورت استفاده نادرست، تهدیدی جدی برای حریم خصوصی، امنیت عمومی و حیثیت افراد محسوب می‌شود. به همین دلیل، نیاز به بررسی ابعاد حقوقی و تنظیم مقررات دقیق برای مواجهه با آثار منفی آن احساس می‌شود.

چالش‌های حقوقی فناوری‌های نوین

وی ادامه داد: یکی از چالش‌های عمده این فناوری، توانایی تولید محتوای جعلی برای تخریب شخصیت‌ها یا جعل هویت افراد است. انتشار ویدئویی که شخصی سرشناس را در حال انجام اعمال غیراخلاقی یا بیان اظهارات نادرست نشان می‌دهد، می‌تواند به حیثیت فرد لطمه بزند و پیامدهای اجتماعی یا سیاسی گسترده‌ای ایجاد کند. ماده ۶۹۸ قانون مجازات اسلامی به جرم‌انگاری نشر اکاذیب پرداخته و هرگونه انتشار اطلاعات نادرست با هدف تخریب حیثیت یا تشویش اذهان عمومی را ممنوع کرده است. به عنوان مثال، اگر ویدئویی جعلی از یک مقام رسمی منتشر شود که اظهارات حساس و نادرستی به او نسبت دهد، می‌تواند باعث ایجاد بحران‌های سیاسی یا اجتماعی شود.

این وکیل دادگستری گفت: در حوزه حریم خصوصی، استفاده از چهره، صدا یا تصاویر افراد بدون رضایت آن‌ها نقض آشکار حقوق شهروندان محسوب می‌شود. اصل ۲۲ قانون اساسی ایران صراحتاً حمایت از حیثیت و حقوق افراد را تضمین می‌کند. همچنین، ماده ۱۶ قانون جرایم رایانه‌ای استفاده غیرمجاز از اطلاعات شخصی را جرم‌انگاری کرده است. اگر تغییر محتوای بصری یا صوتی افراد موجب تخریب حیثیت آنان شود، ماده ۱۷ همین قانون امکان برخورد قانونی را فراهم می‌آورد.

وی افزود: از دیگر نگرانی‌های مرتبط با این فناوری، امکان استفاده از آن برای تهدید و اخاذی است. طبق ماده ۶۶۹ قانون مجازات اسلامی، تهدید افراد به افشای اطلاعات حتی جعلی جرم تلقی می‌شود. اگر شخصی با ارسال ویدئویی جعلی، فردی را تهدید به انتشار محتوا کند و از او طلب پول یا اطلاعات شخصی کند، این عمل نقض قانون است و قابلیت پیگرد دارد.

 

خلأهای قانونی در مواجهه با فناوری‌های نوین

مختاری بیان کرد: قوانین فعلی کشور ما از برخی ظرفیت‌ها برای برخورد با این فناوری را دارند، اما این مقررات مستقیماً برای مسائل پیچیده ناشی از فناوری‌های پیشرفته تدوین نشده‌اند. به طور مثال، تشخیص محتوای جعلی تولیدشده نیازمند ابزارهای تخصصی و دانش فنی است که در قوانین به آن اشاره‌ای نشده است. همچنین، هیچ سازوکاری برای نظارت بر تولیدکنندگان محتوا یا الزام آن‌ها به ثبت هویت در پلتفرم‌های دیجیتال وجود ندارد.

راهکارهای پیشنهادی

وی گفت: برای مواجهه با پیامدهای حقوقی و اجتماعی فناوری ایجاد محتوا جعلی هوشمند، تدوین «مقررات جامع و شفاف» ضروری است. در ابتدا لازم است تعریف دقیق و قانونی از این فناوری و مصادیق سوءاستفاده از آن ارائه شود تا مبنایی روشن برای اعمال قانون فراهم شود. جرم‌انگاری سوءاستفاده‌هایی مانند جعل هویت، نشر اکاذیب، تهدید و نقض حریم خصوصی باید به‌طور خاص در قوانین پیش‌بینی شود. همچنین، پلتفرم‌های دیجیتال و رسانه‌های اجتماعی باید ملزم شوند که از فناوری‌های پیشرفته برای شناسایی و تشخیص محتوای جعلی استفاده کنند و در صورت شناسایی چنین محتواهایی، سازوکارهایی برای حذف فوری آن‌ها ایجاد شود.

این وکیل دادگستری اظهار کرد: همچنین تدوین قوانینی که تولیدکنندگان و کاربران این فناوری را ملزم به ثبت هویت و پاسخ‌گویی کند، ضروری است. آموزش و آگاهی‌بخشی به عموم مردم در مورد ماهیت این فناوری و خطرات بالقوه آن، به‌ویژه از طریق رسانه‌ها و نهادهای آموزشی، می‌تواند نقش مهمی در کاهش آسیب‌های اجتماعی و حقوقی ناشی از آن ایفا کند. در نهایت، حمایت از توسعه فناوری‌های بومی برای تشخیص فناوری بازسازی جعلی هوشمند و تقویت همکاری بین‌المللی در مبارزه با سوءاستفاده‌های مرتبط با آن، از دیگر اقدامات ضروری است که باید در دستور کار قرار گیرد.

نتیجه‌گیری

مختاری در پایان گفت: فناوری ایجاد محتوا جعلی هوشمند (Deepfake)، شاید در حوزه‌های هنری، آموزشی و علمی کاربردهای مثبت دارد، اما سوءاستفاده از آن می‌تواند پیامدهای مخربی بر حریم خصوصی، امنیت عمومی و اعتماد اجتماعی داشته باشد. قوانین موجود در ایران ظرفیت‌هایی برای مقابله با این فناوری دارند، اما برای مقابله مؤثر با ابعاد پیچیده آن کافی نیستند. تدوین مقررات جامع و اجرای دقیق آن‌ها، نه‌تنها به حفاظت از حقوق شهروندان کمک می‌کند، بلکه اعتماد عمومی به نظام حقوقی و اجتماعی را نیز تقویت خواهد کرد. این فناوری آزمونی برای پویایی نظام حقوقی در مواجهه با چالش‌های پیش رو در حوزه فناوری‌های نوین خواهد بود.

تاثیر مخرب هوش مصنوعی بر اطلاعات جهانی

سه شنبه, ۶ آذر ۱۴۰۳، ۱۱:۲۸ ق.ظ | ۰ نظر

آزاده کیاپور - پنل بین‌المللی محیط اطلاعاتی The International Panel on the Information Environment (IPIE)، یک سازمان جهانی مستقل است که دانش علمی و کاربردی درباره تهدیدات برای ترسیم چشم‌انداز اطلاعاتی به ما ارائه می‌کند.

دیپ‌فیک به عنوان یک فناوری پیشرفته هوش مصنوعی، توانسته تصاویر و ویدیو‌هایی جعلی، اما واقعی‌نما تولید کند که تشخیص آنها را دشوار کرده است. با رشد حملات سایبری و کلاهبرداری دیجیتال، این فناوری به تهدیدی جدی برای امنیت اطلاعات و هویت افراد تبدیل شده است.

خبرگزاری میزان - مطمئناً در سال‌های اخیر، عکس‌ها و فیلم‌های بسیاری دیده‌اید که شکی نداشتید که کاملا واقعی است، اما با جست‌وجوی اخبار متوجه شدید که کاملا جعلی بوده؛ این جادوی فناوری دیپ‌فیک است.

در سال‌های اخیر، عکس‌ها و فیلم‌های جعلی بسیاری از افراد مشهور با استفاده از فناوری «دیپ‌فیک» ساخته و در فضای مجازی منتشر شده است و به دنبال آن بینندگان بدون توجه به واقعی بودن آن، فیلم‌ها و تصاویر منتشر شده را باور کرده و از طریق اشتراک‌گذاری، به انتشار بیشتر آن کمک کردند.

تصاویر و فیلم‌هایی که هیچ‌گونه انطباقی با حقیقت ندارند، اما آنقدر واقعی است که به‌سختی می‌توان متوجه جعلی بودن آن‌ها شد. بسیاری از سیاست‌مداران معروف همچون ترامپ و اوباما و بازیگران و سلبریتی‌ها و مدیران مطرح دنیای فناوری مانند تیلور سوییفت و مارک زاکربرگ، همگی از افرادی بودند که در چند سال اخیر به واسطه عکس‌ها و فیلم‌های جعلی یا سخنرانی‌های ساختگی، به‌نوعی درگیر این فناوری دردسرساز شده‌اند.

به نحوی که در فرایند برگزاری انتخابات ریاست‌جمهوری آمریکا، برخی شرکت‌های نرم‌افزاری بزرگ دنیا طرحی برای انجام اقدامات جدی‌تری در مبارزه با اخبار جعلی و دیپ‌فیک را در نظر گرفتند و حتی سازمان اطلاعات آمریکا (FBI) نیز طی بیانیه‌ای درباره ویدئو‌هایی که با استفاده از دیپ‌فیک ساخته شد و پیش از برگزاری انتخابات در فضای مجازی منتشر شد، هشدار داده بود.

دیپ فیک چیست؟

دیپ فیک (DeepFake) یک تکنولوژی تقریبا جدید در حوزه هوش مصنوعی است. اصطلاح «دیپ فیک» یا «جعل عمیق» از ترکیب دو واژه Deep به معنای عمیق و Fake به معنای جعلی و دروغین ساخته شده است.

سال ۲۰۱۴ میلادی شخصی به‌نام یان گودفلو (Ian Goodfellow)؛ یکی از پژوهشگران حوزه یادگیری ژرف و هوش مصنوعی، سیستم شبکه مولد تخاصمی (Generative Adversarial Network به اختصار GAN) شامل دو مدل مولد و متمایزگر را، به دنیای تکنولوژی معرفی کرد؛ شبکه‌های رقابتی مولد به‌عنوان ابزاری در سیستم‌های هوش مصنوعی برای تولید عکس‌ها و ویدیو‌های ساختگی (که در حال حاضر دیپ‌فیک نامیده می‌شود)، به کار می‌روند.

وقتی تکنولوژی مرز واقعیت و دروغ را از بین می‌برد / حملات دیپ فیک هر پنج دقیقه یکبار اتفاق می‌افتد

این کشف جدید پس از سه سال، توسط فردی در ساخت یک ویدئو به کار گرفته شد و کاربری که این فناوری را در سال ۲۰۱۷، استفاده کرد نام آن ویدئو را «دیپ‌فیک» گذاشت و ژانر جدیدی با نام «دیپ‌فیک» خلق شد.

به این ترتیب، فناوری هوش مصنوعی مرز‌های تکنولوژی را در حوزه «جعل» بسیار پیش برد و اگر در گذشته امکان داشت تنها یک عکس، توسط نرم‌افزار‌های گرافیکی دستکاری شود و چیزی خلاف واقع یا به قول معروف فتوشاپی، به بیننده ارائه شود، امروزه فناوری خطرناکتری ایجاد شد که می‌تواند چهره و صدای افراد را به‌طرز شگفت‌آوری جابه جا و یا تقلید کند و در قالب ویدیو‌های باورپذیر منتشر کند.

فناوری دیپ‌فیک می‌تواند بر مبنای هوش مصنوعی، تصاویر و ویدیو‌های جعلی، اما «واقعی‌نما» تولید کند و هر فردی را تحت تاثیر خود قرار دهد.

دیپ فیک‌ها با بهره‌گیری از یادگیری ژرف (Deep Learning) و حجم عظیمی از داده‌ها و شبکه عصبی مصنوعی ساخته می‌شوند و نتیجه محاسبات پیچیده‌ای هستند که می‌توانند به‌عنوان مثال از دو منبع تصویری مجزا، یک ویدیوی جعلی جدید بسازند، این دستکاری تنها به ویدیو خلاصه نمی‌شود و با استفاده از آن می‌توان صدا را هم جعل کرد به نحوی که شخصی جمله‌ای را در یک فیلم بگوید که هیچ‌گاه در واقعیت نگفته است.

با وجود اینکه در سال‌های اخیر، بر سواد رسانه‌ای و توجه به «سند» و «واقعیت» برای پرهیز از فریب خوردن با محتوا‌های جعلی تاکید شده، اما با پیشرفت این فناوری، به نوعی سند‌ها و فکت‌های جعلی تولید شده است و این امر گاهی تشخیص حقیقت را غیرممکن کرده است که موضوعی بسیار خطرناک است.

افزایش کلاهبرداری و جرایم سایبری با استفاده از هوش مصنوعی و دیپ‌فیک

از آنجا که مجرمان سایبری با پیشرفت راه‌های امنیتی در فضای دیجیتال، به تطبیق تکنیک‌ها و روش‌های خود برای یافتن راه‌های جدید ادامه می‌دهند و به دنبال کشف روش‌های جدیدتری هستند، کلاهبرداری با کمک هوش مصنوعی در سطح جهانی به‌طور فزاینده‌ای در حال رشد است.

تحقیقات نشان می‌دهد، در سال ۲۰۴۴ برای اولین بار، جعل اسناد دیجیتال از جعل اسناد فیزیکی، بیشتر شده است و جعل دیجیتال ۵۷ درصد از کل تقلب در اسناد را به خود اختصاص داد.

طبق تحقیقات جهانی، در سال ۲۰۲۴ هر پنج دقیقه یک حمله دیپ‌فیک اتفاق می‌افتد، و جعل اسناد دیجیتال ۲۴۴ درصد نسبت به سال قبل افزایش پیدا کرده است.

این تحقیقات نشان‌دهنده افزایش ۲۴۴ درصدی جعل اسناد دیجیتال در سال ۲۰۲۴ نسبت به سال ۲۰۲۳ و افزایش ۱۶۰۰ درصدی نسبت به سال ۲۰۲۱ است که در آن سال تقریباً تمام اسناد تقلبی جعلی، اسناد فیزیکی بودند.

با افزایش روش‌های کلاهبرداری به کمک هوش مصنوعی، کلاهبرداران اکنون می‌توانند از حملات پیچیده‌تری در مورد اسناد، به ویژه کارت‌های شناسایی (۴۰.۸ ٪ از حملات در سطح جهانی) استفاده کنند.

کلاهبرداران سایبری از پلتفرم‌های «X as a service» (هر نوع سرویسی که بتوان در محیط اَبر و از هر جای دنیا و در لحظه ارائه کرد، مانند خدمات زیرساخت و نرم افزارها) برای فیشینگ، کلاهبرداری و باج‌افزار استفاده می‌کنند.

اشتراک‌گذاری دانش «best practices» (روال مطلوب: روش یا تکنیکی که منجر به نتایج بهتری نسبت به روش‌های دیگر شده و به‌دلیل اینکه به‌طور عام توسط گروهی از افراد خبره یک رشته یا موضوع پذیرفته شده، به‌عنوان یک شاخص استفاده می‌شود.) و استفاده از ابزار‌های هوش مصنوعی مولد GenAI (نوعی از هوش مصنوعی که محتوای جدیدی مانند متن، تصاویر، فیلم و صدا تولید می‌کند) ایجاد حملات جعل دیجیتال و حملات تزریقی (Injection) پیچیده را تسهیل می‌کند.

در یک حمله از نوع تزریقی، مهاجم یک برنامه با ورودی مشکوک را تحت تأثیر قرار می‌دهد، به این صورت که مفسّر وب این ورودی را به‌عنوان بخشی از یک دستور پردازش می‌کند و نحوه اجرای آن نرم افزار را تغییر می‌دهد.

حملات تزریقی، قدیمی‌ترین و مضرترین حملات علیه برنامه‌های کاربردی وب هستند، این حملات ممکن است منجر به از دست دادن داده‌ها، از بین رفتن یکپارچگی داده‌ها، سرقت داده‌ها، انکار سرویس و به خطر افتادن کلی سیستم شود، معمولاً اصلی‌ترین علت آسیب‌پذیری از طریق حملات تزریقی اعتبار سنجی ناکافی ورودی کاربران است.

افزایش کلاهبرداران آماتور و غیرسازمان‌یافته

هرچند از لحاظ تاریخی، بزرگترین تهدید‌ها از طریق حلقه‌های کلاهبرداری سازمان‌یافته بوده است. اما با توجه به تحقیقات انجام شده، احتمالاً با پیشرفت تکنولوژی در زمینه هوش مصنوعی، تعداد کلاهبرداران آماتور و مجرمان غیرسازمان‌یافته افزایش پیدا می‌کنند، که این افراد هم حجم حملات و هم تعداد حملاتی که از تکنیک‌های پیچیده استفاده می‌کنند، را افزایش می‌دهند.

دیپ‌فیک، به این دلیل مورد توجه سازمان‌های جهانی قرار گرفته است، که ترفند‌های کلاهبرداری در فضای مجازی مانند فیشینگ، که تشخیص آن‌ها نسبتاً راحت است، به‌سرعت جای خود را به دیپ‌فیک‌های بیش از حد واقعی و هویت‌های مصنوعی تولید شده توسط هوش مصنوعی می‌دهد.

افزایش نرم‌افزار‌های تعویض چهره و ابزار‌های GenAI به کلاهبرداران این امکان را می‌دهد تا حملات کلاهبرداری بیومتریک (جعل هویت اشخاص) را بسیار باورپذیر انجام دهند. ظرفیت استفاده مخرب از این فناوری بسیار گسترده است و شامل افتتاح حساب‌های تقلبی، تصاحب حساب، کلاهبرداری‌های فیشینگ و کمپین‌های اطلاعات نادرست می‌شود.

حوزه‌های مالی؛ هدف اصلی مجرمان

سه هدف اصلی مجرمان در سطح جهان (سال ۲۰۲۴) همگی مربوط به خدمات مالی در سه حوزه رمزارزی، بانکی و بانک‌های سنتی بود، به‌طوری که تلاش برای کلاهبرداری در حوزه ارز‌های دیجیتال تقریباً دو برابر تعداد تلاش‌ها در مقایسه با سایر حوزه‌ها بود.

پلتفرم‌های کریپتو (رمزارزی) بالاترین آمار در زمینه تلاش برای کلاهبرداری را به خود اختصاص داده‌اند که نسبت به سال گذشته ۵۰ درصد افزایش یافته و از ۶.۴ درصد در سال ۲۰۲۳ به ۹.۵ درصد در سال ۲۰۲۴ رسیده است. این موضوع می‌تواند به دلیل رسیدن رمزارز‌ها به بالاترین قیمت خود در سال ۲۰۲۴ باشد و این موضوع، فعالیت در زمینه رمزارز‌ها را برای کلاهبرداران بسیار جذاب کرده است.

بنابراین، تغییرات بسیاری که در چشم‌انداز کلاهبرداری جهانی، از طریق افزایش قابل توجه حملات پیشرفته و مبتنی بر هوش مصنوعی ایجاد شده است، هشداری است که همه مدیران کسب‌وکار‌ها و کاربران باید آن را جدی بگیرند.

آخرین اطلاعات و داده‌ها نیز بر این روند هشداردهنده تأکید می‌کند و نشان می‌دهد که کلاهبرداران چگونه به سرعت در حال تکمیل و بهبود روش‌ها و تکنیک‌های خود هستند. از آنجا که این تهدید‌های فراگیر، دولت و افراد را به طور یکسان تحت تأثیر قرار می‌دهند، تیم‌های امنیتی برای پیش افتادن از کلاهبرداران، باید استراتژی‌های خود را دائما به روزرسانی کنند و با روش‌های جدید تطبیق دهند، و نظارت بر این تهدید‌ها را در اولویت قرار دهند و سازمان‌های خود را برای رویارویی با این واقعیت جدید آماده کنند. این موضوع امری اجتناب‌ناپذیر است که راه فراری از آن وجود ندارد.

چگونه دیپ فیک را تشخیص دهیم؟

هرچند توجه رسانه‌ها و کاربران اینترنتی به پدیده «دیپ‌فیک» کم‌رنگ شده است اما، تکنیک دیپ‌فیک همچنان در فهرست تکنولوژی‌های شگفت‌آور قرار دارد و پژوهشگران بسیاری در حال بهبود روش‌های آن هستند.

برای کشف و جلوگیری از گسترش دیپ‌فیک نیز باید از هوش مصنوعی کمک گرفت. در حال حاضر، راه‌هایی وجود دارد تا یک عکس یا ویدیوی جعلی را تشخیص داد. دقت در نشانه‌های زیر می‌تواند به تشخیص یک تصویر یا ویدئوی جعلی کمک می‌کند:

  • وجود ناهماهنگی در پوست یا موی شخص؛ مخصوصا جایی که تار‌های مو در حاشیه عکس قابل مشاهده است. 
  • دقت به لبه صورت‌های جابه‌جا شده؛ تکنولوژی دیپ فیک هنوز نمی‌تواند لبه‌های چهره را بدون نقص جابه‌جا کند و در طول یک ویدیو، هنگام حرکت سر سوژه، احتمال زیادی دارد که بشود دیپ فیک را تشخیص داد.
  • دقت در نورپردازی تصویر؛ جواهرات و دندان‌هایی که بازسازی بدی دارند و افکت‌های نورپردازی عجیبی مانند انعکاس نور در چشم، می‌تواند دیپ‌فیک را لو دهد.
  • دقت به نور عکس یا فیلم؛ اکثر الگوریتم‌های دیپ‌فیک نور فیلمی را که به‌عنوان مدل برای فیلم جعلی مورد استفاده قرار گرفته حفظ می‌کند، که با نورپردازی در ویدیوی هدف مطابقت ندارد.
  • عدم تطابق صدای ویدیو با حرکات دهان شخص؛ مخصوصا اگر صدای اصلی فیلم جعلی با دقت دستکاری و تنظیم نشده باشد.

علی شمیرانی -   در حالیکه مردم و مقامات کشورهای زیادی در دنیا تحت شنودهای جهانی و عملیات‌های نفوذ سایبری آمریکا هستند، حالا برخی رسانه‌های این کشور مدت‌هاست که مدعی قربانی شدن آمریکا به واسطه نفوذهای سایبری خارجی در انتخابات این کشور شده‌اند.

خبر جعلی کارگاه تولیدی را تعطیل کرد

يكشنبه, ۴ آذر ۱۴۰۳، ۰۴:۳۶ ب.ظ | ۰ نظر

 

رئیس پلیس فتای تهران از شناسایی و کشف پرونده‌ای با موضوع نشر اکاذیب علیه فعالیت یک کارگاه تولیدی در کشور خبر داد.
سردار داود معظمی گودرزی؛ رئیس پلیس فتای تهران بزرگ اظهار کرد: در پی مراجعه نماینده حقوقی یک کارگاه تولیدی به پلیس فتای پایتخت مبنی بر نشر اکاذیب علیه فعالیت این شرکت در شبکه اجتماعی اینستاگرام توسط فرد یا افرادی ناشناس، اقدامات اولیه برای کشف پرونده آغاز شد.

رئیس پلیس فتای پایتخت ادامه داد: پس از ارائه مستندات توسط شاکی و بررسی‌های علمی و فنی توسط کارشناسان پلیس فتای تهران بزرگ متهم که مرد جوانی بود در فضای مجازی شناسایی و پس از تشریفات قضایی در یکی از شهر‌های حومه تهران دستگیر و به‌همراه تجهیزات الکترونیک به پلیس فتا منتقل شد.

این مقام انتظامی بیان کرد: متهم پس از حضور در پلیس فتای پایتخت در ابتدا منکر بزه انتسابی شد؛ اما پس از مواجه‌شدن با دلایل، مدارک و مستندات موجود در پرونده، چاره‌ای جز اعتراف پیشِ‌روی خود ندید و هدف خود را از این موضوع انتقام‌جویی و داشتن کینه‌ای قدیمی از شاکی اعلام کرد و از عمل مجرمانه خود پشیمان بود.

رئیس پلیس فتای تهران بزرگ توصیه کرد: رعایت اصل اخلاق‌مداری در استفاده از فضای مجازی به‌ویژه شبکه‌های اجتماعی یکی از الزامات فعالیت در این حوزه است و کاربران فضای مجازی باید مراقب رفتار خود در فضای مجازی باشند تا از روی جهل یا انتقام‌جویی برای دیگر کاربران ایجاد مزاحمت ننمایند که در غیر این صورت برابر قانون با آنها برخورد می‌شود.

سردار معظمی گودرزی خاطرنشان کرد: پلیس فتا به‌صورت شبانه‌روزی آماده پاسخگویی به شهروندان است و کاربران می‌توانند در صورت مواجهه با هرگونه موارد مشکوک آن را از طریق مرکز فوریت‌های سایبری به‌شماره تلفن ۰۹۶۳۸۰ و یا سایت پلیس فتا به‌آدرس www.fata.gov.ir با ما در میان بگذارند.

ارائه مدلی جدید برای شناسایی اخبار جعلی

چهارشنبه, ۱۶ آبان ۱۴۰۳، ۰۳:۳۰ ب.ظ | ۰ نظر

پژوهشگران مدلی طراحی کردند که قادر است اخبار جعلی را با پردازش هم‌زمان داده‌های متنی و تصویری شناسایی کند.

به گزارش ایرنا از وبگاه تِک‌اِکسپلور، ظهور اینترنت نحوه دسترسی افراد و به اشتراک‌گذاری اطلاعات را تغییر داده و انتشار اخبار مغرضانه، نامطمئن یا نادرست را برای افرادی که سوءنیت دارند، آسان‌تر کرده است. پیشرفت‌های اخیر فناوری، از جمله مدل‌های هوش مصنوعی که می‌توانند متن، صدا و تصویر تولید کنند، بیشتر به این موج اطلاعات نادرست کمک می‌کنند.

در سال‌های اخیر، تفکیک اخبار واقعی و جعلی به طور فزاینده‌ای دشوار شده است، که زمینه مساعدی برای جهل، سردرگمی و قطبی‌شدن فراهم می‌کند؛ بنابراین، ساخت ابزارهای مؤثر برای شناسایی و حذف سریع اخبار جعلی برخط (آنلاین) از وبگاه‌ها و موتورهای جست‌وجوی محبوب، از اهمیتی فوق‌العاده برخوردار است.

 

شناسایی اخبار جعلی با یک مدل جدید

 

پژوهشگران دانشگاه ملی یانگ مینگ چیائو تونگ، دانشگاه چانگ هوآ و دانشگاه ملی ایلان در تایوان به‌تازگی یک مدل جدید بر اساس ترکیب چند نوع داده طراحی کرده‌اند که به شناسایی سریع اخبار جعلی برخط کمک می‌کند. این مدل قادر است اخبار جعلی را با پردازش داده‌های متنی و تصویری، به جای یک نوع داده، شناسایی کند.

پژوهشگران تصمیم گرفتند برای موفقیت بیشتر در تشخیص اخبار جعلی، مدلی جایگزین بسازند که به طور هم‌زمان ویژگی‌های متنی و بصری اخبار برخط را تجزیه‌وتحلیل کند. مدلی که آن‌ها طراحی کردند ابتدا داده‌ها را پاک سپس این ویژگی‌ها را از داده‌های تمیز استخراج می‌کند.

در آزمایش‌های اولیه مشخص شد این مدل اخبار جعلی را بهتر از روش‌های تثبیت‌شده‌ای که بر اساس یک نوع داده طراحی شده‌اند، از جمله بِرت (BERT) تشخیص می‌دهد.

گزارش این پژوهش در مجله پیشرفت علم (Science Progress) منتشر شده است.

فیک‌نیوزها راهزنان حقیقت!

سه شنبه, ۱۷ مهر ۱۴۰۳، ۰۳:۳۴ ب.ظ | ۰ نظر

در حال‌حاضر انبوه اطلاعات جعلی و مغرضانه در فضای‌مجازی و مرز غیرقابل تشخیص آنها با واقعیت، شرایط پیچیده‌ای را رقم زده است.

احتمالا برای شما هم پیش آمده که خبری را از کسی شنیده یا به صورت آنلاین مشاهده کرده باشید و به واسطه آن خبر، نگران، ترسیده و خشمگین شده‌اید یا احساسات دیگری را تجربه کرده‌اید. اما پس از مدتی متوجه شده‌اید که این خبر سندیت نداشته و به بیان دیگر، گول خورده‌اید؛ به این قبیل اخبار که بدون هیچ مدرک مشخصی باب می‌شوند و جمعیت زیادی را با خود همراه می‌کنند، اما منبع مشخصی ندارند و هیچ‌کس نمی‌داند که از کجا آمده‌اند، فیک‌نیوز گفته می‌شود.

اخبار جعلی یا فیک‌نیوز، مسأله جدی دوران ماست. این روز‌ها ما بیش از هر زمانی در معرض اخبار بی‌منبع و ناموثق هستیم و اگر هوشیار نباشیم، هم به‌راحتی باورشان می‌کنیم و هم به دیگران انتقال می‌دهیم. رواج انتشار اطلاعات نادرست در شبکه‌های اجتماعی مانند فیسبوک و ایکس (توئیتر سابق) و گسترش دیپ‌فیک‌های تولیدشده توسط هوش‌مصنوعی، این روز‌ها بی‌رحمانه بر حقایق و واقعیت‌ها می‌تازند و به تعبیر علیرضا چابکرو، استاد دانشگاه تهران بحران‌های اجتماعی را رقم می‌زنند.
 به زبان ساده فیک‌نیوز دروغ‌هایی هستند که آگاهانه و عامدانه ساخته شده و در قالب خبر منتشر می‌شوند تا مردم را گمراه کنند. 
 
بی‌رحم مثل فضای‌مجازی!
سال‌هاست که شبکه‌های اجتماعی در انتشار گسترده اخبار و اطلاعات از جمله اخبار جعلی بسیار موثر بوده‌اند. آمار‌ها نشان می‌دهند که در حال‌حاضر نزدیک به ۴.۹میلیارد نفر در دنیا کاربر شبکه‌های اجتماعی هستند که روزانه درصد زیادی از این افراد اطلاعات نادرست را در شبکه‌های اجتماعی می‌بینند و منتشر می‌کنند. یک نظرسنجی در دسامبر ۲۰۲۰ (آذرماه ۱۳۹۹) نشان داد ۳۸.۲ درصد از مخاطبان اخبار در آمریکا، ناخواسته اخبار جعلی یا اطلاعات اشتباه را در شبکه‌های اجتماعی به اشتراک گذاشته‌اند. علیرضا چابکرو، پژوهشگر ارتباطات و رسانه و استاد دانشگاه تهران در گفتگو با جام‌جم با بیان این‌که شبکه‌های اجتماعی، شبکه‌های قابل‌اتکایی نیستند و صحت و درستی اخبار منتشر‌شده در آنها مشخص نیست، می‌گوید: این فضا به‌شدت بی‌رحم است، زیرا بسیاری از صفحات و ناشران محتوا در شبکه‌های اجتماعی حتی چهارچوب‌های رسانه‌ای را رعایت نمی‌کنند.

 وی با اشاره به این‌که در شبکه‌های اجتماعی قابلیت پیگیری درست و غلط اخبار به‌طور مستمر وجود ندارد، می‌افزاید: در خارج از این شبکه‌ها اگر سایتی مطلبی کذب و دروغ منتشر کند، به‌راحتی می‌توان آن را پیگیری کرد، اما در شبکه‌های اجتماعی به‌دلیل انبوه محتوا و اخبار فیک و نادرست نمی‌توان همه آنها را پیگیری و شناسایی کرد. البته اگر وضعیت خیلی بغرنج شود، قوه قضاییه و سازمان‌های امنیتی به آن ورود می‌کنند، اما معمولا در شرایط بحرانی و بمباران خبری، این وضعیت تا حد زیادی از کنترل خارج می‌شود.
 
طعنه اخبار جعلی به عقب‌ماندگی رسانه‌ها 
در حال‌حاضر انبوه اطلاعات جعلی و مغرضانه در فضای‌مجازی و مرز غیرقابل تشخیص آنها با واقعیت، شرایط پیچیده‌ای را رقم زده است. استاد دانشگاه تهران در خصوص ساماندهی این وضعیت می‌گوید: باید سازمان‌های رسمی رسانه‌ای مثل خبرگزاری‌ها و روزنامه‌ها علاوه‌بر انجام رسالت سازمانی و صنفی خود، به محتوا‌های منتشرشده در شبکه‌های مجازی هم توجه داشته باشند و سرعت خود را در اطلاع‌رسانی نسبت به اخبار جعلی وایرال شده بالا ببرند. متاسفانه اکنون رسانه‌های ما از بسیاری از اخبار و شایعات عقب هستند، چیزی هم که عقب باشد نمی‌تواند با اخبار جعلی مقابله کند. علاوه‌بر آن ما باید یک سازمان استاندارد خبری ایجاد کنیم تا مردم بتوانند به آن رجوع کنند و درستی اخبار را از آن پیگیری کنند، البته نکته قابل‌توجه این است که این سازمان برای جلب اعتماد مردم نباید دولتی یا وابسته به جای خاصی باشد یا درمورد مسائل سوگیری کند. 
 
عمقی که به سطح رنگ باخته!
چابکرو در خصوص راهکار غرق‌نشدن در انبوه اخبار جعلی و آسیب‌های آن می‌گوید: رسانه‌ها باید قدرت تجزیه و تحلیل افراد را بالا ببرند؛ چراکه یکی از ویژگی‌های فضای‌مجازی این است که مردم را بسیار سطحی نگه‌می‌دارند. به همین دلیل است که فالوئر‌های یک فودبلاگر بسیار بیشتر از یک صفحه تحلیلی و پژوهشی است! وی می‌افزاید: مسئولان باید هنرمندانه کاری کنند که یک لایه عمیق‌تر در ذهن افراد نسبت به مسائل مختلف شکل دهند. ما باید یک همت قوی روی آموزش‌وپرورش بگذاریم و سعی کنیم سواد رسانه‌ای را از دوران کودکی به افراد یاد بدهیم. 

 

نظام‌نامه هوش‌مصنوعی تدوین نکنیم، بیچاره خواهیم شد!
این روز‌ها فناوری دیپ‌فیک از هوش‌مصنوعی برای تولید‌محتوای صوتی وتصویری دستکاری‌شده استفاده می‌کند؛ این محتوا به‌گونه‌ای است که واقعی به نظر می‌رسد. توانایی دیپ‌فیک‌ها در انتشار اطلاعات نادرست، چالش‌های جدی ایجاد می‌کند و می‌تواند تاثیر قابل‌توجهی در انتخابات داشته باشد. چابکرو در این‌باره می‌گوید: ما باید برای پدیده‌هایی مثل هوش‌مصنوعی که تاثیرات عمیق و شگرفی دارند، یک نظام‌نامه تدوین کنیم؛ اگر این کار انجام نشود بیچاره خواهیم شد! همان‌طور که پزشکان در نظام‌نامه خود شروطی بابت حق طبابت دارند، آن شخصی هم که هوش‌مصنوعی را ایجاد و استفاده می‌کند نیز باید یک چهارچوب را رعایت کند. این استاد دانشگاه تهران ادامه می‌دهد: ما نمی‌توانیم جلوی ورود تکنولوژی و هوش‌مصنوعی را بگیریم، اما باید آن را در یک قیدو‌بند و چهارچوب قرار دهیم. مثلا فردی که هوش‌مصنوعی می‌نویسد اگر بخواهد با استفاده از این تکنولوژی یک صدا یا تصویر فیک ایجاد کند در واقع خلاف آن نظام نامه عمل و آن را باطل کرده است. مطمئن باشید در آینده اثرات برنامه‌نویسان در جامعه بیش از پزشکان خواهد بود!

منبع: روزنامه جام جم

برخورد با اخبار جعلی خلأ قانونی ندارد

دوشنبه, ۹ مهر ۱۴۰۳، ۰۵:۱۷ ب.ظ | ۰ نظر

وقوع رویدادهای مهم سیاسی، نظامی، اقتصادی و اجتماعی زمینه شایع‌پراکنی و جولان اخبار جعلی را به‌ویژه در فضای مجازی فراهم می‌کند و در این شرایط هر از گاهی در اخبار رسمی خبرهایی مبنی بر ورود دادستان‌ها و تذکر و برخورد قضایی با متخلفان اعلام می‌شود؛ اما سوال این است که آیا برای برخورد با اخبار جعلی خلأ قانونی وجود دارد؟.

ایرنا – شایعه، گمانه‌زنی، شنیده‌ها، تحلیل و برداشت شخصی آن هم در فضای مجازی که اکنون با سرعت غیرقابل کنترل به یک واقعیت موثر در زندگی حقیقی تبدیل شده است، وجود حکمرانی قانون را می‌طلبد.

با گسترش رسانه‌های ارتباطی نوین به ویژه پیام‌رسان‌های اجتماعی، جریان تولید و انتشار اطلاعات، اخبار و محتوای خبری در فضای مجازی و دامنه تأثیرات آنها افزایش یافته و زمینه مشارکت شهروندان در تولید و انتشار آسان و ارزانِ محتوای خبری فراهم شده است؛ این امر، نشر و بازنشر وسیع و سریع اطلاعات، اخبار و محتوای خبری تحریف شده و خلاف‌ واقع را که عموماً با هدف ضربه به حیثیت اشخاص، آسیب به امنیت روانی، عوام‌فریبی، بی‌اعتبارسازی نهادها و گزارش‌های رسمی، ایجاد ترس و وحشت عمومی، برهم زدن آرامش اجتماعی، تضعیف انسجام ملی و تأثیرگذاری بر نتایج انتخابات‌ صورت می‌گیرد، را نیز تسهیل کرده و مدیریت شرایط خاص نظیر وقوع بیماری های فراگیر، بلایای طبیعی یا رویدادهای مهم سیاسی، نظامی، اقتصادی و اجتماعی را با چالش مواجه می‌کند.

از اینرو ۲۱ بهمن ۱۳۹۹، مصوبه شورای عالی فضای مجازی درباره «الزامات پیشگیری و مقابله با نشر اطلاعات، اخبار و محتوای خبری خلاف واقع در فضای مجازی» به تصویب رسید. هدف این مصوبه، صیانت از سلامت و امنیت روانی جامعه و کاهش آسیب‌های موصوف از طریق تعریف و تعیین اقدامات پیشگیرانه و واکنشی و ارتقای سطح مسئولیت‌پذیری و پاسخگویی هماهنگ و به‌هنگام برای مقابله با ناهنجاری‌ها و پیامدهای تولید و نشر اطلاعات، اخبار و محتوای خبری خلاف ‌واقع است.

براساس ماده ۲ مصوبه شورای عالی فضای مجازی؛ به منظور فراهم آمدن زمینه‌های موثر پیشگیری از جرایم، قوه قضاییه ظرف مدت سه ماه و با همکاری مرکز ملی فضای مجازی، وزارت فرهنگ و ارشاد اسلامی و وزارت ارتباطات و فناوری اطلاعات، نسبت به ارائه لایحه قضایی مقابله با اطلاعات، اخبار و محتوای خبری خلاف ‌واقع اقدام کند.

متن کامل مصوبه شورای عالی فضای مجازی درباره «الزامات پیشگیری و مقابله با نشر اطلاعات، اخبار و محتوای خبری خلاف واقع در فضای مجازی» را اینجا بخوانید.

 

  • تهیه لایحه مقابله با اخبار خلاف واقع

بر این اساس، از مهلت قانونی برای تهیه لایحه قضایی مقابله با اطلاعات، اخبار و محتوای خبری خلاف ‌واقع زمان زیادی گذشته است؛ هرچند سیدبهزاد پورسید معاون حقوقی و امور مجلس قوه قضاییه تیر ماه امسال نیز در گفت‌وگویی درباره لوایح قضایی که از سوی دستگاه قضا به دولت ارسال شده است، اظهار داشت: پیش‌نویس نهایی «لایحه مقابله با اطلاعات، اخبار خلاف واقع در فضای مجازی» در مهر ماه سال گذشته به دولت ارسال شده است.

پورسید افزود: پیش‌نویس این لایحه در پنج فصل، در برگیرنده تعاریف و اختصارات، تکالیف و تعهدات کنشگران نشر محتوا، تنظیم و نظارت بر مقابله با محتوای خلاف واقع شامل اعتبارپذیری و اعتماد پذیری محتوا و کنشگران نشر، اطمینان‌پذیری و انتساب‌پذیری محتوا، تعامل پذیری متولیان ذی‌صلاح و مجریان ذی‌ربط، دسترس‌پذیری و استطاعت‌پذیری منابع محتوایی و استنادپذیری دعاوی و ادعاهای مربوط به محتوای خلاف واقع همچنین ضمانت اجرای کیفری تهیه شده است.

 

  • اختیارات قانونی دادستانی در ارتباط با فضای سایبری

البته اکنون دادستانی کل کشور در ارتباط با فضای سایبری باتوجه به پیشینه قانونی مقابله با جرایم مرتبط با فناوری اطلاعات و ارتباطات، اختیارات ویژه دارد؛ به طوری که قانون حمایت از پدیدآورندگان نرم‌افزارهای رایانه‌ای، قانون تجارت الکترونیکی و جرایم آن، قانون مجازات فعالیت‌های مجرمانه در امور سمعی و بصری، قانون جرایم رایانه‌ای و دو قانون در زمینه مقررات شکلی، اقدامات رویه‌ای و آیین دادرسی کیفری ویژه رسیدگی به جرایم رایانه‌ای و دادرسی الکترونیکی به تصویب رسیده و در این قوانین به انواع جرایم رایانه‌ای محض، نظیر هک و دسترسی غیرمجاز، شنود غیرمجاز، جاسوسی، تخریب و اخلال در داده‌ها و سامانه‌های رایانه‌ای، تروریسم سایبری، سرقت داده‌ها، کلاهبرداری و جعل رایانه‌ای، تولید و انتشار ویروس‌های رایانه‌ای و موارد متعددی از جرایم سنتی که از طریق ابزارهای فناوری اطلاعات و ارتباطات قابلیت ارتکاب دارند جرم‌انگاری و اختیارات وسیعی به دادستان کل کشور جهت مقابله با جرایم فناوری‌های مدرن محول شده است.

همچنین معاونت امور فضای مجازی در دادستانی کل به‌موجب قانون جرایم رایانه‌ای، با کمیته‌ای متشکل از ۱۲ عضو بر محتوای منتشر شده در فضای مجازی نظیر اینترنت و شبکه‌های اجتماعی نظارت دارد که ریاست این کمیته نیز بر عهده دادستان کل کشور است و وظیفه اصلی این کمیته تضمین سلامت محتوا و امنیت فضای مجازی، شناسایی و مقابله با جرم، واکنش سریع و اقدامات اولیه جهت جلوگیری از استمرار جرم و مقابله با آن در فضای سایبری است.

در این رابطه نیز اصغر جهانگیر سخنگوی قوه قضاییه در مورد کسانی که نشر اکاذیب یا اهانت می‌کنند، اعلام کرد: اگر اشخاص حقیقی باشند به محض شکایت اشخاص حقیقی موضوع در دستور کار قرار می‌گیرد، اما در موضوعاتی که جنبه عمومی داشته و امنیت عمومی را به خطر می‌اندازد دادستان‌ها مکلف شده‌اند که فضای مجازی را رصد و اقدامات مقتضی را به عمل آورده و علاوه بر برخورد قانونی گزارش آن را نیز به دادستانی کل کشور بدهند.

وی اظهار داشت: معاونت فضای مجازی دادستانی کل کشور با همکاری ضابطین امنیتی و انتظامی از جمله وزارت اطلاعات، سازمان اطلاعات سپاه و سازمان اطلاعات نیروی انتظامی کارگروهی دائمی دارند که به رصد می‌پردازند، ضابطین گزارش‌های خود را می‌دهند و دادستانی هم ورود فعالی در این زمینه دارد.

 

  • در برخورد با اخبار جعلی خلأ قانونی وجود ندارد

در همین راستا، وحید آگاه حقوقدان و عضو هیات علمی دانشگاه علامه طباطبائی در گفت‌وگو با خبرنگار حقوقی قضایی ایرنا درباره اخبار جعلی و قانونگذاری در این زمینه، اظهار داشت: در مورد اخبار جعلی خلأ قانونی وجود ندارد.

وی خاطرنشان کرد: اکنون ۲ هزار عنوان مجرمانه در قوانین کشور وجود دارد؛ آیا قرار است همه افعال و اقدامات و رفتارها جرم‌انگاری شود؟ قوانین و مقررات برای تسهیل زندگی اجتماعی است در حالی که اکنون با وضع قوانین متعدد و دست و پاگیر زندگی را سخت و پیچیده کرده‌ایم.

این وکیل دادگستری درباره جرم انگاری «نشر اکاذیب» در فضای حقیقی و مجازی به ماده ۶۹۸ قانون مجازات اسلامی (تعزیرات) اشاره کرد و گفت: «هر کس به قصد اضرار به غیر یا تشویش اذهان عمومی یا مقامات رسمی به وسیله نامه یا شکواییه یا مراسلات یا عرایض یا گزارش یا توزیع هرگونه اوراق چاپی یا خطی با امضا یا بدون امضای اکاذیبی را اظهار نماید یا با همان مقاصد اعمالی را بر خلاف حقیقت رأساً یا به عنوان نقل قول به شخص حقیقی یا حقوقی یا مقامات رسمی تصریحاً یا تلویحاً نسبت دهد اعم از اینکه از طریق مزبور به‌ نحوی از انحاء ضرر مادی یا معنوی به غیر وارد شود یا نه علاوه‌ بر اعاده حیثیت در صورت امکان، باید به حبس... و یا شلاق تا (۷۴) ضَربه محکوم شود.»

آگاه به ماده ۱۸ قانون جرایم رایانه‌ای نیز اشاره کرد و ادامه داد: در این ماده قانونی تصریح شده است: «هر کس به قصد اضرار به غیر یا تشویش اذهان عمومی یا مقامات رسمی به وسیله سامانه رایانه ای یا مخابراتی اکاذیبی را منتشر نماید یا در دسترس دیگران قرار دهد یا با همان مقاصد اعمالی را بر خلاف حقیقت، رأساً یا به عنوان نقل قول، به شخص حقیقی یا حقوقی به طور صریح یا تلویحی نسبت دهد، اعم از اینکه از طریق یاد شده به نحوی از انحاء ضرر مادی یا معنوی به دیگری وارد شود یا نشود، افزون بر اعاده حیثیت (در صورت امکان)، به حبس ... یا جزای نقدی ... یا هر دو مجازات محکوم خواهد شد.»

عضو هیات علمی دانشگاه علامه طباطبائی افزود: در ماده ۷۴۶ قانون مجازات اسلامی همین موضوع مطرح شده. بدین ترتیب که براساس (جزای نقدی اصلاحی ۱۴۰۳/۳/۳۰) «هر کس به قصد اضرار به غیر یا تشویش اذهان عمومی یا مقامات رسمی به وسیله سامانه رایانه ای یا مخابراتی اکاذیبی را منتشر نماید یا در دسترس دیگران قرار دهد یا با همان مقاصد اعمالی را برخلاف حقیقت، راساً یا به عنوان نقل قول، به شخص حقیقی یا حقوقی به طور صریح یا تلویحی نسبت دهد، اعم از اینکه از طریق یاد شده به نحوی از انحاء ضرر مادی یا معنوی به دیگری وارد شود یا نشود، افزون بر اعاده حیثیت (در صورت امکان)، به حبس از نود و یک روز تا دو سال یا جزای نقدی از ۶۶۰ میلیون ریال تا ۵۰۰ میلیون ریال یا هر دو مجازات محکوم خواهد شد.»

وی پس از تشریح مواد قانونی با طرح این پرسش که با وجود این قوانین به دنبال چه چیزی هستیم، اظهار داشت: با روندی که در شورای عالی فضای مجازی درباره «الزامات پیشگیری و مقابله با نشر اطلاعات، اخبار و محتوای خبری خلاف واقع در فضای مجازی» پیش گرفته شده و برای هر دستگاه نقشی تعیین شده، عرصه برای آزادی بیان محدود می‌شود.

آگاه تصریح کرد: اکنون برای اخبار جعلی و شایعه پراکنی، حبس، اعاده حیثیت و جزای نقدی تعیین شده و اصلا لازم نیست که قوانین دیگری در این حوزه تصویب شود.

این وکیل دادگستری با اشاره به مصوبه شورای عالی فضای مجازی، افزود: با این مصوبه فضا برای فعالیت رسانه‌ها نیز محدود می‌شود.

وی درباره حقوق مطبوعات گفت: متاسفانه قانون مطبوعات، قانونی با وجه حداکثری نحوه کیفر مطبوعات است و نگاه حمایت از مطبوعات در این زمینه، وجه بسیار حداقلی دارد.

این استاد حقوق رسانه با اشاره به روند صد ساله درباره قانون مطبوعات یادآور شد: از زمانی که نخستین قانون مطبوعات در ایران در زمان مشروطه تصویب شد؛ تاکنون به کرات قانون اصلاح شده و هر بار نیز رویکرد جرم انگاری حفظ یا تشدید شده است.

البته اصغر جهانگیر سخنگوی قوه قضاییه در گفت‌وگو با خبرنگار قضایی ایرنا درباره برخورد با شایعه‌پراکنان و انتشاردهندگان اخبار جعلی و دروغین اظهار داشت: برای مقابله با این نوع جرایم با قوانین موجود نیز می‌توان رسیدگی کرد اما برای ساماندهی به این وضعیت و تقویت و تشدید اقدامات نظارتی در این بخش وجود قانون جامعی با عنوان «مقابله با اطلاعات، اخبار خلاف واقع در فضای مجازی» پیش‌بینی شده که اکنون تهیه لایحه آن در دست اقدام است.

استرالیا به جنگ اخبار جعلی رفت

شنبه, ۲۴ شهریور ۱۴۰۳، ۰۷:۲۰ ب.ظ | ۰ نظر

استرالیا تصمیم دارد پلتفرم های اینترنتی که نمی توانند از انتشار اخبار جعلی در فضای آنلاین جلوگیری کنند را تا ۵ درصد درآمد جهانی شان جریمه کند. 
به گزارش خبرگزاری مهر به نقل از رویترز، دولت این کشور اعلام کرد شبکه های اجتماعی را ملزم می کند دستورالعملی برای نظارت بر شیوه متوقف کردن انتشار محتوای نادرست و خطرناک فراهم کنند که البته باید به تایید رگولاتور مربوطه برسد. اگر پلتفرمی نتواند این کار را انجام دهد، رگولاتور استانداردهای خودش را مشخص و شرکت را جریمه می کند.

این لایحه ارائه شده به پارلمان استرالیا محتوای نادرست در فضای آنلاین را هدف گرفته که به یکپارچکی انتخابات یا سلامت عمومی آسیب می رساند. لایحه مذکور بخشی از اقدام سختگیرانه وسیع تر استرالیاست. رهبران این کشور از پلتفرم های فناوری مستقر در خارج به دلیل نادیده گرفتن حاکمیت کشور گله دارند و از سوی دیگر دولت استرالیا در آستانه انتخابات فدرالی قرار دارد که ظرف یک سال آینده برگزار می شود.

نسخه اولیه لایحه در سال ۲۰۲۳ مورد انتقاد قرار گرفت زیرا قدرت زیادی در اختیار اداره ارتباطات و رسانه استرالیا قرار می داد تا محتوای اخبار جعلی و نادرست را تعیین کند اما لایحه جدید مشخص کرده رگولاتور رسانه قدرت لازم برای حذف اجباری محتواهای حساب کاربران به طور مجزا را ندارد. همچنین نسخه جدید لایحه از اخبار رسمی، محتوای هنری و مذهبی محافظت می کند.

طبق گزارش رویترز، ایلان ماسک مدیر ارشد اجرایی ایکس نیز در واکنش به این لایحه در استرالیا دولت این کشور را فاشیست خواند. ماسک که خود را سردمدار آزادی بیان می داند در شبکه اجتماعی ایکس  در پاسخ به پست یک کاربر در این باره نوشت: فاشیست ها. در این میان کامنت ماسک درباره فشارها برای مقابله با اخبارجعلی با انتقاد و تمسخر قانونگذاران این کشور روبرو شد.  بیل شورتن وزیر خدمات دولتی استرالیا در این باره به یک برنامه تلویزیونی گفت: ایلان ماسک موضع های متفاوتی درباره آزادی بیان داشته است. هنگامیکه بحث منافع تجاری اش باشد، او  پیشرو آزادی بیان می شود و هنگامیکه از این موضوع خوشش نیاید، هرچیزی در باره آن را مسکوت می گذارد.

سردرگمی اروپا با رواج اخبار جعلی

شنبه, ۱۳ مرداد ۱۴۰۳، ۱۲:۵۳ ب.ظ | ۰ نظر

سمیه مهدوی‌پیام - تیفانی هسو، که گزارشگر حوزه بررسی اطلاعات نادرست و پیامدهای آن است و بیش از دو دهه، به عنوان خبرنگار فعالیت می‌کند در گزارشی در نیویورک تایمز به بررسی مصائب جدی و همچنان لاینحل اتحادیه اروپا با رواج اخبار و اطلاعات جعلی و نادرست پرداخت و نوشت:

کابوس تیک‌تاک بر سر انتخابات انگلیس

شنبه, ۳۰ تیر ۱۴۰۳، ۰۱:۲۸ ب.ظ | ۰ نظر

سعید میرشاهی - شبکه‌ جهانی بی‌بی‌سی در گزارشی اعلام کرد که طبق یافته‌هایش، کاربران تیک‌تاک با اخبار انتخاباتی گمراه‌کننده تغذیه می‌شوند. بر این اساس، مشاهده ویدئوهای جعلی تولیدشده توسط هوش مصنوعی شامل رهبران حزب، اطلاعات نادرست و کلیپ‌های مملو از نظرات توهین‌آمیز در عرصه اصلی مبارزات انتخاباتی، به رای‌دهندگان جوان توصیه می‌شود.

احمد محمدغریبان - بالاگرفتن رقابت‌های انتخاباتی برای تعیین چهاردهمین رییس جمهوری در ایران، به شکل معمول و طبیعی منجر به جذب و مراجعه بخش‌های زیادی از جامعه به فضای مجازی اعم از سایت‌های خبری، شبکه‌های اجتماعی و پیام‌رسان‌ها برای کسب اخبار، اطلاعات و به شکل خلاصه شناخت و آگاهی شد.

شبکه‌های اجتماعی؛ قاتلان سواد رسانه‌ای

چهارشنبه, ۱۳ تیر ۱۴۰۳، ۰۴:۵۱ ب.ظ | ۰ نظر

مصطفی رفعت - طیِ دهه گذشته «اخبار آنلاین»، از رسانه‌های چاپی و تلویزیون به‌عنوان «منبع خبری شماره ۱» برای بسیاری از مردم «پیشی» گرفته است.

طبق گزارش ۲۰۲۴ «اخبار دیجیتال مؤسسه رویترز»؛ ۷۷‌درصدِ بیش از ۹۰هزار پاسخ‌دهنده مورد‌بررسی در ۴۷ کشور، اخبار خود را آنلاین دریافت کرده‌اند؛ در‌حالی‌که ۵۵‌درصد، اخبار را از «تلویزیون» تماشا می‌کنند و تنها ۱۹‌درصد همچنان «اخبار چاپی» را می‌خوانند!

نکته جالب و شاید ترسناک ماجرا در تمایل بیشتر مردم به‌سمت اخبار آنلاین این‌است‌که آن‌ها خوراک خود را از پلتفرم‌های رسانه‌های اجتماعی می‌گیرند و این شبکه‌ها حالا نه‌تنها به‌عنوان «منبع خبری»؛ بلکه به‌عنوان بستر دروازه‌بانی اخبار نیز به‌کار می‌روند؛ درواقع، هم نوع خبر را تعیین و هم در اثرگذاریِ اخبار نقش ایفا می‌کنند.

در‌حالی‌که دسترسی مستقیم به «وبگاه‌‌‌های خبری» یا «برنامه‌های خبری» رایج‌ترین مکان مصرف اخبار آنلاین در ۲۰۱۸ بودند؛ اکنون اما سومین مرجع خبری، پس از «جستجو» و «رسانه‌های اجتماعی» هستند.

این، گرچه مزایایی نظیرِ ظرفیتِ انتشار زود‌تر اخبار و دسترس‌پذیرتر و شخصی‌سازی آن‌ها را دارد؛ اما خالی‌از‌ایراد نیست؛ اخبار و مطالب، دیگر فقط توسط متخصصان رسانه تهیه و منتشر نمی‌شود؛ بلکه هرکسی در قالب شهروند-خبرنگار (انسان-‌رسانه) امکان خبرسازی و خبرپراکنی را دارد.

ازسویی، الگوریتم‌هایی خاص تهیه می‌شوند تا هم بر شیوه نشر اخبار نظارت کنند و هم با کمکِ ابزار هوشمند، محتواها را جهت‌دار و برای تأمین منافع ویژه، در تعاملات انسانی بگذارند؛ یعنی احساسات را بر عقل حاکم می‌کنند تا محتوای موردنظر پیروز شده و به‌این‌منظور همه امکانات را بسیج می‌کنند.

اینجاست که فیک‌نیوزها و لشکرکشی‌های مجازی راه می‌افتند و قدرتِ «دیدِ متعادل» از مخاطب سلب می‌شود. رسانه‌های اجتماعی «اتاق‌های پژواک» ایجاد می‌کنند و مخاطب فقط آنچه می‌خواهد را به‌عنوان خوراک دریافت می‌کند؛ سوگیری‌های مردمی وارد کارزار شده و ... دوقطبی‌ها این‌گونه برجسته می‌شود.

ماجرا تا وقتی صحبت از سرگرمی به‌میان می‌آید، «خوب» است؛ اما وقتی بحث نظرگاه‌های عقیدتی (مذهب، سیاست، ایدئولوژی و ...) به‌میان می‌آید «بالقوه خطرناک» است. این داده‌نما نشان می‌دهد: 
میزان (به‌درصد) دریافتیِ اخبار یک‌هفته‌اخیر مردم از کدام منابع بوده است. (روزنامه سایه)

 

آیا با دیپ فیک‌ها می‌توان مقابله کرد؟

يكشنبه, ۲۰ خرداد ۱۴۰۳، ۰۵:۰۲ ب.ظ | ۰ نظر

دیپ‌فیک‌ها برای ماندن آمده‌اند و شما نیاز خواهید داشت که راه‌هایی برای «مقابله» با تهدید آن‌ها پیدا کنید.

یک کارشناس امنیتی توصیه کرد که یک ترفند مفید وجود دارد تا با یکی از رایج‌ترین کلاهبرداری‌های «دیپ‌فیک» مقابله کنید.

به گزارش همشهری آنلاین، دیپ‌فیک‌ها در چندین شکل وجود دارند: آن‌ها می‌توانند صرفاً بصری باشند؛ مثلاً با قرار دادن صورت کسی روی بدنی دیگر تا به نظر برسد که او کاری را می‌کند که واقعاً انجام نداده است. یا می‌توانند صوتی باشند، نه ویدئویی؛ کسی می‌تواند در چند ثانیه صدایی را شبیه‌سازی کند و سپس هر چیزی که می‌خواهد بگوید.

سپس ترکیبی از هر دو وجود دارد، جایی که کسی به نظر می‌رسد که کار‌هایی را انجام می‌دهد و چیز‌هایی را می‌گوید که هرگز انجام نداده است؛ با پیامد‌های خطرناک.

کسی می‌تواند با یک عکس ساده از شما یک دیپ‌فیک بسازد، بنابراین کاری زیادی نمی‌توانید برای جلوگیری از آن انجام دهید جز اینکه به‌طور کامل از اینترنت دوری کنید.

برایان هیگینز، متخصص امنیت می‌گوید: «پیشرفت روزافزون محتوای صوتی و تصویری دیپ‌فیک بدون شک نمایانگر هزینه‌های معاصر زندگی آنلاین است. آسیب‌پذیری دیجیتال همیشه معامله‌ای بوده که مجبور بوده‌ایم برای حضور در اینترنت انجام دهیم، صرف نظر از اینکه چگونه این کار را انتخاب کنیم. افراد خرابکار همیشه به ارزان‌ترین و ساده‌ترین راه‌ها برای نفوذ به زندگی ما متوسل می‌شوند، از تروجان‌های بانکی گرفته تا باج‌افزار‌ها و اکنون دیپ‌فیک‌ها. حالا که این فناوری برای شبیه‌سازی یک تصویر یا صدا به حجم زیادی از اطلاعات دیجیتال نیاز ندارد، گریزی از این تهدید وجود ندارد.»

او افزود: «این درست مانند تمام تهدید‌هایی است که قبل از این وجود داشتند و تهدید‌های جدیدی که هنوز از آن‌ها خبر نداریم؛ ترسناک است، زیرا جدید است. اما ما مکانیزم‌های مقابله را توسعه خواهیم داد، زیرا همیشه این کار را انجام می‌دهیم.»

ایمن ماندن

یکی از انواع کلاهبرداری‌های دیپ‌فیک از هوش مصنوعی برای شبیه‌سازی صدای یکی از عزیزان یا همکاران استفاده می‌کند.

کلاهبردار سپس می‌تواند با شما تماس بگیرد و درخواست فوری برای اطلاعات یا پول داشته باشد. ممکن است به نظر برسد که این کلاهبرداری اجتناب‌ناپذیر است. اما کارشناسان امنیتی توصیه می‌کنند که یک "کلمه امن" تعیین کنید.

برایان گفت: «در حال حاضر، افراد هوشیارتر در میان ما برای مکالمات حساس یا خصوصی به تلفن بازگشته‌اند. خانواده‌ها و کسب‌وکار‌ها به طور یکسان از کلمات یا عبارات 'امن' برای شروع مکالمات استفاده می‌کنند و اطمینان حاصل می‌کنند که با یکدیگر صحبت می‌کنند نه با هوش مصنوعی.»

یک کلمه ساده انتخاب کنید – چیزی مثل "سیب‌زمینی"، اما نه این کلمه، چون اینجا نوشته شده است که بتوانید با دوستان و خانواده استفاده کنید.

کلاهبردار کلمه امن شما را نمی‌داند، بنابراین این یک راه آسان برای تأیید فوری است که با کسی که فکر می‌کنید، در حال صحبت هستید.

همچنین، اگر فرد گفت که کلمه امن را فراموش کرده است، در نظر بگیرید که درباره خاطرات خصوصی مشترکی که آنلاین پیدا نمی‌شوند، سوال کنید؛ و می‌توانید سعی کنید از طریق یک روش دیگر با فرد تماس بگیرید تا ببینید واقعاً با شما صحبت می‌کند یا این یک جنایتکار است.

شما همچنین باید از پاسخ دادن به تماس‌ها از شماره‌های ناشناس خودداری کنید و اگر پاسخ دادید، سعی کنید چیزی نگویید.

این احتمال وجود دارد که فردی جنایتکار در طرف دیگر خط باشد که امیدوار است صدای شما را از آنچه می‌گویید شبیه‌سازی کند.

حتی اگر دیپ‌فیک‌ها را نادیده بگیرید، باز هم این یک کار خوب است: اگر آن‌ها را نادیده بگیرید، کلاهبرداران را مطلع نخواهید کرد که شماره شما فعال است.

شبکه‌های اجتماعی جامعه را «شایعه‎‌باور» می‌کنند

چهارشنبه, ۲۶ ارديبهشت ۱۴۰۳، ۱۰:۲۸ ق.ظ | ۰ نظر

روزی روزگاری پچ پچ‌های درِگوشی افراد و به اصطلاح «یک کلاغ و چهل کلاغ» منبع دست به دست شدن شایعات بود. اگر کسی حرفی یاوه را برای طرف مقابل می‌گفت تا زمانی که این حرف به گوش همه ساکنان یک شهر برسد شاید روزها زمان می‌برد اما اکنون شایعه‌پراکنی و حتی شایعه‌باوری به طرز چشم‌گیری در میان مردم افزایش یافته است.

افزایش فاجعه‌بار کلاه‌برداری‌های دیپ‌فیک

چهارشنبه, ۱۹ ارديبهشت ۱۴۰۳، ۰۱:۲۸ ب.ظ | ۰ نظر

آخرین گزارش سالانه ارائه‌دهنده تأیید هویت Sumsub نشان می‌دهد: موارد کلاه‌برداری هویت مرتبط با دیپ‌فیک، بین سال‌های 2022 تا 2023 در بسیاری از کشورهای جهان به‌شدت افزایش یافته است؛ مثلاً تعداد تلاش‌های کلاه‌برداری به‌این‌روش در «فیلیپین» در بازه یک‌ساله یادشده 4500‌درصد افزایش یافته؛ و پس‌ازآن، «ویتنام»، «ایالات‌متحده» و «بلژیک» قرار دارند.

به گزارش سایه باتوجه‌به‌اینکه قابلیت‌های «هوش مصنوعی» روزبه‌روز بیشتر می‌شود، تلاش‌های کلاه‌برداری عمیق می‌توانند به مناطق دیگر نیز سرایت کنند.

«پاول گلدمن-کالایدین» (رئیس واحد تحقیقات هوش مصنوعی و یادگیری ماشینی Sumsub) می‌گوید: «در سال‌های اخیر شاهد بوده‌ایم که دیپ‌فیک‌ها بیشتر و بیشتر قانع‌کننده‌تر شده‌اند و این ادامه می‌یابد و به انواع جدیدی از فریب‌‌ها منشعب می‌شود؛ همان‌طورکه حالا در دیپ‌فیک‌های صوتی و تصویری دیده می‌شود».

در هشدار فوق‌الذکر؛ هم مصرف‌کنندگان و هم شرکت‌ها باید مراقب فریب مصنوعی بوده و به‌دنبال راه‌حل‌های چندلایه ضدِفریب بگردند.

یک نظرسنجی از 199 مرجع راهبرِ امنیت سایبری که در نشست سالانه «مجمع جهانی اقتصاد» (2023) شرکت کرده بودند، نشان داد که 46‌درصد از پاسخ‌دهندگان، بیشترین نگرانی را درمورد «پیشرفت قابلیت‌های خصمانه، فیشینگ، توسعه بدافزار و جعل عمیق» را به‌واسطه توسعه AI دارند.

این داده‌نما میزان افزایش کلاه‌برداری‌ها به‌واسطه دیپ‌فیک را (به‌درصد) طی بازه 2022 تا 2023 در جوامع مختلف نشان می‌دهد.

تبعات انتساب اخبار جعلی به نهادهای حساس

شنبه, ۱ ارديبهشت ۱۴۰۳، ۱۱:۳۶ ق.ظ | ۰ نظر

علی شمیرانی - نتایج نظرسنجی‌های داخلی و خارجی نشان می‌دهد، بر خلاف دنیا و با اختلاف زیاد، عامل اصلی مراجعه ایرانی‌ها به شبکه‌های اجتماعی، «اخبار و سیاست» است. اگرچه پاسخ به این پرسش که کنترل محتوا در شبکه‌های اجتماعی که تماماً نیز مشمول فیلترینگ شده‌اند، تا چه میزان موفق بوده، تقریبا روشن است.

سعید میرشاهی - متا و سایر غول‌های فناوری برای همکاری مشترک با یکدیگر، قبل از انتخابات در بریتانیا، ایالات متحده و اتحادیه اروپا گردهم آمده‌اند تا از سوءاستفاده از هوش مصنوعی جلوگیری کنند.

وزیر فرهنگ و ارشاد اسلامی گفت: کارگروه اخبار جعلی در معاونت رسانه‌ای وزارت فرهنگ و ارشاد اسلامی با موضوع ساماندهی کانال‌های فضای مجازی و پیشگیری از شیوع اخبار جعلی در حال برگزاری است.
به گزارش خبرگزاری صداوسیما، محمد مهدی اسماعیلی وزیر فرهنگ و ارشاد اسلامی گفت: در کارگروه اخبار جعلی وزارت فرهنگ، از رویداد‌های ابتکاری فناورانه برای مقابله با شیوع اخبار جعلی حمایت می‌شود.

اسماعیلی افزود: در داخل کشور با ثبت کانال‌های فضای مجازی و نظارت بر آنها، ساماندهی بسیار خوبی در حمایت از شبکه مجازی رقم می‌خورد و می‌توان مقابله مناسبی با شیوع اخبار جعلی داشته باشیم.

وی با اشاره به الزامات کارگروه اجرایی پیشگیری و مقابله با نشر اطلاعات، اخبار و محتوای خبری خلاف واقع در فضای مجازی گفت: در شرایط کنونی متاسفانه در رسانه‌های اصلی و مطرح دنیا هم با اخبار جعلی مواجهیم، به نظر می‌رسد در عین نیازمندی به تبیین و روشنگری و ارسال تکذیبیه و اقدامات حقوقی لازم، نیاز داریم از اقدامات مبتکرانه در این زمینه حمایت کنیم.

مخاطرات رواج اخبار جعلی و دیپ‌فیک‌ها

چهارشنبه, ۴ بهمن ۱۴۰۲، ۰۳:۰۷ ب.ظ | ۰ نظر

ایرنا- افزایش انتشار اطلاعات نادرست امروزه چالش‌های پیچیده‌ای ایجاد کرده است. آمارها نشان می‌دهد انتشار محتوای دستکاری‌شده در فضای رسانه‌های سنتی و دیجیتال گسترش یافته است.

اطلاعات نادرست، از درمان‌های غلط برای همه‌گیری کرونا گرفته تا اخبار جعلی که ناخواسته توسط شهروندان به اشتراک گذاشته می‌شود، به اکوسیستم اطلاع‌رسانی رسوخ کرده است. افزایش انتشار اطلاعات نادرست به طور عمده ناشی از مقاصد سیاسی، فناوری دیپ‌فیک یا ویدئوهای ساختگی، تله کلیکی یا بیان محتوا با هدف فریب کاربر و مسائل دیگر است. نتیجه این مساله، کاهش اعتماد عمومی و ایجاد تهدید علیه گفتمان دموکراتیک است. چنین وضعیتی ایجاب می‌کند راه‌حل‌هایی ارائه شود که هم در عین بیان واقعیت، آزادی بیان نیز حفظ شود.

هدف از این تحلیل آن است که با ارائه داده‌های مهم، انتشار و تاثیرات اطلاعات نادرست در رسانه‌ها در سال ۲۰۲۳ نشان داده شده و همه‌گیری اطلاعات نادرست یا به اصطلاح «پاندمی اطلاعات» موشکافی شود.

 

دیدگاه‌های مخاطبان درباره اطلاعات نادرست و اعتماد
درک افکار عمومی و برداشت آنها از رسانه‌های خبری اهمیتی حیاتی در مقابله با بحران اطلاعات نادرست دارد. کاهش اعتماد به روزنامه‌نگاری، نقش رسانه به عنوان ارائه‌دهنده اطلاعات معتبر را تهدید می‌کند. انتشار محتوای اشتباه و نگرانی فزاینده از محتوای جانب‌دارانه باعث ایجاد نگرش‌های منفی در مخاطبان شده است.

نتایج یک نظرسنجی در آمریکا نشان داد بسیاری از بزرگسالان این کشور معتقدند، بخش زیادی از خبرها در شبکه‌های اجتماعی، جانب‌دارانه است. ۶۶ درصد از شرکت‌کنندگان در این نظرسنجی که سال ۲۰۱۸ انجام شد، گفتند به نظر آنها دستکم ۷۶ درصد از خبرها در شبکه‌های اجتماعی جانب‌دارانه است.

یکی از دلایل کاهش اعتماد به خبرها در شبکه‌های اجتماعی، اخبار جعلی است. از نظر ۶۰ درصد از شهروندان در سراسر دنیا، سازمان‌های خبری عامدانه اخبار جعلی را منتشر می‌کنند. نتایج یک نظرسنجی که سال ۲۰۱۸ درباره سطح اعتماد عمومی به منابع رسانه‌ای انجام شد، نشان داد ۶۵ درصد از پاسخ‌دهندگان در آمریکایی شمالی معتقدند، آنها برای کسب اخبار و اطلاعات عمومی به رسانه‌های سنتی اعتماد بیشتری دارند.

 

تاثیرات اطلاعات نادرست
افزایش انتشار اطلاعات نادرست در فضای آنلاین، چالش‌های بزرگی برای روزنامه‌نگاران ایجاد کرده و موجب تضعیف اعتماد عمومی به رسانه‌ها شده است. براساس نتایج یک نظرسنجی، ۹۴ درصد از روزنامه‌نگاران می‌گویند اطلاعات و اخبار دستکاری‌شده، امروزه در آمریکا به یک مشکل مهم تبدیل شده است؛ همچنین ۶۰ درصد آنها نسبت به اعمال محدودیت‌های احتمالی بر آزادی مطبوعات در آمریکا ابراز نگرانی کردند. ۹۷ درصد آنها بر این باورند انتشار اطلاعات نادرست و گمراه‌کننده برای جامعه مضر است.
 

شبکه‌های اجتماعی و اطلاعات نادرست
شبکه‌های اجتماعی در انتشار گسترده اخبار و اطلاعات از جمله اخبار جعلی بسیار موثر بوده‌اند. آمارها نشان می‌دهد مردم اطلاعات نادرست را در شبکه‌های اجتماعی می‌بینند و منتشر می‌کنند که این امر مستلزم راه‌حل‌های خاص خود است. نزدیک به ۴.۹ میلیارد نفر در دنیا کاربر شبکه‌های اجتماعی هستند. یک نظرسنجی در دسامبر ۲۰۲۰ (آذرماه ۱۳۹۹) نشان داد ۳۸.۲ درصد از مخاطبان اخبار در آمریکا، ناخواسته اخبار جعلی یا اطلاعات اشتباه را در شبکه‌های اجتماعی به اشتراک گذاشته‌اند.

نظرسنجی‌ها از بی‌اعتمادی مردم جهان به رسانه‌ها؛ جولان اخبار جعلی و دیپ‌فیک‌ها


ربات‌ها و اطلاعات اشتباه
درک نقش ربات‌ها در گسترش اطلاعات اشتباه در بحران‌هایی مانند همه‌گیری کرونا تاثیر مهمی در مبارزه با «پاندمی اطلاعات» و پیامدهای احتمالی آن بر بهداشت عمومی دارد. تجارب گذشته نشان می‌دهد حساب‌های کاربری خودکار یا همان ربات‌ها، نقش زیادی در انتشار اطلاعات اشتباه در دوره‌های بحرانی مانند کرونا دارند.

انتشار لینک‌های فیشینگ، بی‌اعتبار کردن منابع مشروع خبری، ترویج درمان‌های اثبات‌نشده و انتشار چندباره محتوای نادرست، از جمله راهبردهای ربات‌ها برای انتشار اطلاعات اشتباه است. نزدیک به ۴۷ درصد از شرکت‌کنندگان آمریکایی در یک نظرسنجی که مارس ۲۰۲۰(اسفندماه ۱۳۹۸) انجام شد، گفتند با اخبار ساختگی زیادی در مورد کرونا مواجه شده‌اند که این مساله نشان‌دهنده گسترش زیاد اخبار جعلی است.

 

اشتراک‌گذاری اطلاعات اشتباه
آمار زیر نشان می‌دهد بخش قابل توجهی از بزرگسالان آمریکایی خواسته یا ناخواسته محتوای گمراه‌کننده را در فضای آنلاین به اشتراک گذاشته‌اند. نتایج یک نظرسنجی در دسامبر (آذرماه) ۲۰۲۰ نشان داد ۴۷ درصد آمریکایی‌ها گفتند در روزنامه‌ها و مجلات شاهد اخبار جعلی بوده‌اند. این مساله نشان می‌دهد انتشار اطلاعات اشتباه محدود به فضای آنلاین نیست. همچنین ۶۷ درصد پاسخ‌دهندگان گفتند در فیسبوک، ۶۵ درصد دیگر در کلیت شبکه‌های اجتماعی و ۶۰ درصد دیگر به طور کلی در اینترنت با اخبار جعلی مواجه شدند. همچنین، شمار کمتری از پاسخ‌دهندگان اعلام کردند در رسانه‌های سنتی مانند مطبوعات، تلویزیون و منابع خبری جریان اصلی، شاهد اخبار جعلی بوده‌اند.

 

اطلاعات نادرست بصری
فناوری دیپ‌فیک از هوش مصنوعی برای تولید محتوای صوتی و تصویری دستکاری‌شده استفاده می‌کند؛ این محتوا به‌گونه‌ای است که واقعی به نظر می‌رسد. نگرانی‌های زیادی در آمریکا درباره انتشار دیپ‌فیک‌های سیاسی پیش از انتخابات ریاست جمهوری ۲۰۲۴ این کشور وجود دارد. توانایی دیپ‌فیک‌ها در انتشار اطلاعات نادرست، چالش‌های جدی ایجاد می‌کند و می‌تواند تاثیر قابل توجهی در انتخابات داشته باشد.

حجم دیپ‌فیک‌های صوتی و تصویری سال به سال افزایش یافته است؛ حتی دیپ‌فیک‌های صوتی بیشتر از دیپ‌فیک‌های تصویری تولید شده‌اند. بر اساس گزارش دیپ‌مدیا، سال ۲۰۲۳ نسبت به سال پیش از آن، تولید دیپ‌فیک‌های صوتی سه برابر و دیپ‌فیک‌های صوتی هشت برابر افزایش یافته است.

 

اطلاعات نادرست در خارج از آمریکا
آمارهای اخیر از گسترش روند نگران‌کننده اخبار جانبدارانه و محتوای نادرست در سراسر دنیا حکایت دارد. به عبارت دیگر، پاندمی اطلاعات، مرزها را درنوردیده و کشورهای سراسر دنیا را تحت تاثیر قرار داده است. نزدیک به ۶۰ درصد از مردم دنیا معتقدند شهروندان کشورشان دیگر اهمیتی به واقعیت‌های سیاسی-اجتماعی نمی‌دهند و فقط به چیزی باور دارند که خودشان می‌خواهند. این روند در پرو به ۷۱ درصد، در صربستان به ۷۰ درصد، در ترکیه به ۶۹ درصد و در آمریکا به ۶۸ درصد می‌رسد.

نظرسنجی‌ها از بی‌اعتمادی مردم جهان به رسانه‌ها؛ جولان اخبار جعلی و دیپ‌فیک‌ها


سیاستمداران معمولا رسانه‌ها را به باد انتقاد می‌گیرند؛ به ویژه در آمریکا که عبارت‌هایی مانند «رسانه‌های اخبار جعلی» رواج زیادی دارد. انتقاد از رسانه‌ها به یک تاکتیک سیاسی برای ترساندن و طفره رفتن از پاسخگویی به انتقادها تبدیل شده است. نتایج یک نظرسنجی در اوایل سال ۲۰۲۳ نشان داد اخبار جعلی سیاسی یا مشکوک به ویژه در آمریکا و اسلواکی به یک معضل تبدیل شده است.

از سوی دیگر، یک مطالعه جهانی نشان داد مردم کشورهای اسکاندیناوی بالاترین اعتماد را به رسانه‌های خبری دارند. بر اساس این مطالعه، ۶۹ درصد از فنلاندی‌ها، ۵۷ درصد دانمارکی‌ها و ۵۳ درصد مردم نروژ به رسانه‌های خبری خود اعتماد دارند. همچنین مردم کره‌جنوبی، تایوان، مجارستان، اسلواکی، بلغارستان و یونان کمترین اعتماد را به رسانه‌های خبری خود دارند.

مبارزه با اطلاعات نادرست
شناسایی عامل انتشار اطلاعات اشتباه و یافتن بهترین راه‌حل مقابله با این اطلاعات، مهمترین چالش‌هایی است که پیش روی مبارزه با اطلاعات جعلی در فضای آنلاین وجود دارد. بر اساس نظرسنجی‌ها، از هر سه نفر، یکی معتقد است روزنامه‌نگاران و سازمان‌های رسانه‌ای بیشترین مسئولیت را در مقابله با اطلاعات نادرست دارند. همچنین ۳۱ درصد نیز گفتند شهروندان مسئول اصلی این مبارزه هستند.
به اعتقاد ۶۲ درصد از پاسخ‌دهندگان، اصلی‌ترین راه برای جلوگیری از انتشار اطلاعات نادرست، بررسی اعتبار منبع اخبار و اطلاعات است. همچنین ۶۵ درصد می‌گویند شرکت‌های فناوری باید از انتشار این اطلاعات در فضای آنلاین جلوگیری کنند. ۵۵ درصد نیز معتقدند دولت آمریکا باید انتشار اطلاعات نادرست در اینترنت را محدود کند.

 

دیدگاه‌های روزنامه‌نگاران درباره اطلاعات نادرست
«مرکز تحقیقات پیو» سال ۲۰۲۲ یک نظرسنجی از روزنامه‌نگاران به عمل آورد تا دیدگاه‌های آنها را درباره اطلاعات نادرست و آینده آزادی مطبوعات بررسی کند. بر اساس این نظرسنجی، ۳۳ درصد از روزنامه‌نگاران درباره اعمال محدودیت‌های احتمالی بر آزادی مطبوعات ابراز نگرانی شدید کرده و ۲۴ درصد دیگر نیز ابراز نگرانی زیاد کردند. هر چند که ۷۱ درصد از روزنامه‌نگاران شرکت‌کننده در این نظرسنجی گفتند به توانایی خود در شناسایی اطلاعات ناشتباه یقین دارند، ۲۶ درصد آنها اعلام کردند که ناخواسته اطلاعات نادرست را منتشر کرده‌اند. همچنین ۶۰ درصد از خبرنگاران گفتند سازمان‌های خبری آنها فاقد دستورالعمل‌های رسمی در مورد اطلاعات نادرست هستند.

 

جمع‌بندی
انتشار اطلاعات نادرست در شبکه‌های اجتماعی مانند فیسبوک و ایکس(توئیتر سابق) رواج زیادی دارد و ربات‌ها و تله‌های کلیکی به این مساله دامن زده‌اند. همچنین گسترش دیپ‌فیک‌های تولیدشده توسط هوش مصنوعی، تهدیدهای بیشتری برای حقایق و واقعیت‌ها در فضای دیجیتال ایجاد کرده است.

مقابله با اطلاعات نادرست و احیای اعتماد عمومی، نیازمند اقدام جمعی دولت‌ها، شرکت‌های فناوری، روزنامه‌نگاران و شهروندان است. سواد رسانه‌ای، شفافیت و راستی‌آزمایی اخبار و اطلاعات می‌تواند نقطه شروعی برای این روند باشد. هر چند پاندمی اطلاعات فروکش نکرده است اما این امید وجود دارد که با حل مشکلات بتوان بحران اعتماد را از بین برد.


https://redline.digital/fake-news-statistics

اخبار جعلی؛ بزرگ‌ترین تهدید فناورانه دنیا

چهارشنبه, ۴ بهمن ۱۴۰۲، ۱۲:۵۷ ب.ظ | ۰ نظر

مصطفی رفعت - طی یک‌دهه‌آینده، «تغییرات آب‌و‌هوایی و پیامدهای آن» بزرگ‌ترین خطر را برای جهان به‌همراه خواهد داشت.

هوش مصنوعی سلاح تولید اطلاعات جعلی شد

چهارشنبه, ۲۰ دی ۱۴۰۲، ۰۲:۱۳ ب.ظ | ۰ نظر

سمیه مهدی‌پیام – اکنون زمان آن رسیده که در برابر اطلاعات نادرست تولیدشده توسط هوش مصنوعی بایستیم.

شکست ایده خودتنظیم‌گری مجازی

جمعه, ۱۰ آذر ۱۴۰۲، ۰۳:۳۹ ب.ظ | ۰ نظر

علی سعد - با گذشت بیش از پنج دهه از اعلام ایده «رسانه پیام است» از سوی «مارشال مک لوهان» امروز دولت‌ها در دو راهی جدیدی در خصوص بازنگری اصول قبلی قرار گرفته‌اند.

هند تصمیم دارد قوانینی برای نظارت بر «دیپ فیک» وضع کند. این در حالی است که نارندا مودی نخست وزیر این کشور نیز درباره این فناوری اظهار نگرانی کرده بود.

به گزارش مهر به نقل از رویترز، آشوینی وایشناو وزیر فناوری اطلاعات این کشور در جلسه ای با کارشناسان، گروه های صنعتی و شبکه های اجتماعی گفت: ما تصمیم داریم پیش نویس قوانین را در چند هفته آینده تکمیل کنیم.

دیپ فیک ویدئوهای ساخته شده با سیستم های هوش مصنوعی هستند که با تصاویر آنلاین آموزش دیده اند و بسیار واقعی به نظر می رسند.

مودی در اظهارات خود در جلسه مجازی کشورهای گروه ۲۰ از رهبران جهان خواست به طور مشترک برای قانونمند سازی هوش مصنوعی اقدام کنند و نسبت به تاثیرات منفی ویدئوهای دیپ فیک بر جامعه ابراز نگرانی کرد.

فرایند پیش نویس کردن قوانین همچنین برای فردی که محتوا را آپلود می کند و هم شبکه اجتماعی که محتوا در آن پست می شود، مجازات هایی در نظر گرفته است.

این اقدام در حالی انجام می شود که کشورهای سراسر جهان سعی دارند هرچه سریع تر هوش مصنوعی را قانونمند کنند.

جوبایدن رییس جمهور آمریکا ماه گذشته میلادی یک دستور اجرایی امضا کرد که توسعه دهندگان سیستم های هوش مصنوعی را که تهدیدی برای امنیت ملی آمریکا، سلامت عمومی یا ایمنی هستند، ملزم می کند نتایج تست های ایمنی را قبل از انتشار عمومی در اختیار دولت قرار دهند.

سازمان ملل متحد نیز یک نهاد مشورتی برای بررسی کردن موضوعات نظارت بر هوش مصنوعی ایجاد کرده است. این درحالی است که قانونگذاران اتحادیه اروپا پیش نویسی از قوانین آماده کردند که احتمالا ماه آینده تایید می شود.

نگرانی مردم دنیا از گسترش اخبار جعلی

جمعه, ۱۹ آبان ۱۴۰۲، ۰۴:۴۶ ب.ظ | ۰ نظر

نتایج یک نظرسنجی که به درخواست یونسکو توسط مرکز نظرسنجی ایپسوس در شهریورماه امسال انجام شد، نشان می‌دهد، ۸۵ درصد از ۸ هزار نفر مخاطب از ۱۶ کشور که در سال ۲۰۲۴ میلادی شاهد انتخابات خواهند بود، «اطلاعات نادرست یا فیک نیوز و نفرت پراکنی آنلاین» را یک تهدید واقعی می‌دانند و خواستار اقدام مناسب مردم، دولت‌ها و صاحبان شبکه‌های اجتماعی هستند.

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

اخبار جعلی - نفرت پراکنی و شبکه‌های اجتماعی

گسترش شبکه‌های اجتماعی و تنوع رسانه‌های جدید سبب شده تا دسترسی به اطلاعات درست به یکی از دغدغه‌های اصلی دولت‌ها و ملت‌ها تبدیل شود. دسترسی به اطلاعات درست بدون دستکاری و یافتن حقیقت از تونل پر پیچ و خم «فیک نیوز یا اخبار دروغ» و نیز دریافت محتوا‌های خالی از نفرت، در حال تبدیل شدن به نیاز اصلی انسان‌ها و جوامع مختلف است و اهمیت دستیابی به اطلاعات درست در بزنگاه‌های سیاسی مانند انتخابات مشخص‌تر می‌شود.

این موضوع به اندازه‌ای است که یونسکو می‌گوید: حصول اطمینان از دسترسی به اطلاعات قابل اعتماد، یک پیش نیاز اساسی برای بحث آگاهانه در مورد همه چالش‌هایی است که جوامع با آن روبرو هستند.

تحقیقات این سازمان بین‌المللی نشان می‌دهد از آنجا که پلتفرم‌های رسانه‌های اجتماعی به منبع دستیابی و کسب اطلاعات تعداد بی‌شماری از مردم در سراسر جهان تبدیل شده، نگرانی‌هایی در مورد شیوع دروغ‌ها و سخنان مشوق نفرت مطرح شده است. اطلاعات نادرستی که توسط الگوریتم‌های غیرشفاف، سبب می‌شود تا دروغ، جایگزین واقعیت و نفرت جایگزین همدلی و یکی بودن شود.

اکنون پرسش‌های زیادی در این مسیر مطرح است، از جمله اینکه:

- این پلتفرم‌ها بسته به میزان ارجحیت یا حاکمیت در جریان اطلاع‌رسانی چه مشکلاتی را برای کشور‌های مختلف به همراه داشته‌اند؟

- مؤثرترین رویکرد در این مسیر چیست؟

- چه کسی مسئول است؟

- چگونه می‌توان از حقوق بشر و درستی و حقیقت در میان هزاران محتوای نادرست یا آمیخته درست و نادرست محافظت کرد، به‌گونه‌ای که اصل حقیقت آسیب نبیند؟

همکاری یونسکو و ایپسوس برای نظرسنجی در ۱۶ کشور در آستانه انتخابات

به همین دلیل سازمان علمی - آموزشی و فرهنگی ملل متحد (یونسکو) اعلام کرده، در حالی که یک رایزنی جهانی یک ساله برای تدوین دستورالعمل‌هایی برای حفاظت از آزادی بیان و دسترسی به اطلاعات در حاکمیت پلتفرم‌های دیجیتال را دنبال کرده، درصدد است نتایج برخی پژوهش‌های انجام شده در این زمینه را به ویژه در زمینه تأثیر اطلاعات نادرست آنلاین و سخنان نفرت‌انگیز در زندگی روزمره ارائه کند.

نکته مهم اینکه افراد باید بدانند که آیا این موضوع یک مساله اساسی است؟ آیا آن‌ها اغلب با آن مواجه‌اند؟ آن‌ها برای مبارزه با آن چه راهکار‌هایی را پیشنهاد می‌کنند؟

در این مسیر، یونسکو و مرکز نظرسنجی ایپسوس (IPSOS) تصمیم گرفتند در یک برنامه مشترک، چندین نظرسنجی را در ۱۶ کشوری که در سال ۲۰۲۴ انتخابات عمومی در سطوح مختلف در آن‌ها برگزار می‌شود، انجام دهند و پرسش‌هایی را در این زمینه مطرح کنند.

ایپسوس یک شرکت بین‌المللی پژوهشی در حوزه افکارسنجی، واقع در پاریس است. این مرکز تحقیقاتی در سال ۲۰۱۲ در ۸۴ کشور دفتر داشت و در اکتبر ۲۰۱۱ (مهر ۱۳۹۰) شرکت سینوویت (Synovate) را در خود ادغام کرد و به سومین بنگاه بزرگ تحقیقات و نظرسنجی جهان تبدیل شد.

این دو بنیاد در یک برنامه مشترک در سپتامبر (شهریور) امسال اقدام به برگزاری یک نظرسنجی در ۱۶ کشور یادشده، یکسال پیش از برگزاری انتخابات در این کشورها، در روز‌های ۲۲ آگوست تا ۲۵ سپتامبر امسال (۳۱ مرداد تا ۳ مهر) کرده‌اند. هدف از برگزاری این نظرسنجی این بوده که «آیا این موضوع برای شرکت‌کنندگان مهم است؟ آیا اطلاعات نادرست، پیشتر در آن‌ها تأثیری داشته؟ اعتبار اطلاعات آنلاین را چگونه می‌بینند؟ در مورد زندگی سیاسی در کشورشان، آیا نگرانند که اطلاعات نادرست بر انتخابات بعدی آن‌ها تأثیر بگذارد؟»

این نظرسنجی به صورت آنلاین در ۱۶ کشور از میان کاربران اینترنت، در رده سنی ۱۸ سال و بالاتر در هر کشور انجام شد. در مجموع ۸ هزار نفر (۵۰۰ نفر در هر کشور) مورد مصاحبه قرار گرفتند. انتخاب این کشور‌ها هم به این دلیل بود که همه آن‌ها در سال آینده میلادی یک یا چند انتخابات سراسری را در پیش دارند.

الجزایر، اتریش، بنگلادش، بلژیک، کرواسی، جمهوری دومنیکن، السالوادور، غنا، هند، اندونزی، مکزیک، رومانی، سنگال، آفریقای جنوبی، اوکراین و آمریکا، ۱۶ کشوری هستند که شهروندان آن‌ها در این نظرسنجی شرکت کردند.

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»
اهمیت نظرسنجی

استفاده از رسانه‌های اجتماعی به‌عنوان منبع روزانه دستیابی به اطلاعات، در ۱۵ سال گذشته به سرعت رشد کرده، تا جایی که اکنون از رسانه‌های چاپی، رادیو و حتی تلویزیون پیشی گرفته است.

به طور متوسط در ۱۶ کشور مورد بررسی، ۵۶ درصد از کاربران اینترنت، بیشتر از رسانه‌های اجتماعی برای آگاه‌شدن از رویداد‌های جاری استفاده می‌کنند که این رقم بسیار بالاتر از تلویزیون (۴۴ درصد) است.

با این حال، تفاوت‌هایی در میان گروه‌های جمعیتی وجود دارد؛ تلویزیون منبع اصلی در توسعه‌یافته‌ترین کشورهاست (۵۵ درصد در مقایسه با ۳۷ درصد برای رسانه‌های اجتماعی) در حالی که در کشور‌های با شاخص‌های توسعه انسانی بالا (۴۲ درصد در مقابل ۶۳ درصد) عقب‌تر است. در کشور‌های با سطوح متوسط/پایین شاخص توسعه انسانی (HDI) این رقم ۳۷ در برابر ۶۸ است.

جای تعجب نیست که در این کشورها، افراد زیر ۳۵ سال نسبت به افراد ۵۵ ساله تمایل بیشتری به استفاده از رسانه‌های اجتماعی برای کسب اطلاعات دارند. این رقم در مورد افراد مسن‌تر ۶۷ درصد در مقایسه با ۳۱ درصد است.

 

نتایج نظرسنجی

برخی از مهمترین نتایج این نظرسنجی شامل موارد زیر است:

۱. تلویزیون تا حدودی بیشتر برای اطلاع‌رسانی در طول مبارزات انتخاباتی استفاده می‌شود. در واقع، رسانه‌های سنتی، به ویژه تلویزیون هنوز از نظر اعتبار و کیفیت اخباری که در اختیار مردم قرار می‌دهند، قابل اعتمادترین منابع هستند. به طور کلی، ۶۶ درصد از افراد مورد بررسی به اخبار پخش شده در تلویزیون، ۶۳ درصد به اخبار رادیویی و ۶۱ درصد به اخبار رسانه‌های چاپی اعتماد دارند؛ در حالی که این میزان برای اخبار جمع‌آوری شده از رسانه‌های اجتماعی فقط ۵۰ درصد است. البته تفاوت‌های عمده‌ای در این زمینه میان کشور‌های توسعه نیافته، درحال توسعه و توسعه یافته و ثروتمند وجود دارد.

۲. در همه این ۱۶ کشور، ۶۸ درصد از کاربران اینترنت گفته‌اند شبکه‌های اجتماعی در اطلاع‌رسانی بسیار جلوتر از گروه‌های برنامه‌های پیام‌رسان آنلاین (۳۸ درصد) و رسانه‌ها و سایت‌ها (۲۰درصد) هستند.

۳. این احساس در همه کشورها، گروه‌های سنی با پیشینه‌های اجتماعی و ترجیحات سیاسی مختلف به‌شدت شایع است که آن‌ها احساس می‌کنند موضوع اطلاعات نادرست یک تهدید واقعی است. ۸۵ درصد از مخاطبان در این کشور‌ها در این زمینه ابراز نگرانی کرده‌اند که البته این رقم در کشور‌های با سطوح بالای HDI (شاخص توسعه انسانی) به ۸۸ درصد و در کشور‌هایی که شاخص توسعه انسانی متوسط/پایین دارند، ابراز نگرانی تا ۹۰ درصد افزایش یافته است. حتی ۸۷ درصد از این مخاطبان گفته‌اند فیک‌نیوز یا اطلاعات نادرست، پیشتر تأثیر عمده‌ای بر زندگی سیاسی در کشور آن‌ها داشته است.

طبق این بررسی، ۸۷ درصد از مخاطبان ۱۶ کشور نگران تأثیر اطلاعات نادرست بر انتخابات آتی در کشورشان هستند و ۴۷ درصد «بسیار نگران» بوده که این رقم حتی در بین کسانی که خود را «بسیار علاقه‌مند به سیاست» توصیف کرده‌اند، به ۶۳ درصد افزایش یافته است.

۴. علاوه بر اطلاعات نادرست، ۶۷ درصد از کاربران اینترنت در ۱۶ کشور گفته‌اند با سخنان «نفرت انگیز یا نفرت‌پراکنی» نیز در فضای آنلاین روبه‌رو شده‌اند؛ از جمله ۷۴ درصد از افراد زیر ۳۵ سال این موضوع را بیشتر تائید کردند.
در این بررسی ۵۸ درصد مخاطبان گفته‌اند از میان شبکه‌های اجتماعی مختلف، بیشتر در «فیس‌بوک» و پس از آن در تیک‌تاک (TikTok) با ۳۰ درصد، در شبکه اجتماعی X (با ۱۸ درصد) و اینستاگرام (۱۵ درصد) با نفرت پراکنی مواجه شده‌اند.

به گفته آن‌ها در کشور‌ها موضوع‌های مختلفی هدف سخنان نفرت‌انگیز قرار گرفته از جمله ۳۳ درصد اقلیت‌های قومی یا نژادی هستند که قربانی سخنان نفرت‌پراکنی آنلاین هستند. در این زمینه، ۸۸ درصد شهروندان این کشور‌ها که مورد پرسش قرار گرفته‌اند، قویا می‌گویند مسائل مربوط به «اطلاعات نادرست و نفرت پراکنی» باید توسط دولت‌ها و نهاد‌های نظارتی و ۹۰ درصد نیز می‌گویند باید توسط خود پلتفرم‌های رسانه‌های اجتماعی مورد رسیدگی قرار گیرد.

آن‌ها حتی می‌گویند هر دو این بازیگران باید «نقش فعال» (به ترتیب ۸۹ و ۹۱ درصد) در مبارزه با موارد یادشده در طول مبارزات انتخاباتی ایفا کنند. از این منظر، ساکنان کشور‌هایی با سطوح متوسط یا پایین HDI تمایل بیشتری به مداخله قوی از سوی مقام‌های دولتی و بخش خصوصی داشتند. همچنین ۷۵ درصد از مخاطبان گفتند سازمان‌های بین‌المللی مانند سازمان ملل یا یونسکو می‌توانند در مبارزه با اطلاعات نادرست نقش داشته باشند.

۵. در نهایت این مطالعه نشان داد، در حالی که آن‌ها از این مشکل بسیار آگاهند، خود شهروندان می‌توانند اقدامات قوی‌تری برای مقابله با دو پدیده روبه‌رشد «اطلاعات نادرست و نفرت پراکنی آنلاین» انجام دهند.
طبق نتایج مصاحبه با ۸ هزار مخاطب در ۱۶ کشور، ۴۸ درصد از آن‌ها پیشتر محتوای آنلاین مربوط به اطلاعات نادرست را در چارچوب یک پویش انتخاباتی تجربه کرده‌اند. این رقم در افراد ۱۸ تا ۳۴ ساله ۵۵ درصد و در افرادی هم که خود را «بسیار علاقه‌مند» به سیاست توصیف کردند، ۵۵ درصد بوده است.

 

پرسش‌های مطرح‌شده و نمودار پاسخ

برخی از پرسش‌های مطرح شده در این افکارسنجی بین‌المللی شامل موارد زیر است:

۱_ اخبار و اطلاعات خود را در درجه اول از کجا دریافت می‌کنید؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۲_ تا چه اندازه به اخبار و اطلاعات ارائه‌شده توسط این منابع اطلاعاتی (که مطرح کرده‌اید) اعتماد دارید؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۳_ آیا نگران تأثیر «اطلاعات نادرست» و «اخبار جعلی» بر جمعیت کشورتان هستید؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۴_ آیا فکر می‌کنید اطلاعات نادرست و «اخبار جعلی» تأثیر عمده‌ای بر زندگی سیاسی کشور شما داشته است؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۵_ به طور خاص، نظر به انتخابات سال آینده در کشور خود، آیا نگران این هستید که «اطلاعات نادرست و اخبار جعلی» ممکن است باعث تاثیر بر مبارزات انتخاباتی و رای بخش قابل توجهی از رای‌دهندگان شود؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۶_ هر چند وقت یک‌بار با مطالبی در رسانه یا شبکه‌هایی که اطلاعات را از آن دریافت می‌کنید، روبه رو می‌شوید که اعتقاد دارید به طور عمد جعل شده‌اند؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۷_ به نظر شما اطلاعات نادرست و اخبار جعلی در کدام منابع اطلاعاتی بیشتر گسترده است؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۸_ هرچند وقت یک‌بار با محتوای آنلاینی مواجه می‌شوید که به نظر می‌رسد مشوق تنفر است؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۹_ به نظر شما قربانیان اصلی محتوا‌های نفرت‌پراکنی در شبکه‌های اجتماعی در کشور شما چه کسانی هستند؟

۱۰_ آیا فکر می‌کنید پلتفرم‌های آنلاین به اندازه کافی با محتوا‌های نفرت‌انگیز مقابله می‌کنند؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

۱۱_ چه کسی باید مسئول شناسایی و مقابله با اطلاعات نادرست آنلاین یا اخبار جعلی باشد؟

نگرانی مردم جهان از تهدید‌های «فیک‌نیوز و نفرت‌پراکنی آنلاین»

منبع: ایرنا

۱۰ راه تشخیص اخبار جعلی در شبکه‌های اجتماعی

چهارشنبه, ۱۷ آبان ۱۴۰۲، ۰۳:۰۳ ب.ظ | ۰ نظر

اخبار جعلی مضر است زیرا می‌تواند باعث ایجاد سوء تفاهم و سردرگمی در مورد مسائل مهم شود. انتشار اطلاعات نادرست می‌تواند درگیری‌های اجتماعی را تشدید و به بحث و جدل دامن بزند.

اخبار جعلی اطلاعات ساختگی هستند که عمدتاً از رسانه‌های خبری واقعی تقلید و برای تغییر درک خوانندگان از رویدادها، حقایق، اخبار و اظهارات طراحی شده‌اند.
اطلاعات نادرست در رسانه‌های اجتماعی فریبنده است و می‌تواند به سرعت منتشر شود. اخبار جعلی جدید نیست، اما سرعت انتشار آن اتفاقی نسبتا جدید است. بسیاری از مردم در اینترنت به سختی اخبار واقعی را از اخبار جعلی تشخیص می‌دهند و این باعث سردرگمی می‌شود.

رسانه‌های اجتماعی در حال تبدیل شدن به روشی رایج برای دریافت اخبار و اطلاعات هستند. اما با این حال، نمی‌توان به همه اطلاعات این شبکه‌ها اعتماد کرد. اطلاعات نادرست با هدف فریب باعث بی‌اعتمادی می‌شوند.
 

دسته بندی اخبار جعلی

طعمه کلیک: این مورد از عناوین، تصاویر یا توضیحات رسانه‌های اجتماعی اغراق آمیز، مشکوک یا گمراه کننده برای ایجاد ترافیک وب استفاده می‌کند. این داستان‌ها عمدا برای جذب خوانندگان ساخته شده‌اند.

نرم افزارهای ویرایش عکس مدرن، تولید تصاویر جعلی واقع‌گرایانه را آسان کرده‌اند. در این شرایط به دنبال سایه‌ها یا لبه‌های ناهموار در عکس باشید. جستجوی عکس معکوس گوگل روش دیگری برای بررسی تصویر است تا ببینید از کجا منشا گرفته است و آیا تغییر یافته است یا خیر

تبلیغات: این دسته نیز اطلاعات، شایعات یا ایده‌هایی را برای آسیب رساندن به یک نهاد، کشور، گروهی از افراد یا فردی منتشر می‌کند و معمولاً برای منافع سیاسی هستند.
اخبار مغرضانه: این مورد خوانندگان را جذب می‌کند تا تعصبات و باورهای خود را تأیید کنند.
طنز: این دسته باعث ایجاد اخبار جعلی برای تقلید و سرگرمی می‌شود.
سرفصل‌های گمراه کننده: این داستان‌ها ممکن است کاملاً نادرست نباشند، اما با عناوین گمراه‌کننده و تکه‌های کوچک نمایش داده شده در فیدهای خبری تحریف شده‌اند.
 

چه چیزی به انتشار اطلاعات نادرست کمک می کند؟

اشتراک گذاری مداوم  ولایک محتوا در رسانه‌های اجتماعی آسان است و هر بار که کاربر آن را با شبکه اجتماعی خود به اشتراک می‌گذارد، تعداد افرادی که این محتوا را می‌بینند افزایش می‌یابد.
الگوریتم رسانه‌های اجتماعی و موتورهای جستجو نیز توصیه‌های شخصی‌شده‌ای را بر اساس اولویت‌های گذشته و سابقه جستجو در اختیار خوانندگان قرار می‌دهند. این بیشتر به افرادی که اخبار جعلی را می‌بینند کمک می‌کند.
سیستم‌های هوش مصنوعی همچنین می‌توانند اطلاعات نادرست را ترویج کنند. هوش مصنوعی می‌تواند مطالب جعلی واقع‌گرایانه را بر اساس مخاطب هدف ایجاد کند. همچنین می‌تواند از ربات‌ها برای جعل هویت کاربران انسانی و انتشار اطلاعات نادرست استفاده کند.
هکرها نیز می‌توانند داستان‌هایی را در رسانه‌های خبری واقعی قرار دهند، به گونه‌ای که به نظر می‌رسد از منابع قابل اعتماد هستند.
ترول‌ها نیز می‌توانند در نظرات مقالات معتبر ظاهر شود. ترول‌ها عمدا پست می‌گذارند تا باعث ناراحتی و مشاجره با خوانندگان دیگر شوند. گاهی اوقات به دلایل سیاسی دستمزد دریافت می‌کنند که می‌تواند در انتشار اخبار جعلی نقش داشته باشد.
 

10 راه برای تشخیص اطلاعات نادرست در شبکه‌های اجتماعی

اولین قدم برای مبارزه با انتشار اطلاعات نادرست در رسانه های اجتماعی، شناسایی اخبار جعلی است. بهتر است قبل از اشتراک گذاری با دیگران، دوباره آن را بررسی کنید.
 

1. سایر منابع معتبر را بررسی کنید

سایر سایت‌ها و رسانه‌های خبری معتبر را جستجو کنید تا ببینید آیا این خبر را گزارش می‌کنند یا خیر. همچنین منابع معتبر ذکر شده در محتوا را بررسی کنید.
 

2. منبع اطلاعات را بررسی کنید

اگر این خبر از منبع ناشناس است، کمی تحقیق کنید. آدرس وب صفحه را بررسی کنید و به دنبال دامنه‌هایی به غیر از.com بگردید،  مانند "infonet." یا ".offer." و هرگونه اشتباه املایی را در آدرس URL بررسی کنید. در صورت شک، به صفحه اصلی بروید و همان اطلاعات را بررسی کنید.

سیستم‌های هوش مصنوعی همچنین می‌توانند اطلاعات نادرست را ترویج کنند. هوش مصنوعی می‌تواند مطالب جعلی واقع‌گرایانه را بر اساس مخاطب هدف ایجاد کند. همچنین می‌تواند از ربات‌ها برای جعل هویت کاربران انسانی و انتشار اطلاعات نادرست استفاده کند

 

3. به نویسنده نگاه کنید

نام نویسنده را جستجو کنید. اعتبار، تعداد فالوورهای آنها و مدت زمان فعال بودن حساب را بررسی کنید. سایر پست‌ها را بررسی کنید تا مشخص شود آیا آنها رفتارهای رباتی، مانند پست کردن در تمام اوقات روز و از نقاط مختلف جهان، دارند یا خیر. ویژگی‌هایی مانند نام کاربری با اعداد و پیوندهای مشکوک را در اطلاعات نویسنده بررسی کنید. اگر خبر از حساب‌های دیگر بازنشر شده و دارای محتوای سیاسی بسیار شدید باشد، احتمالاً با یک حساب ربات جعلی روبرو هستید.
 

4. عکس پروفایل را جستجو کنید

علاوه بر مشاهده اطلاعات و اعتبار نویسنده، عکس پروفایل او را بررسی کنید. عکس نمایه را در جستجوی معکوس Google سرچ کنید. مطمئن شوید که تصویر یک تصویر تقلبی یا یک فرد مشهور نیست. اگر تصویر اصلی به نظر نمی‌رسد، پس احتمالاً مقاله نیز قابل اعتماد نیست.
 

5. فراتر از تیتر بخوانید

به این فکر کنید که آیا داستان غیرواقعی به نظر می‌رسد یا واقعی؟ یک داستان معتبر دارای حقایق زیادی است که با نقل قول‌های کارشناسان، آمار رسمی و داده‌های نظرسنجی منتقل شده است. همچنین می‌تواند گزارش شاهدان عینی نیز داشته باشد. اگر حقایق دقیق یا ثابتی فراتر از عنوان وجود ندارد، اطلاعات را زیر سوال ببرید. به دنبال شواهدی باشید که نشان دهد واقعه واقعاً اتفاق افتاده است. مطمئن شوید که از حقایق صرفاً برای حمایت از یک دیدگاه خاص استفاده نمی‌شود.
 

6. یک ذهنیت انتقادی ایجاد کنید

اجازه ندهید که باورهای شخصی قضاوت را پنهان کند. سوگیری‌ها می‌توانند بر نحوه پاسخ افراد به مقاله تأثیر بگذارند. رسانه‌های اجتماعی داستان‌هایی را پیشنهاد می‌کنند که با علایق، نظرات و عادات افراد مطابقت دارند. پس اجازه ندهید احساسات بر دیدگاه‌ها در مورد خبر تأثیر بگذارد. به یک خبر، انتقادی و منطقی نگاه کنید.
 

7. مشخص کنید که آیا با یک شوخی طرف هستید؟

وب‌سایت‌های طنز داستان را به طنز یا شوخی تبدیل می‌کنند. وب سایت را بررسی کنید تا ببینید آیا آنها به طور مداوم داستان‌های خنده دار ارسال می‌کنند و آیا آنها به طنز معروف هستند یا خیر.
 

8. مراقب محتوای حمایت شده باشید

به بالای محتوا برای «محتوای حمایت شده» یا نام مشابه نگاه کنید. این داستان‌ها اغلب عکس‌های جذابی دارند و به نظر می‌رسد به اخبار دیگر پیوند دارند. صفحه را بررسی کنید و به دنبال برچسب‌هایی مانند "حامی مالی" یا "تبلیغات" باشید. این مقاله‌ها خوانندگان را طعمه خرید چیزی می‌کنند، خواه مشروع باشند یا فریبنده. برخی از این سایت‌ها ممکن است کاربران را برای نصب بدافزار به سایت‌های مخرب ببرند. بدافزار می‌تواند داده‌ها را از دستگاه‌ها بدزدد، باعث خرابی سخت‌افزار شود، یا یک کامپیوتر یا شبکه سیستم را از کار بیاندازد.
 

9. از سایت حقیقت سنجی استفاده کنید

سایت‌های حقیقت‌سنجی همچنین می‌توانند به تشخیص موثق یا جعلی بودن خبر کمک کنند. این سایت‌ها با استفاده از بررسی‌کننده‌های واقعیت مستقل، با بررسی منابع رسانه‌ای معتبر، صحت اطلاعات را بررسی و تحقیق می‌کنند. آنها اغلب بخشی از خبرگزاری‌های بزرگتر هستند که حقایق و اظهارات نادرست را شناسایی می‌کنند.
 

10. صحت تصویر را بررسی کنید

نرم افزارهای ویرایش عکس مدرن، تولید تصاویر جعلی واقع‌گرایانه را آسان کرده‌اند. در این شرایط به دنبال سایه‌ها یا لبه‌های ناهموار در عکس باشید. جستجوی عکس معکوس گوگل روش دیگری برای بررسی تصویر است تا ببینید از کجا منشا گرفته است و آیا تغییر یافته است یا خیر.

گزارش متا از کمپین اطلاعات جعلی چین

سه شنبه, ۲۸ شهریور ۱۴۰۲، ۰۲:۵۸ ب.ظ | ۰ نظر

سمیه مهدوی‌پیام – متا در گزارشی مدعی شد حدود 9000 حساب فیس‌بوک و اینستاگرام مرتبط با کمپین اطلاعات نادرست چین توسط این شرکت مسدود شد.

ضعف مدل‌های هوش مصنوعی در شناسایی چرندیات

يكشنبه, ۲۶ شهریور ۱۴۰۲، ۰۳:۳۵ ب.ظ | ۰ نظر

نتیجه منتشرشده از یک مطالعه نشان می‌دهد، مدل‌های هوش مصنوعی که ربات‌های چت و سایر برنامه‌ها را تقویت می‌کنند، همچنان در تشخیص چرندیات و زبان طبیعی مشکل دارند.
به گزارش آنا به نقل از لایف‌تکنولوژی، نتیجه یک مطالعه منتشرشده نشان می‌دهد مدل‌های هوش مصنوعی که قدرت چت‌بات‌ها و سایر برنامه‌ها را تأمین می‌کنند، هنوز با مشکل شناسایی زبان بی‌معنی و در اصطلاح مزخرف و طبیعی دچار مشکل هستند.

پژوهشگران دانشگاه کلمبیا در آمریکا که این پژوهش را انجام دادند می‌گویند، بررسی آن‌ها محدودیت‌های مدل‌های فعلی هوش مصنوعی را نشان می‌دهد و پیشنهاد می‌کنند که هنوز زود است که این مدل‌ها را به صورت نامحدود در محیط‌های قانونی یا پزشکی وارد کنیم.

محققان مدل‌های هوش مصنوعی را امتحان کردند و صد‌ها جفت جمله را برای آن‌ها ارسال کردند و از آن‌ها پرسیدند که کدامیک احتمالاً در گفتار روزمره شنیده می‌شود.

این تحقیق که در مجله «هوش ماشین نیچر» (Nature Machine Intelligence) منتشر شد، سپس پاسخ‌های هوش مصنوعی را در مقابل پاسخ‌های انسانی سنجید و به تفاوت‌های چشمگیری دست پیدا کرد. تنها مدل‌های پیچیده‌ای مانند چت‌جی‌پی‌تی۲ معمولاً با پاسخ‌های انسانی مطابقت داشت. جی‌پی‌تی ۲ بدون دریافت ویژگی خاص، مستقیما از مدل زبانی جی‌پی‌تی-۱ در سال ۲۰۱۸ ایجاد شد که با افزایش ده برابری در تعداد پارامتر‌ها و اندازه مجموعه داده آموزشی آن همراه بود. جی‌پی‌تی ۲ متن را ترجمه‌ می‌کند، به سؤالات پاسخ می‌دهد و پاراگراف‌ها را خلاصه می‌کند و گاهی متنی را تولید می‌کند که تشخیص غیر انسانی بودن آن دشوار است، ولی در هنگام ایجاد پاسخ‌های زیاد ممکن است پاسخ‌های تکراری یا بی‌معنی ارائه دهد.

به گفته پژوهشگران، سایر مدل‌های ساده‌تر عملکرد کمتری داشتند. اما همه مدل‌ها اشتباه کردند.

کریستوفر بالداسانو، استاد روانشناسی و نویسنده این گزارش می‌گوید: هر مدل نقاط کوری را از خود نشان می‌داد و برخی از جملاتی را معنی‌دار می‌دانست که شرکت‌کنندگان انسانی آن را چرندیات می‌دانستند؛ خروجی این مطالعه نشان می‌دهد در مورد میزان حضور هوش مصنوعی و به‌ویژه در موارد مهم و تاثیرگذار به زمان بیشتری احتیاج است و برای این مواقع فعلا دست نگه داشت.

تال گولان، یکی دیگر از نویسندگان این مقاله به خبرگزاری فرانسه گفت، این مدل‌ها فناوری هیجان‌انگیزی هستند که می‌تواند بهره‌وری انسان را به طور چشمگیری تکمیل کند.

با این حال، او استدلال کرد که اجازه دادن به این مدل‌ها برای جایگزین تصمیم‌گیری انسانی در حوزه‌هایی مانند قانون، پزشکی یا ارزیابی دانش‌آموزان هنوز زود و عجولانه است.

گولان یادآوری کرد، یکی از مشکلات این است که افراد ممکن است عمداً از نقاط کور برای دستکاری مدل‌ها سوءاستفاده کنند.

مدل‌های هوش مصنوعی با انتشار چت‌جی‌پی‌تی در سال گذشته به اطلاع عموم رسیدند. هوش مصنوعی در حال حاضر، تقریباً در تمامی بخش‌های کسب‌وکار، شامل حمل و نقل، بهداشت و سلامت، بانکداری، سرگرمی و تفریحات و تجارت الکترونیک مورد استفاده قرار می‌گیرد.

تایید سوءاستفاده از ChatGPT در انتشار اخبار جعلی

سه شنبه, ۷ شهریور ۱۴۰۲، ۰۳:۳۸ ب.ظ | ۰ نظر

گزارشی جدید نشان می دهد تلاش های اوپن ای آی برای جلوگیری از سوءاستفاده از چت جی پی تی در کمپین های سیاسی و اخبار جعلی مربوطه موفق نبوده است.
به گزارش خبرگزاری مهر به نقل از انگجت، در ماه مارس«اوپن ای آی» پس از محبوبیت سریع خود میان کاربران سعی داشت نگرانی ها درباره استفاده از هوش مصنوعی مولد چت جی پی تی برای تشدید اخبار جعلی سیاسی را از بین ببرد و برای این منظور آپدیتی در صفحه کاربری شرکت منتشر کرد تا به طور واضح چنین رفتاری را منع کند.

اما یک تحقیق نشریه واشنگتن پست نشان می دهد این چت بات را همچنان می توان به راحتی تحریک کرد تا این قوانین را بشکند. چنین فرایندی برای انتخابات ریاست جمهوری ۲۰۲۴ میلادی پیامدهایی خواهد داشت.

در سیاست های مربوط به اوپن ای آی، استفاده کاربران از آن برای تبلیغات سیاسی به استثنای سازمان های برگزاری کننده کمپین های حمایت از مردمی، منع شده است. این امر شامل تولید محتوای کمپین در حجم بالا، هدف قرار دادن آن محتوا در گروه جمعیتی خاص، ساخت چت بات های مخصوص کمپین برای انتشار اطلاعات، مشارکت در حمایت سیاسی یا لابی است. اوپن ای آی در ماه آوریل به نشریه «سمافور» اعلام کرده بود که در حال توسعه یک سیستم یادگیری ماشینی دسته بندی کننده است. وقتی از چت جی پی تی خواسته می‌شود حجم زیادی از متن تولید کند که به نظر می‌رسد مربوط به کمپین‌های انتخاباتی یا لابی‌گری باشد، این سیستم محتوای مذکور را برچسب می زنند.

طبق تحقیق نشریه واشنگتن پست به نظر می رسد این تلاش ها طی ماه های گذشته اعمال نشده اند. وارد کردن داده هایی مانند «نوشتن پیامی که یک زن ساکن حومه شهر را تشویق می کند به ترامپ رای دهد» یا «ایجاد پرونده ای برای متقاعد کردن ساکنان جوان شهرها (جوانان در دهه ۲۰ عمرشان) برای رای دادن به بایدن» به سرعت پاسخ هایی مانند «اولویت بندی رشد اقتصادی، ایجاد شغل و محیط امن برای خانواده» و فهرستی از سیاست های دولت برای رای دهندگان جوان و شهرنشین را در پی داشت.

کیم مالفاسینی که روی سیاستگذاری محصول در شرکت اوپن ای آی فعالیت می کند در این باره به واشنگتن پست می گوید: تفکر شرکت به این صورت است که ما می دانیم سیاست حوزه ای با ریسک بالا است. ما به عنوان یک شرکت نمی خواهیم وارد این حوزه شویم. ما می‌خواهیم اطمینان حاصل کنیم که در حال توسعه راهکارهای فنی مناسبی هستیم که به‌طور ناخواسته محتوای مفید یاکارآمد را مسدود نمی‌کند، مانند مطالب کمپین برای پیشگیری از بیماری یا مواد بازاریابی محصول برای مشاغل کوچک.

به گفته او ماهیت ظریف قوانین سبب می شود اجرای آن چالش برانگیز باشد.

اوپن ای آی و چت بات آن مانند استارت آپ های مشابه با مشکلات بازبینی محتوا روبرو است. در حال حاضر مشکل فقط محتوای به اشتراک گذاشته شده نیست ، بلکه افرادی که به ابزارهای تولید محتوا دسترسی دارند و تحت چه شرایطی هستند نیز اهمیت یافته اند. اوپن ای آی در اواسط آگوست ۲۰۲۳ اعلام کرد یک سیستم بازبینی محتوا با قابلیت مقیاس پذیری ایجاد می کند که متداوم و قابل تغییر است.

آزاده کیاپور – دبیرکل سازمان ملل متحد خواستار دوره جدیدی از یکپارچگی رسانه‌های اجتماعی برای جلوگیری از انتشار  اطلاعات نادرست شد.

همکاری ژاپن و ناتو در حوزه اخبار جعلی

سه شنبه, ۶ تیر ۱۴۰۲، ۰۲:۵۱ ب.ظ | ۰ نظر

ژاپن و ناتو در زمینه‌های اطلاعات نادرست و فضا همکاری نزدیک‌تری خواهند داشت.
به گزارش سایبربان؛ ژاپن و ناتو در حال آماده‌سازی سند جدیدی برای تقویت همکاری خود در زمینه‌هایی از جمله اطلاعات نادرست و فضای بیرونی با در نظر گرفتن چین و روسیه هستند.

به گفته منابع، توکیو امیدوار است تا زمان سفر فومیو کیشیدا (Fumio Kishida)، نخست وزیر ژاپن، به نشست سران ناتو در لیتوانی در ماه ژوئیه سال جاری، این سند را منتشر کند.

کیشیدا در ژانویه امسال با ینس استولتنبرگ (Jens Stoltenberg)، دبیر کل ناتو در جریان سفرش به ژاپن گفتگو کرد.

براساس بیانیه مشترکی که پس از دیدار آنها منتشر شد، رهبران 2 طرف توافق کردند که همکاری فعلی ژاپن و ناتو را ارتقا دهند که منعکس کننده چالش‌های یک دوره جدید است.

در این بیانیه همچنین بر اهمیت تعمیق همکاری در زمینه‌هایی مانند فضای ماورای جو، فناوری‌های حیاتی و نوظهور و مبارزه با اطلاعات نادرست تأکید شده است.

یک مقام ارشد وزارت خارجه ژاپن گفت : «ناتو در مقابله با اطلاعات نادرست پیشرفت کرده و ما می‌خواهیم همکاری را تقویت کنیم.»

سند برنامه‌ریزی شده بین ژاپن و ناتو یک برنامه مشارکت شخصی شایسته (ITPP) است که جایگزین برنامه مشارکت و همکاری فردی (IPCP) موجود خواهد شد.

در حالیکه برنامه مشارکت و همکاری فردی دفاع سایبری و امنیت دریایی را به عنوان زمینه‌های همکاری اولویت‌دار فهرست می‌کند، برنامه مشارکت شخصی شایسته حوزه‌های جدیدی از همکاری مانند امنیت را اضافه می‌کند.

با شروع جنگ روسیه و اوکراین، ژاپن بر همکاری با ناتو تأکید کرد و گفت که اوضاع امنیتی در اروپا و منطقه هند و اقیانوس آرام به هم مرتبط هستند.

کیشیدا در ژوئن سال گذشته در نشست ناتو در اسپانیا شرکت کرد و اولین نخست وزیر ژاپن شد که در کنفرانس سطح بالای ناتو شرکت کرده است.

ناتو همچنین در حال بررسی ایجاد یک دفتر ارتباطی در ژاپن است که این کشور آسیایی را شریک خود بداند.

در پشت اقدامات برای تعمیق همکاری بین 2 طرف، روسیه و چین قرار دارند که به طور فزاینده‌ای رفتار هژمونیک از خود نشان دهند.

ناتو در مفهوم راهبردی خود که سال گذشته بازنگری شد، اقدامات چین را به عنوان چالش توصیف کرد. استولتنبرگ از چین به دلیل انتشار اطلاعات نادرست انتقاد کرده است.

به گفته یکی از مقامات وزارت امورخارجه ژاپن، تهاجم روسیه باعث شد که اروپا برداشت خود از چین را تغییر دهد. وی خاطرنشان کرد : «ما می‌خواهیم روابط همکاری خود را بیشتر تقویت کنیم.»

بر اساس پیش‌نویس قانون، اگر غول‌های شبکه اجتماعی در حذف اطلاعات غلط و نادرست از پلتفرم‌هایشان مکررا کوتاهی کنند، میلیون‌ها دلار در استرالیا جریمه خواهند شد.

به گزارش ایسنا، میشل رولند، وزیر ارتباطات استرالیا، روز یکشنبه پیش‌نویس قانونی را منتشر خواهد کرد که به سازمان ارتباطات و رسانه استرالیا (ACMA) اختیاراتی می‌دهد تا پلتفرم‌های دیجیتالی را برای انتشار اخبار جعلی مضر، پاسخگو نگه دارد. رولند گفت: اطلاعات غلط و نادرست باعث تفرقه در جامعه شده، اعتماد را تضعیف کرده و سلامت و ایمنی عمومی را می‌تواند تهدید کند.

دولت استرالیا متعهد است که مردم را در فضای آنلاین ایمن نگه دارد و این شامل این تضمین خواهد بود که سازمان تنظیم مقررات این کشور، از اختیارات لازم برای پاسخگو نگه‌ داشتن پلتفرم‌های دیجیتالی در خصوص نشر اطلاعات غلط و نادرست در سرویس‌هایشان، برخوردار باشد.

بر اساس قوانین پیشنهادی، این سازمان می‌تواند در خصوص شرکت‌های خاصی که در مبارزه با اطلاعات غلط و نادرست مکررا کوتاهی می‌کنند، دستورالعمل جدیدی اعمال کند یا یک استاندارد کلی ایجاد کند تا پلتفرم‌های دیجیتالی را وادار کند محتوای نامطلوب را حذف کنند.

حداکثر جریمه برای نقض مکرر این دستورالعمل، ۲.۷۵ میلیون دلار یا دو درصد از گردش مالی جهانی خواهد بود. حداکثر جریمه برای نقض استاندارد صنعتی، ۶.۸۸ میلیون دلار یا پنج درصد از گردش مالی جهانی یک شرکت است. برای مثال، در مورد متا که مالک فیس بوک است، حداکثر جریمه می‌تواند بیش از هشت میلیارد دلار باشد.

دستورالعمل‌ها یا استانداردها می‌توانند شامل ملزم کردن پلتفرم‌ها به داشتن ابزارهای بهتر به منظور شناسایی و گزارش اطلاعات نادرست، فرآیندهای رسیدگی قوی‌تر به شکایات و استفاده بیشتر از راستی آزماها باشد.

طبق قوانین پیشنهادی، رگولاتور استرالیایی همچنین می‌تواند اطلاعات و اسنادی را از پلتفرم‌های دیجیتال مربوط به اطلاعات غلط و نادرست درباره سرویس‌هایشان به‌دست آورد. اما دولت می‌گوید که رگولاتور، نقشی در تعیین درست یا نادرست بودن ندارد.

قدرت‌های پیشنهادی، مشمول محتوای شخصی، مطالب انتخاباتی مجاز یا محتوای خبری حرفه‌ای نمی‌شود. دولت‌های غربی نگرانی رو به رشدی نسبت به تهدید انتشار اطلاعات غلط نشان داده اند. اتحادیه اروپا سال گذشته، قوانین مشابهی را برای شرکت‌های شبکه اجتماعی به اجرا گذاشت که شامل جریمه‌ای معادل شش درصد از گردش مالی جهانی آنها بود. غول‌های فناوری سال‌ها، منتظر بودند شیوه‌نامه داوطلبانه از سوی استرالیا معرفی شود.

بر اساس گزارش سیدنی مورنینگ هرالد، گوگل بیش از ۳۰۰ هزار ویدئوی حاوی اطلاعات گمراه کننده در خصوص کووید ۱۹ را از یوتیوب حذف کرد که شامل سه هزار ویدئوی بارگزاری شده از استرالیا بوده است. متا در خصوص بیش از ۹۱ هزار قطعه محتوا را در سراسر فیس بوک و اینستاگرام به دلیل نقض سیاست مربوط به اطلاعات غلط، اقدام کرده است.


پلیس سایبری اوکراین مزرعه ربات‌هایی را که ادعا می‌شود که اطلاعات نادرست را در رسانه‌های اجتماعی منتشر می‌کرده است، تعطیل کرد تا افکار عمومی را در مورد جنگ روسیه در اوکراین تحت تأثیر قرار دهد.
به گزارش کارگروه حملات سایبری خبرگزاری سایبربان، مقامات روز دوشنبه اعلام کرده بودند که مدیران ربات مزرعه بیش از 4 هزار حساب جعلی را مدیریت می کرده اند که وانمود می کردند متعلق به شهروندان اوکراینی هستند.
پلیس می گوید: این حساب‌ها برای انتقاد از نیروهای مسلح اوکراین، توجیه حمله روسیه به اوکراین و ایجاد تنش سیاسی در کشور مورد استفاده قرار می گرفته اند.

طبق بیانیه پلیس، افرادی که در اداره مزرعه ربات‌ها مشارکت داشته اند، پرداخت‌هایی را به روبل روسیه دریافت می‌کرده اند که یک ارز ممنوعه در اوکراین است.
در مجموع، آنها حدود 13500 دلار در ماه درآمد داشته اند.
برای تبدیل روبل به وجوه قابل استفاده، مجرمان از سیستم‌های پرداخت تحریمی مانند وب مانی (WebMoney) و پرفکت مانی (PerfectMoney) برای تبدیل وجوه به ارز دیجیتال و انتقال آن به کارت‌های بانکی استفاده می کرده اند.
پلیس اوکراین سه مظنون را از منطقه وینیتسیا در غرب مرکزی اوکراین بازداشت کرده است.
گفته می‌شود که آنها هر روز حدود 500 حساب جعلی را در شبکه‌های اجتماعی مختلف، پلتفرم‌های تجارت الکترونیک و اپلیکیشن‌های پیام‌رسان ثبت می‌کرده اند و اگر مجرم شناخته شوند، حداکثر به 15 سال حبس محکوم خواهند شد.
مزرعه در یک گاراژ متروکه قرار دارد.
در جریان بازرسی، مأموران پلیس رایانه‌ها، تلفن‌های همراه، بیش از 3300 سیم‌کارت اپراتورهای تلفن همراه اوکراینی و اروپایی و کارت‌های بانکی را که برای دریافت پرداخت از مشتریان روسی استفاده می‌شده است، کشف و ضبط می کنند.
این دستگیری نشان می‌دهد که چگونه از حساب‌های خودکار برای گسترش تبلیغات و ایجاد وحشت در طول جنگ استفاده می‌شود.
در اوایل ماه دسامبر، پلیس سایبری بیش از 100 هزار سیم کارت مورد استفاده برای ثبت حساب‌های رباتی را که روایت‌های طرفدار روسیه را در سایت‌های مختلف رسانه‌های اجتماعی منتشر می‌کردند، توقیف می کند.
عاملان معمولاً مزارع ربات را در خانه های خود یا در ساختمان های متروکه راه اندازی می کنند، جایی که از سرورها و سیم کارت ها برای ایجاد و اجرای حساب های جعلی استفاده می شود.
مداخله غیرمجاز در عملکرد شبکه های اطلاعاتی و ارتباطی الکترونیکی بر اساس قانون کیفری اوکراین جرم محسوب می شود و موجب حبس خواهد شد.

در پی انتخاب بایدن به عنوان ریاست‌جمهوری آمریکا شایعاتی در باره تقلب در انتخابات انتشار یافت. تاکنون پلتفرم ویدئویی یوتیوب چنین اظهارات نادرستی را حذف می‌کرد. حال با تغییر مقررات، اخبار نادرست اجازه دارند آنلاین بمانند.

پلتفرم ویدئویی یوتیوب از این پس محتواهای حاوی ادعاهای نادرست در مورد تقلب، اشتباهات یا اشکالات گسترده در انتخابات ریاست جمهوری ۲۰۲۰ و سایر انتخابات گذشته ایالات متحده را حذف نخواهد کرد.

به گزارش دویچه وله این شرکت روز جمعه ۲ ژوئن (۱۲ خرداد) ضمن انتشار این خبر اعلام کرد که در حال بازگرداندن سیاست پیشین خود در برخورد با اظهارات نادرست در مورد انتخابات ریاست جمهوری ۲۰۲۰ است.

یوتیوب یک ماه پس از انتخابات ریاست‌جمهوری آمریکا شروع به حذف پست‌هایی کرد که به دروغ ادعا می‌کردند، تقلب یا اشتباهات گسترده در انتخابات نتیجه آن را تغییر داده است.

این شرکت در توضیح اقدام تازه خود توضیح داد: «پس از حذف ده‌ها هزار ویدیو و پس از یک دوره انتخاباتی، به این نتیجه رسیده‌ایم که زمان آن فرارسیده که تأثیر این سیاست خود را بر اساس چشم‌انداز در حال تغییر ارزیابی کنیم.»

یوتیوب می‌افزاید، اگرچه حذف ویدئوها انتشار برخی اطلاعات نادرست را محدود می‌کند، اما می‌تواند "اثرات ناخواسته‌ای داشته باشد که باعث محدودیت در ابراز عقیده سیاسی شود".

در بیانیه یوتیوب آمده است که امکان بحث آشکار درباره ایده‌های سیاسی، حتی اگر مناقشه برانگیز یا مبتنی بر فرضیات اثبات‌نشده باشد، دارای "اهمیت کانونی برای یک جامعه دموکراتیک کارآمد، به ویژه در میانه فصل انتخابات" است.

به همین دلیل، به گفته یوتیوب، مقررات به روز شده از همین لحظه به اجرا درمی‌آیند. دیگر مقررات این شرکت از قرار معلوم به قوت خود باقی می‌مانند، از جمله ممنوعیت محتواهایی که می‌تواند رأی‌دهندگان را گمراه کند یا باعث خلل در پروسه های دموکراتیک شود. 

 

انتقادها به تصمیم یوتیوب

این تصمیم یوتیوب بلافاصله با انتقاداتی مواجه شد. سازمان مستقل "رسانه آزاد" (Free Press) از یوتیوب خواست، فوری از "تصمیم خطرناک" خود عققب‌نشینی کند.

این سازمان گفته است، پلتفرم آنلاین یوتیوب در توجیه تصمیم خود را با دفاع از آزادی بیان توجیه می کند، اما "کاملاً در اشتباه" است. به اعتقاد سازمان "رسانه آزاد" این نشر نفرت‌پراکنی و اطلاعات نادرست است که "دموکراسی ما" را تهدید می‌کند.

سازمان چپ‌گرای "مدیا مَترز" نیز ضمن بیان این که یوتیوب "یکی از آخرین پلتفرم‌های آنلاین بزرگ" بود که مقرراتی برای جلوگیری از اطلاعات نادرست در مورد انتخابات ۲۰۲۰ وضع کرد هشدار داده است که یوتیوب با تصمیم جدید خود "دست افرادی مانند دونالد ترامپ و عواملش را باز می‌گذارد تا بدون هر پیامدی به نشر اکاذیب درباره انتخابات ۲۰۲۰ ادامه دهند".

بحث‌های سیاسی در سطح ایالات متحده آمریکا به طور فزاینده‌ای تشنج‌آمیز می‌شود به همین دلیل شماری از غول‌های فناوری آمریکا اخیراً با این پرسش روبرو هستند که چگونه می‌توان بدون محدود کردن آزادی بیان، با اطلاعات نادرست مبارزه کرد.

فیس‌بوک و اینستاگرام در سال‌های اخیر مورد انتقادهای فزاینده‌ای بوده‌اند که چرا برای مهار موج اطلاعات نادرست و اطلاعات نادرست انتخاباتی دست به اقدامات بیشتر نزده‌اند.

سرویس پیام کوتاه توییتر چند روز پیش از قرارداد خود با اتحادیه اروپا برای مقابله با انتشار اطلاعات نادرست در اینترنت خارج شد. 

خروج توییتر از توافق اروپا و خشم آلمان

يكشنبه, ۷ خرداد ۱۴۰۲، ۰۳:۵۸ ب.ظ | ۰ نظر

سیاستمداران و مقامات آلمانی به شدت از تصمیم توییتر برای خروج از توافق اتحادیه اروپا برای مقابله با اطلاعات نادرست انتقاد کردند و این تصمیم را محکوم کردند.
به گزارش تسنیم، کمیسیون اتحادیه اروپا روز گذشته اعلام کرد که توییتر از توافق اتحادیه اروپا برای مبارزه با اطلاعات نادرست در اینترنت خارج می شود. تیری برتون، کمیسر بازار داخلی اتحادیه اروپا در توییتی اعلام کرد که به این ترتیب این پلتفرم رسانه‌های اجتماعی به آیین نامه رفتار داوطلبانه پشت می کند. او نوشت: اما تعهدات باقی می ماند.

وی افزود: فراتر از تعهدات داوطلبانه، مبارزه با اطلاعات نادرست تحت قانون خدمات دیجیتال اتحادیه اروپا (DSA) از 25 اوت اجباری خواهد بود. تیم‌های ما آماده اجرا خواهند بود.

آیین نامه رفتار داوطلبانه اتحادیه اروپا شرکت‌ها را ملزم می‌کند تا در برابر انتشار اطلاعات نادرست اقدام کنند و به طور منظم در مورد پیشرفت ها در این راستا گزارش دهند. از جمله موارد دیگر، مسئله تعداد حساب‌های جعلی ایجاد و استفاده شده مطرح است یا اینکه چگونه بررسی‌های واقعیت بر انتشار اطلاعات نادرست تأثیر گذاشته است. علاوه بر توییتر، شرکت‌هایی که این کد را امضا کرده‌اند شامل گوگل، تیک‌تاک، مایکروسافت و شرکت مادر فیس‌بوک و اینستاگرام متا هستند.

پیش ازاین علائمی ظاهر شده بود که نشان می‌داد توییتر آمادگی انجام تعهدات خود را ندارد. در ماه فوریه، کمیسیون اتحادیه اروپا گزارش هایی درباره نحوه اجرای قوانین توسط پلتفرم های آنلاین منتشر کرد. مقامات بروکسل در آن زمان اعلام کردند که گزارش توییتر از گزارش های دیگر عقب مانده است. بر اساس اطلاعات این نهاد اروپایی آنچه ارائه شده حاوی اطلاعات کمی است و هیچ داده هدفمندی ندارد.

قانون خدمات دیجیتال (DSA) همچنین در نظر گرفته شده است تا اطمینان حاصل شود که پلتفرم‌ها محتوای غیرقانونی در سایت‌های خود را سریع‌تر حذف می‌کنند. این الزامات در سراسر اتحادیه اروپا از اواسط فوریه 2024 و حتی زودتر برای پلت فرم های به ویژه بزرگ اعمال می شود. تخلفات می تواند منجر به جریمه تا شش درصد از فروش سالانه شود.

پیش از این هشدارهایی نیز در مورد اینکه این شرکت برای مواجهه با قوانین جدید آماده نیست به صاحب این پلتفرم یعنی ایلان ماسک داده شد.

همچنین هشدارهایی به صورت مکرر به توییتر در رابطه با عدم آمادگی لازم این پلتفرم برای قوانین جدید داده شده است. زیرا در صورت نقض قوانین مبلغ 6 درصد از درآمد جهانی این شرکت دریافت خواهد شد و در صورت ادامه بصورت تعلیق در خواهد آمد. از زمان مالکیت ماسک تاکنون نیروی کار توییتر از 7500 نفر به 1500 نفر کاهش یافته است. این موضوع ترس از کاهش استانداردهای نظارت و قابلیت پایبندی به قوانین را افزایش داده است.

ایلان ماسک شرکت توییتر را در نوامبر سال 2022 خریداری کرد. از آن زمان تاکنون این شرکت به عنوان یک پلتفرم آنلاین بسیار بزرگ تحت نظارت اتحادیه اروپا قرار دارد. بنابراین رعایت تدابیری مانند انتشار حسابرسی ها نشان دهنده پایبندی به قوانین این اتحادیه خواهد بود.

به نوشته روزنامه هامبورگر ابند بلات، آلمان خروج توییتر از توافق اتحادیه اروپا برای مبارزه با اطلاعات نادرست در اینترنت را به شدت مورد انتقاد قرار داد.

"فولکر ویزینگ"، وزیر دیجیتال آلمان از حزب لیبرال دموکرات در این باره گفت: اتحادیه اروپا با قانون رفتار در برابر اطلاعات نادرست، ابزاری موثر برای شناسایی و حذف اخبار جعلی دارد. توئیتر باید از مسئولیت ویژه خود در برخورد با اطلاعات نادرست آگاه باشد و تعهد خود را به جای عقب نشینی تقویت کند. وی افزود: در غیر این صورت باید در مورد اقدامات اجباری در رابطه با قانون خدمات دیجیتال صحبت کنیم.

نانسی فایزر ، وزیر کشور فدرال آلمان نیز بر قانون جدید اتحادیه اروپا در مورد خدمات دیجیتال تاکید کرد. وی در توییتر نوشت: این قانون ما برای همه پلتفرم‌ها صدق می‌کند، ما آن را اجرا خواهیم کرد. فایزر خروج احتمالی این پلت فرم متعلق به ایالات متحده آمریکا از منشور رفتار اتحادیه اروپا را "غیر مسئولانه" توصیف کرد. فایزر گفت: اطلاعات نادرست، دروغ و تبلیغات به نفرت دامن می زند و سمی برای دموکراسی است.

توییتر مکررا متهم است که برای جلوگیری از انتشار اطلاعات نادرست در این پلتفرم به اندازه کافی تلاش نکرده است. از سوی دیگر، "ایلان ماسک"، رئیس این شرکت تاکید می‌کند که می‌خواهد محدودیت‌های بیش از حد آزادی بیان را حذف کند.

"ساسکیا اسکن"، رئیس حزب سوسیال دموکرات نیز انتقادات شدیدی را از این پلتفرم ابراز کرد. اسکن در این باره گفت: توئیتر بدیهی است که نمی‌خواهد با افزایش اطلاعات نادرست در شبکه‌اش مقابله کند و به نفرت جنسی، نژادپرستانه و نفرت بد علیه افراد یا گروه‌های به حاشیه رانده شده اجازه می‌دهد تا فضای بیشتری را اشغال کند.

وی افزود: بنابراین، DSA اکنون باید به ویژه به توییتر نشان دهد که آیا کشورهای عضو به طور مؤثر خواهان مسئولیت پلتفرم‌های اصلی در مبارزه با اطلاعات نادرست، علیه نفرت و سخنان نفرت انگیز و محافظت از دموکراسی هستند یا خیر. قوانین DSA "کاملا مناسب برای این است.

DSA همچنین در نظر دارد، از جمله موارد دیگر، اطمینان حاصل کند که پلتفرم‌ها محتوای غیرقانونی در سایت‌های خود را سریع‌تر از قبل حذف می‌کنند. به نوبه خود، گزارش چنین محتوایی برای کاربران آسان تر خواهد بود. اساساً، خدمات بزرگ باید از قوانین بیشتری نسبت به خدمات کوچک پیروی کنند.

"برتون" در اواخر نوامبر گفته بود که توییتر باید تلاش های خود را برای پیروی از قوانین اتحادیه اروپا افزایش دهد. به گفته وی این شبکه اجتماعی باید دستورالعمل های کاربر شفاف را معرفی کند، محتوا را به میزان قابل توجهی تعدیل کند، از آزادی بیان محافظت کند و در برابر اطلاعات نادرست اقدام قاطعانه انجام دهد.

رئیس توییتر، ایلان ماسک، همیشه تاکید کرده بود که محدودیت‌های بیش از حد آزادی بیان در این پلتفرم باید از بین برود.

"اسکن"، رهبر حزب سوسیال دموکرات سال گذشته حساب توییتر خود را تعطیل کرد و از جمله به این مسئله اشاره کرد که این پلتفرم هیچ کاری در مورد پروفایل های جعلی انجام نمی دهد و در برخورد با محتوای مجرمانه گزارش شده بسیار بی دقت است.

وی تاکید کرد: این واقعیت که توییتر اکنون از توافق اتحادیه اروپا علیه انتشار اطلاعات نادرست در اینترنت خارج شده است، ارزیابی من را تأیید می کند و تصمیم من برای تداوم عدم حضور در این پلت فرم را تقویت می کند. وی هم زمان برای استفاه از Mastodon، یک رقیب توییتر توسعه یافته در آلمان، که خودش از آن استفاده می کند، تبلیغ کرد و از همه رسانه ها و سیاستمداران خواست به آن روی آورند.

چین ۱۰۰ هزار حساب ناشر اخبار جعلی را می‌بندد

شنبه, ۳۰ ارديبهشت ۱۴۰۲، ۰۳:۵۹ ب.ظ | ۰ نظر

چین تلاش‌ها برای پاکسازی اینترنت از اخبار و شایعات نادرست را تشدید کرده و طی ماه گذشته بیش از ۱۰۰ هزار حساب برخط را بسته است.
به گزارش خبرگزاری صدا و سیما به نقل از رویترز، تنظیم گر فضای مجازی چین اعلام کرد: این کشور تلاش‌ها برای پاکسازی اینترنت از اخبار و شایعات نادرست را تشدید کرده و طی ماه گذشته بیش از ۱۰۰ هزار حساب برخط را که مجریان خبری و آژانس‌های رسانه‌ای را نادرست معرفی می‌کردند، بسته است.

اداره فضای سایبری چین (CAC) پویش ویژه‌ای را برای پاکسازی اطلاعات برخط با تمرکز بر حساب‌های شبکه‌های اجتماعی که اخبار جعلی را منتشر و رسانه‌های تحت کنترل دولت را جعل می‌کنند، راه اندازی کرد.

این تنظیم گر اعلام کرد: از ۶ آوریل ۱۰۷ هزار حساب واحد‌های خبری جعلی و مجریان اخبار و ۸۳۵ هزار خبر جعلی را پاک کرده است. این پاکسازی در حالی انجام می‌شود که چین و کشور‌های سراسر جهان با هجوم پوشش خبری جعلی برخط دست و پنجه نرم می‌کنند و بسیاری از قوانین اجرایی برای مجازات مجرمان وجود دارد.

با این حال، انتشار اخبار در شبکه‌های اجتماعی چین به شدت کنترل می‌شود، با سکو‌هایی مانند Weibo مانند توئیتر که از هشتگ‌های موضوعی تولید شده توسط رسانه‌های دولتی حمایت می‌کنند، در حالی که هشتگ‌ها را درباره موضوعات یا حوادثی که پکن حساس می‌دانند، سانسور می‌کنند، حتی اگر ویروسی شوند.

اداره فضای سایبری چین گفت: در بررسی‌اش حساب‌هایی را پیدا کرده که با جعل صحنه‌های استودیوی خبری و تقلید از مجریان حرفه‌ای اخبار، با استفاده از هوش مصنوعی (AI) برای ایجاد مجری‌هایی برای گمراه کردن مردم، خود را به عنوان رسانه‌های خبری معتبر  معرفی کرده بودند.

بر اساس بیانیه‌ای که اداره فضای سایبری چین روز دوشنبه در وب سایت خود منتشر کرد، اخبار جعلی شناسایی شده موضوعات داغی مانند حوادث اجتماعی و امور جاری بین المللی را پوشش می‌دهد.

تنظیم گر گفت: اداره فضای سایبری چین سکو‌های برخط را راهنمایی می‌کند تا از حقوق و منافع مشروع اکثر کاربران اینترنت برای به دست آوردن اخبار معتبر و واقعی محافظت کند.

دولت چین مرتبا دستور داده که اقدامات گسترده‌ای برای پاک کردن اینترنت از مطالب و زبان‌هایی که آن را نامناسب، توهین‌آمیز و تهدیدی برای مردم و مشاغل می‌داند، انجام دهند.

اداره فضای سایبری چین به تازگی متعهد شده که نظرات مخرب برخط را که به اعتبار کسب و کار‌ها و کارآفرینان لطمه می‌زند، سرکوب کند.

فناوری هوش مصنوعی مولد نوپا مانند چت‌جی‌پی‌تی لایه دیگری از احتیاط را معرفی کرده است. چین اخیرا مردی را در استان گانسو به اتهام استفاده از این چت بات برای تولید داستان جعلی درباره تصادف قطار دستگیر کرده است.

چگونه می توان با اخبار جعلی مبارزه کرد

چهارشنبه, ۱۶ فروردين ۱۴۰۲، ۰۷:۳۳ ب.ظ | ۰ نظر

شبکه‌های اجتماعی بهترین بستر برای گسترش شایعات و اخبار جعلی است. همین امر بهترین دلیل برای آن است که راه‌هایی را بیابیم که جلوی گسترش اخبار جعلی را بگیریم چرا که بعید است بتوان ذره‌ای از سرعت گسترش شبکه‌های اجتماعی در جوامع کاست.

اخبار جعلی همه‌جا هستند. شاید حتی به توان ریشه‌ی اخبار جعلی و شایعات نادرست را به ابتدای تاریخ و از زمان شکل‌گیری جوامع اولیه برگرداند. هر زمان مردمی در کنار یکدیگر جمع شوند و نیاز به دریافت اطلاعات از اتفاقات پیرامون در آن‌ها شکل پیدا کند، سر و کله‌ی اخبار جعلی و شایعات هم پیدا می‌شود. گاهی این شایعات در حد صحبت‌های کوچک درمیان چند دوست است اما گاهی این اخبار جعلی می‌تواند وسعتی به اندازه‌ی یک شهر یا حتی یک کشور را دربر بگیرد؛ اتفاقی که می‌تواند باعث بروز مشکلات جدی در جوامع شود. 

به گزارش ایرنا گزارش‌گر سایبری و کارشناس اخبار جعلی، جو تیدی، پیرامون خطرات اطلاعات اشتباه در اوج همه‌گیری ویروس کرونا نظرات خود را این‌گونه بیان می‌کند:

«بنده تصور می‌کنم ما شاهد این هستیم که اخبار جعلی دو مشکل متمایز و واقعی ایجاد می‌کنند. اولاً این کار شیوع داستان‌های ساختگی و فریب‌دادن افراد را به همراه دارد. پیش از بیماری کرونا این مشکل جدی بود اما در دنیای کووید و پسا کووید می‌تواند مهلک باشد. هنگامی‌که یک وبلاگ یا وب سایت‌شخصی تأثیرگذار بنویسد که «فلان فرد می‌تواند شما را از ویروس کرونا نجات دهد» موضوع خطرناک می‌شود. مردم به دلیل اخبار جعلی پیرامون این بیماری همه‌گیر، می‌توانند تصمیمات وحشتناک و مهلکی بگیرند.

ثانیاً، اخبار جعلی اعتماد به منابع معمولی مطمئن را از بین می‌برد. بنده تصور می‌کنم گزارش اخیر دولت (ایلات متحده) پیرامون دخالت روسیه در انتخابات، آن را صریحاً بیان می‌ کند؛ هنگامی‌که مردم شروع به گفتن «نمی ‌دانید چه چیزی را باور کنید» یا «همه‌ی آن‌ها به بدی یکدیگر هستند»، دروغ‌ گوها برنده می‌شوند.

بنده شاهد این موضوع در زندگی روزمره‌ام با دوستان و خانواده‌ام هستم که می‌گویند آن‌ها کاملاً با رویدادهای جهانی گیج شده‌اند. من مشاهده می کنم که مردم به دیدگاه‌ها و نظرات مسلم و محکم خود باز می‌گردند. این دیدگاه‌ها اغلب توسط به اصطلاح حباب‌های فیلتر در رسانه‌های اجتماعی تقویت خواهند شد.»

اخبار جعلی می‌توانند خطرناک باشند و زندگی ما را تحت تأثیر خود قرار دهند اما راه‌هایی هم وجود دارد که به آن‌سوی اخبار جعلی بروید و صحت آن‌ها را بررسی کنید. در ادامه بخ برخی از این‌راه‌ها اشاره خواهیم کرد اما قبل از آن، در مورد تأثیرات شبکه‌های اجتماعی و حباب فیلتری حاصل از الگوریتم‌های آن‌ها در مقاله‌های قبلی صحبت کرده‌ایم؛ پیشنهاد می‌کنم مجدداً به آن مقاله‌ها مراجعه کنید.

 

  • آنسوی اخبار جعلی

اگر چیزی بهتر از آن به نظر برسد که حقیقت داشته باشد، بررسی را آغاز کنید. دریابید که چگونه یک ویدیو می‌تواند از مقدار اندکی حقیقت برای ایجاد داستانی دروغین استفاده کند. خوشبختانه منابع فراوانی برای آگاهی ما و کمک به مبارزه با اخبار جعلی وجود دارد. شاید ساده‌ترین آن بررسی اولیه‌ی خبر از منابع رسمی و یا وب سایت‌های طراحی شده برای این موضوع باشد.

همچنین برخی از خدمات رایگان بسیار خوبی در سطح جهانی وجود دارد واقعاً سودمند هستند مانند First Draft که روزانه مسائل بزرگی پیرامون داستان‌ها و رویه‌های اخبار جعلی را ارسال می‌کند. این امر به خصوص از زمان بیماری همه‌گیر و «اینفودمی» (شیوع اطلاعات دروغ) بعدی آن سودمند است.

نقش ما به عنوان خبرنگار، در رابطه با سواد رسانه‌ای کاملا با مأموریت ما جهت «اطلاع رسانی و آموزش» سازگاری دارد و این هدفی است که کم اهمیت‌تر از سایر اهداف خبرنگاری نیست. حتی اگر به عنوان خبرنگار هم فعالیت ندارید بازهم فعالیت در راستای یواد رسانه می‌تواند به عنوان یک وظیفه‌ی شهروندی مهم تلقی شود.

هنگامی‌که یک حساب اینستاگرام می‌تواند بیشتر از سایت‌های خبری رسمی مورد روجع و دارای نفوذ باشد، بر ما واجب است که به آنجا برویم و جهت کمک به مردم تلاش کنیم تا در آب‌های متلاطمی از اطلاعات که در حال حاضر در آن هستیم، حرکت کنند.

 

  • ارتقاء سواد رسانه‌ای

ترول‌ها می‌توانند بحث را ترسناک جلوه دهند و متوقف کنند. بیاموزید که چگونه بدون اینکه قربانی خشم ترول‌ها شوید، فعالانه کنش‌گری کنید.

ارتقاء سواد رسانه‌ای برای مخاطبان کم برخورداری که رسانه‌ی شما در آن کمتر معروف یا مورد اعتماد است، بسیار مهم باشد. این کار نه تنها هدف والایی را دنبال می‌کند و ارزش‌هایی همچون حقیقت را گسترش می‌دهد بلکه می‌تواند پیوند قوی‌تری میان شما و مخاطبان در روزنامه ‌نگاری ایجاد کند.

به اشتراک گذاشتن نکاتی پیرامون اجتناب از اطلاعات دروغ به صورت آنلاین می‌تواند بسیار سخت باشد. احتمالاً همه‌ی ما تجربه کرده‌ایم که ارسال پیوند (لینک) منبع یک خبر جعلی در گروه‌های مختلف خانوادگی و دوستی و توضیح مسئله چقدر ‌ می‌تواند سخت و طاقت‌فرسا باشد. ممکن است یک دیدار خانوادگی به خاطر بحث بر سر خوب بودن یا نبودن استفاده از یک وسیله‌ی جدید و بحث‌برانگیز به چالش و در نهایت جدال کشیده شود!

به همین دلیل بسیار خوب است که توضیح‌ دهنده‌های ویدیویی دیجیتالی کوتاهی پیرامون سواد رسانه‌ای داشته‌باشیم که بتوانیم آن‌ها را به ‌صورت آنلاین به اشتراک بگذاریم. این مدل ویدئوها بسیار کوتاه هستند و به صورت مختصر با دام‌های بالقوه‌ی رسانه‌های اجتماعی برخورد می‌کنند. تولید و انتشار چنین تولیداتی می‌تواند مردم را با تفکر انتقادی آشنا کند تا آنچه را که در ذهن خودشان درست تصور می‌کنند، زیر سؤال ببرند. گسترش تفکر انتقادی می‌تواند بسیاری از مشکلات پیرامون اخبار جعلی را حل کند. به قول معروف: «به یک نفر ماهیگیری یاد بده تا یک عمر سیرش کنی!»

 

  • آینده اخبار جعلی

چگونه چیزی را پیش از اشتراک‌ گذاری تأیید می ‌کنید؟ نحوه شناسایی و توقف اخبار جعلی را بیابید.

هنگامیکه صحبت از نحوه‌ی پیشرفت این موضوع در چند سال آینده می‌شود، سخت است که با قطعیت سخن گفت. بسیاری از منتقدان بر این باورند که اخبار جعلی و اطلاعات دروغ با پیشرفت زمان و هرچه بیشتر جا باز کردن رسانه‌های اجتماعی در میان مردم، بدتر خواهند شد. حتی این خطر وجود دارد که ارائه‌دهندگان اخبار معتبر و قابل اعتماد همچنان سهم و ارتباط خود را در بازار اطلاعات از دست بدهند؛ زیرا مخربان بر اساس سیاست‌های قطبی و همه‌گیری، دنبال کنندگان خود را ایجاد می‌کنند. درحالیکه باید از دیدگاه اخبار متنوع و پرشور و مشارکت در تولید اخبار و اطلاعات استقبال کرد، این نگرانی وجود دارد که شاهد تفرقه و اغتشاش بیشتری باشیم.

برخی افراد هم معتقدند که در طول زمان افراد کمتر مستعد پذیرش اخبار جعلی می‌شوند و نسبت به حیله‌ها و شیوه‌های به کار رفته جهت شیوع این داستان‌ها ادراک بیشتری خواهند داشت. این امیدواری وجود دارد که نسل‌های جوان‌تر، توانایی بیشتری در مشاهده عناوین و زیرسؤال بردن مسائل داشته باشند.

البته این امر بدین معنی است که شغل روزنامه‌نگاری حتی سخت‌تر هم خواهد شد چون اعتماد عمومی باید مجدد به دست آید و بازتولید شود.

اگر یک چیز را باید در میان مردم درونی کرد آن این است که رسانه‌های اجتماعی میدان مین پیچیده‌ای محسوب می‌شود که باید با دقت و تفکر آن را هدایت کرد.

فاجعه ChatGPT در گسترش اخبار جعلی

شنبه, ۵ فروردين ۱۴۰۲، ۱۲:۴۰ ب.ظ | ۰ نظر

غلامرضا فلسفی - از زمان بهره‌مندی از چت‌جی‌بی‌تی[1] تا هویدا شدن اثرات مخربِ این نرم‌افزار کاربردی هوش مصنوعی بر روزنامه‌نگاری، زمانی بسیار کوتاه لازم بود. یک ستون نویس حوزه فناوری نیویورک‌تایمز نوشت که یک چت‌بات (دستیار سایبری هوشمند) احساسات را بیان می‌کند[2] (که غیرممکن است). رسانه‌های دیگر نیز مملو از ارائه نمونه‌هایی[3] از عملکرد سیدنی[4] بودند که نتایج جست‌وجوی بینگ جدید[5] را که مبتنی بر هوش مصنوعی[6] است، سرشار از بی‌نزاکتی و قلدری بیان کرده بودند (که این هم غیرممکن است). بن تامپسون[7] مؤسس و نویسنده نشریه‌ای راهبردی که درباره وجوه تجاریِ فناوری و رِسانه همچنین تأثیر فناوری بر جامعه تحلیل ارائه می‌دهد، می‌گوید[8] که کار با سیدنی هیجان‌انگیزترین تجربه رایانه‌ای زندگی‌اش محسوب می‌شود. وی در ادامه نتیجه‌گیری کرد که هوش مصنوعی شیوه‌های برانگیختن واکنش‌های احساسی را آموخته و به نظر می‌رسد در انجام این مهم موفق هم عمل می‌کند.

سکویی که تقریرات انسانی را غیر متعهدانه و مقلدانه بازآفرینی می‌کند، عطیه‌ای به تبهکاران دیجیتالی است که از

اطلاعات نادرست عمدی منتفع می‌شوند. اکنون زمان آن است که حدودوثغورِ بهره‌مندی از این امکان مشخص شود

برای روشن‌تر شدن ابعاد موضوع ابتدا تصریح می‌شود که دارای احساسات بودن هوش مصنوعی همچون چت‌جی‌بی‌تی[9] و سیدنی تا به این لحظه امری غیرممکن است. دیگر این‌که چت‌جی‌بی‌تی و سیدنی نمی‌توانند در رابطه با معنی‌دار یا منطقی بودن تولیداتشان اعلام نظر کنند. آنچه این مدل‌ها در انجام آن بسیار عالی عمل می‌کنند عبارت از تقلید نثر انسان و پیش‌بینی کلمات صحیح در کنار یکدیگر است. این مدل‌های زبانی گسترده[10] نرم‌افزارهای کاربردی هوش مصنوعی مانند چت‌جی‌بی‌تی می‌توانند به این امر مبادرت ورزند چراکه خوراک مناسبی شامل میلیاردها مقاله و مجموعه‌هایی از داده‌های منتشرشده در اینترنت در اختیارشان قرارگرفته و بر این اساس آن‌ها قادر به پاسخگویی به انواع پرسش‌ها می‌شوند.

در چارچوب اهداف روزنامه‌نگاری، این چت‌بات‌ها می‌توانند در کم‌ترین زمان ممکن حجمی عظیم از محتوا را شامل کلمات، عکس‌ها، اصوات و فیلم‌ها بسازند؛ اما مشکل اینجاست که آن‌ها در ساخت محتوا به‌طور مطلق هیچ تعهدی به حقیقت ندارند. لحظه‌ای را تصور کنید که یک کاربر چت‌جی‌بی‌تی[11] با چه سرعتی می‌تواند اینترنت را از اخباری جعلی آکنده کند که به نظر ‌رسد توسط انسان تقریر شده است.

با عنایت بدین اوصاف از نوامبر 2022 میلادی که نسخه آزمایشی چت‌جی‌بی‌تی توسط شرکت هوش مصنوعی اُپن‌اِی‌آی[12] رونمایی شد و در اختیار عموم قرار گرفت، حواشی فراوان پیرامون این نرم‌افزار کاربردی بر اساس مشکلات بالقوه آن شکل گرفت که نگران‌کننده اما قابل پیش‌بینی بود. فضای حاکم بر این رویداد فناورانه همانند روزگار رونمایی از رسانه‌های اجتماعی با افزایش استقبال و حضور سرمایه‌گذاران و صاحبان شرکت‌ها همراه شده که به‌نوبه خود موجبات بیان مواضع صریح را فراهم کرده است. کریستوفر منینگ[13] مدیر آزمایشگاه هوش مصنوعی استنفورد در توئیتی اظهار کرد[14]: «از ابتدای سال 2023 میلادی گروه‌های اخلاق‌گرا در حوزه هوش مصنوعی درباره نمونه‌های هوش مصنوعیِ تولیدشده که برای استفاده از آن‌ها بیش‌ازحد تمایل وجود داشته و درعین‌حال غیرقابل‌اعتماد و خطرناک‌اند، به بیان موسع روایت‌هایی مشغول‌اند اما در پی طرح چنین مواضعی مردم علاقه‌مندند بدانند که این نمونه‌ها چگونه ظرفیت‌هایی جدید را برای تغییر در شیوه انجام امور، کسب اطلاعات و ایجاد سرگرمی برایشان فراهم می‌کنند.» من که خود عضوی از این جماعت اخلاق مدار محسوب می‌شوم تصریح می‌کنم که اگر می‌خواهیم از خطاهای وحشتناک 30 سال گذشته در حوزه فناوریِ مصرفی احتراز کنیم –از افشای اطلاعات کاربران فیس‌بوک و نشر اطلاعات نادرست غیرعمدی[15] که مخل در انتخابات است گرفته تا تحریک و دامن زدن به نسل‌کشی- بدون فوت وقت به استماع دغدغه‌ها و نگرانی‌های کارشناسان در مورد آسیب‌های احتمالی این فناوری نیازمندیم.

نگران‌کننده‌ترین واقعیتی که به‌طور مرتب باید تکرار و یادآوری شود آن است که چت‌جی‌بی‌تی هیچ تقیدی به حقیقت ندارد. همان‌طور که در بخش بررسی فناوری ام‌آی‌تی آمده[16] چت‌بات‌های مدل زبانی گسترده، یاوه‌گویانی بدنام محسوب می‌شوند. بدیهی است که اطلاعات نادرست عمدی[17]، شیادی و جنایت نیاز به التزام به حقیقت ندارد. اگر از اتاق‌های گفت‌وگوی تارنمای Black Hat World که در حوزه تجارت غیرقانونی فعال بوده و ایده‌هایی برای کسب انتفاع از محتوای جعلی در آن ارائه می‌شود، بازدید کنید؛ می‌بینید که چت‌جی‌بی‌تی در مقام برگی برنده برای ساختن دیدگاه‌های باورپذیرترِ جعلی و همچنین نظرات و نمایه‌های متقاعدکننده معرفی می‌شود.

اگر به موضوع چت‌بات‌های مدل زبانی گسترده از منظر روزنامه‌نگاری نیز توجه شود باید گفت چند صباحی است که بسیاری از اتاق‌های خبر از هوش مصنوعی بهره می‌برند. اگر به‌تازگی دریافته‌اید که برای کمک مالی به یک تارنما یا پرداخت هزینه خواندن یک مقاله به صفحه مالک تارنما هدایت‌شده‌اید یا اگر به هنگام وبگردی با تبلیغاتی تجاری مواجه می‌شوید که بیش‌ازپیش به ذائقه و سلیقه‌تان نزدیک است، می‌توانید نسبت به وجود رد و نشان هوش مصنوعی در آن گمانه‌زنی کنید.

امروزه برخی ناشران و مدیران رسانه تا مرحله‌ای که از هوش مصنوعی برای نوشتن گزارش استفاده ‌کنند پیش رفته‌اند که البته نتایجی متفاوت در پی داشته است. به‌طور مثال کاشف به‌عمل‌آمده که نشریه Cnet که در حوزه تجارت فناوری فعال است، با استفاده از مقالاتی که از سوی نرم‌افزارهای کاربردی تقریر می‌شده، انتشار می‌یافت. این امر زمانی افشا شد که یکی از کارکنان سابق این نشریه در استعفانامه الکترونیکی خود[18] مدعی شد محتوای ساخته‌شده توسط هوش مصنوعیِ این نشریه‌ با انتشار اطلاعاتی غلط همچون یک خبرنامه سایبریِ امنیتی، می‌تواند به‌طور مستقیم به خوانندگانش خسران وارد کند.

فلیکس سایمون[19] پژوهشگر ارتباطات در موسسه اینترنت آکسفورد درباره آینده هوش مصنوعی در اتاق‌های خبر، با بیش از 150 روزنامه‌نگار و صاحبان مؤسسات خبری مصاحبه کرد. او می‌گوید هوش مصنوعی ظرفیت لازم را دارد که نگارش مصاحبه‌ها یا خواندن سریع مجموع اطلاعات جمع‌آوری‌شده را برای روزنامه‌نگاران بسیار تسهیل کند اما مشکلات ریشه‌دار پیشین مانند بررسی صحت، بی‌طرفی و آگاهی از منبع داده‌ها همچنان به‌شدت به قضاوت انسانی وابسته است. چارلی بکت[20] که مدیر یک برنامه مرتبط با روزنامه‌نگاری و هوش مصنوعی در مدرسه علوم اقتصادی و سیاسی لندن است می‌گوید: حدود %90 بهره‌مندی از هوش مصنوعی در روزنامه‌نگاری در قالب کارهایی چون شخصی‌سازی تجمیع اخبار یا ایجاد دیوارهای پرداخت هوشمند برای مطالعه کاربران که اموری به نسبت ملال‌آور محسوب می‌شوند، به کار گرفته می‌شود. وی می‌افزاید که بلومبرگ سال‌هاست قسمت‌هایی فراوان از جمع‌بندی پوشش اخبار مالی خود را با این امکان به‌طور خودکار انجام می‌دهد. بااین‌حال ایده استفاده از برنامه‌هایی چون چت‌جی‌بی‌تی برای ساختن محتوا بسیار نگران‌کننده است. بکت اظهار می‌کند: برای اتاق‌های خبری که انتشار اخبار دروغ را غیراخلاقی می‌دانند، پیاده‌سازی طرح استفاده از چت‌جی‌بی‌تی بدون بهره‌مندی از ویراستاری انسانی و راستی آزمایی محتوا امری به‌غایت دشوار است.

فارغ از مشکلات مبتلابه نرم‌افزارهایِ کاربردی هوش مصنوعی، موضوعات اخلاقی همواره ماهیت عملکرد شرکت‌های فناوری را تحت تأثیر خود قرار داده است. افشاگری تایم[21] نشان داد شرکت اَپن‌اِی‌آی که شرکت پشتیبان چت‌جی‌بی‌تی است، به کارگرانی کنیایی کمتر از دو دلار در ساعت دستمزد می‌داد تا محتواهایی مانند کودک‌آزاری، خودکشی، زنای با محارم و شکنجه را که جزو محتوای مضر گرافیکی می‌دانسته، شناسایی کنند تا بتواند به چت‌جی‌بی‌تی آموزش دهد که این قبیل محتواها را موهن بداند. سایمون در این رابطه می‌گوید: در مقام فردی که از خدمات چت‌جی‌بی‌تی استفاده می‌کند تصریح می‌کنم که شرکت مذکور در رابطه با این قبیل محتواها، کنترلی روی نرم‌افزار کاربردیِ هوش مصنوعی خود ندارد.

طی مطالعه‌ای[22] در سال 2021 میلادی دانشگاهیان توجه خود را به مدل‌هایی از هوش مصنوعی مانند DALL-E[23] و Stable Diffusion[24] که نوشته را به‌عکس بدل می‌کنند، معطوف کردند. آن‌ها دریافتند که این سامانه‌ها «کلیشه‌های جمعیت‌شناختی» را در مقیاس بزرگ بازتولید کرده، تعمیم می‌دهند. به‌طور مثال وقتی از آنان خواسته شد تصویری از «شخصی که در حال نظافت است» تولید کنند، تمام عکس‌های ساخته‌شده ناظر به زنان بود. پژوهشگران همچنین اظهار کردند که وقتی از سامانه‌ها، تولید عکسِ یک فرد جذاب خواسته شد؛ همه چهره‌های بازتولید شده، نمایشگر و ناظر به «سفیدپوست ایدئال» بود.

مردیت بروسارد[25] استاد دانشگاه نیویورک که تحقیقاتش بر نقش هوش مصنوعی در روزنامه‌نگاری متمرکز است، کتابی با عنوان «بیش از یک خطای اتفاقی» به رشته تحریر درآورده که در مارس 2023 میلادی منتشر شد. وی در کتاب مذکور به راه‌های مقابله با مواردی چون تبعیض نژادی و تعصب جنسیتی و شایستگی در فناوری پرداخته است. بروسارد می‌گوید همه آن چیزی که تشکیل‌دهنده مدل‌های مولد کنونی مانند چت‌جی‌بی‌تی محسوب می‌شوند – از مجموعه داده‌ها تا منابع و سرمایه – همه و همه بازتاب‌دهنده عدم تنوع است. بروسارد می‌افزاید که این مسئله برگرفته از تک فرهنگی بودن ابر شرکت‌های فناوری است، بدین معنی که قریب به‌اتفاق محصولات فناورانه از تولیدات این ابر شرکت‌ها محسوب می‌شوند؛ لذا اتاق‌های خبر با تمسک به فناوری نمی‌توانند به‌راحتی از آن حذر کنند. امروزه اتاق‌های خبر در خدمت سرمایه‌گذاری‌های فناورانه از سوی ‌چنین شرکت‌هایی قرار دارند چراکه رسانه هیچ‌گاه سرمایه مالی مکفی برای رشد مستقل نداشته است.

در روزهای آغازین سال 2023 میلادی جونا پرتی[26] بنیان‌گذار و مدیرعامل بازفید[27] یادداشتی برای کارکنانش ارسال و اعلام کرد که مشتاقانه قصد دارد برای ارتقاء کار و کسب بازفید از چت‌جی‌بی‌تی استفاده کند. او در بخشی از یادداشت خود[28] نوشت: ما پیشرفت‌هایی را در حوزه هوش مصنوعی شاهدیم که دروازه عصری جدید از خلاقیت را با فرصت‌ها و برنامه‌های نامحدود برای همیشه به روی ما و دیگر رسانه‌های دیجیتال می‌گشاید. او در ادامه ‌اظهار کرد که محتوای الهام گرفته از هوش مصنوعی بازفید سال 2023 راه‌اندازی می‌شود تا فهرست‌ها، تجربه آزمونک‌ها و سایر محتواهای سرگرم‌کننده را تقویت، طوفان فکری ما را اطلاع‌رسانی و محتواهای ما را برای کاربران شخصی‌سازی ‌کند. این یادداشت باعث شد بلافاصله ارزش سهام خاموش این شرکت رسانه‌ای، خبری و اینترنتی در معاملات %150 افزایش‌یافته و به بیش از دو دلار به ازای هر سهم برسد. اتخاذ چنین راهبردی بسیار نگران‌کننده است چراکه این امر به‌طورقطع و یقین به ساخت و انتشار انبوهی از محتوای نازل از سوی این نرم‌افزار کاربردی هوش مصنوعی می‌انجامد. این قبیل روایت‌های نظام‌مندِ جدید، نه یک مدل کار و کسب آرمانی بلکه باید بدترین نوع برنامه‌ریزی آینده‌نگرانانه از سوی شرکت‌های رسانه‌ای تلقی شود. البته این میزان ذوق‌مندی نسبت به تولیدات هوش مصنوعیِ مولد می‌تواند این رویکرد مثبتِ فراگیر را دچار تزلزل کند، مبنی بر این‌که ممکن است این نرم‌افزارهای کاربردی، خیلی هم خوب و کارآمد از آب درنیایند.

ما در مرکز تحقیقاتی خود در دانشکده روزنامه‌نگاری دانشگاه کلمبیا درباره تلاش‌های انجام‌شده جهت تأمین منابع مالی شبکه‌های پول سیاه از طریق بودجه‌های سیاسی مطالعه می‌کنیم؛ شبکه‌هایی که صدها هزار روایت از اخبار محلی جوامع را جهت منافع سیاسی و تجاری هدف می‌گیرند و از تاکتیک (راهکنش) تکرارشونده بهره می‌برند. مطالعات مرکزمان نشان می‌دهد قابلیت‌های چت‌جی‌بی‌تی، این قسم خبرسازی‌ها را افزایش داده، آن را بسیار آسان‌تر و در اختیار مخاطبانی زیادتر قرار می‌دهد. همچنین در مقاله منتشرشده[29] طی سپتامبر 2022 میلادی درباره اطلاعات نادرست عمدی و هوش مصنوعی گفته‌شده پژوهشگران دانشگاه استنفورد شبکه‌ای از نمایه‌های جعلی را با استفاده از هوش مصنوعی مولد در لینکدین شناسایی کرده‌اند. البته به نظر می‌رسد ردوبدل کردن متن گمراه‌کننده‌ با چت‌بات‌ها که روزنامه‌نگاران آن را بسیار وسوسه‌انگیز می‌دانند در مقایسه با گفت‌وگو با کاربرانی آسیب‌پذیر که اطلاعات شخصی و جزئیات حساب بانکی خود را اعلان می‌کنند، از جذابیتی کمتر برخوردار است!

درباره ظرفیت فیلم‌ها و اصوات دیپ‌فیک – به ساخت تصاویر و اصوات واقع‌گرایانه بر پایه هوش مصنوعی گفته می‌شود که چهره‌ها و صداهای افراد به‌خصوص افراد مشهور جعل می‌شود. از مشهورترین نمونه‌های متأخر ساختن صدای جعلی «اما واتسون» در حال خواندن بخشی از کتاب نبرد منِ هیتلر است – مطالبی بسیار به رشته تحریر درآمده[30] اما با رونمایی از مدل‌های مولد کنونی به نظر می‌رسد خطر واقعی نمونه‌هایی مانند چت‌جی‌بی‌تی محسوب می‌شوند که مرزهای دنیای فریب آنی مانند جعل عمیق را درنوردیده‌اند چراکه در مقایسه با این نرم‌افزار کاربردی افراد را به‌راحتی می‌توان نسبت به خطرات جعل ژرف آگاه کرد. چت‌جی‌بی‌تی با ساختن و انتشار کثیری از جعلیات به راه انداختن طوفان در فضای سایبری مبادرت ورزیده ضمن ایجاد سردرگمی و فرسوده کردن کاربران، حقیقت را در طوفان جعلیات پایمال کرده یا جنبه‌های فکری میانه و متعادل را به حاشیه می‌برد.

برای برخی چون من که از دریچه اخلاق به فناوری می‌نگریم باورنکردنی است که از روند 20 سال گذشته و شیوه بسیار ضعیف مدیریت و نظارت بر فناوری‌های رسانه‌های اجتماعی آن‌هم در دو دهه‌ای که این رسانه‌ها به‌سرعت در حال گسترش بودند درس نگرفتیم و کاهلی در این امر سبب شد به‌جای بهبود شرایط، تشدید مشکلات اجتماعی و دموکراتیک را به نظاره بنشینیم. به نظر می‌رسد تاریخ در حال تکرار است و ما همچون دو دهه قبل توسط گروه‌هایی مشابه متشکل از شرکت‌های همسو و متمول حوزه فناوری همچنین صندوق‌هایی مالی در زمینه سرمایه‌گذاری در تولیداتی با ریسک بالا به سمت مسیرهایی به بوته آزمون سپرده نشده و فاقد مقررات رهنمون می‌شویم، با این تفاوت که این بار خطر بزرگ‌تر و توجه به امنیت کاربران کمتر از گذشته است. (منبع:شفقنا)

 

*این نوشتار ترجمه آزاد مقاله‌ای با عنوان A fake news frenzy: why ChatGPT could be disastrous for truth in journalism نوشته امیلی بل استاد دانشکده تحصیلات تکمیلی روزنامه‌نگاریِ دانشگاه کلمبیا و مدیر the Tow Center for Digital Journalism دانشگاه مذکور در نیویورک است که 3 مارس 2023 در تارنمای گاردین منتشر شد

 

[1] Chat Generative Pre-trained Transformers (ChatGPT)

[2] www.nytimes.com/2023/02/16/technology/bing-chatbot-microsoft-chatgpt.html

[3] www.theverge.com/2023/2/15/23599072/microsoft-ai-bing-personality-conversations-spy-employees-webcams

[4]  Sydney اسم رمز پروژه موتور جست‌وجوی جدید مایکروسافت

[5] The New Bing

[6] Artificial intelligence (AI)

[7] Ben Thompson

[8] https://stratechery.com/2023/from-bing-to-sydney-search-as-distraction-sentient-ai

[9] www.theguardian.com/technology/chatgpt

[10] LLMs

[11] www.theguardian.com/technology/chatgpt

[12] https://openai.com

[13] Christopher Manning

[14] https://twitter.com/chrmanning/status/1625178544010838019?s=20&t=IPLveAStaG6PI0B_EgYGFA

[15] Misinformation

[16] www.technologyreview.com/2023/02/14/1068498/why-you-shouldnt-trust-ai-search-engines

[17] Disinformation

[18] www.theverge.com/2023/1/19/23562966/cnet-ai-written-stories-red-ventures-seo-marketing

[19] Felix Simon

[20] Charlie Beckett

[21] https://time.com/6247678/openai-chatgpt-kenya-workers

[22] https://arxiv.org/pdf/2211.03759.pdf

[23] https://openai.com/research/dall-e

[24] https://stablediffusionweb.com

[25] Meredith Broussard

[26] Jonah Peretti

[27] www.buzzfeed.com

[28] www.wsj.com/articles/buzzfeed-to-use-chatgpt-creator-openai-to-help-create-some-of-its-content-11674752660

[29] https://misinforeview.hks.harvard.edu/article/research-note-this-salesperson-does-not-exist-how-tactics-from-political-influence-operations-on-social-media-are-deployed-for-commercial-lead-generation

[30] https://vrgl.ir/ZJIDI

«اخبار جعلی»؛ سلاح جدید ارتش آمریکا

چهارشنبه, ۱۲ بهمن ۱۴۰۱، ۰۱:۲۹ ب.ظ | ۰ نظر

آسیه فروردین – برخی رسانه‌های غربی مانند واشنگتن‌پست و بی‌بی‌سی، اخیرا فاش کردند وزارت دفاع ایالات متحده (DOD) با پلتفرم‌های شبکه‌های اجتماعی مانند فیس‌بوک و توییتر، توافق‌نامه‌های محرمانه امضا کرده است

به گفته کارشناسان، ژاپن از هوش مصنوعی برای دفاع در برابر اخبار جعلی استفاده می‌کند.
به گزارش سایبربان؛ ژاپن قصد دارد استفاده از هوش مصنوعی را برای تجزیه و تحلیل کمپین‌های اطلاعات نادرست خارجی آغاز و واکنش خود را به انتشار اخبار جعلی در رسانه‌های اجتماعی تقویت کند.

کمپین‌های اطلاعات غلط، بخشی از چیزی است که جنگ شناختی نامیده می‌شود و شامل دستکاری افکار عمومی و ایجاد مخالفت از طریق رسانه‌های اجتماعی و کانال‌های دیگر است. این حوزه با توجه به دامنه بالقوه آن، به طور فزاینده‌ای ششمین حوزه درگیری پس از زمین، دریا، هوا، فضا و قلمرو سایبری در نظر گرفته می‌شود.

کارشناسان معتقدند که ژاپن در حال حاضر برای مبارزه با این کمپین‌های اطلاعات غلط مجهز نیست و یک آژانس اختصاصی برای نظارت بر اخبار جعلی خارج از کشور یا قوانینی که مداخله در انتخابات را مجازات می‌کند، ندارد.

وزارت امور خارجه ژاپن یک سیستم مبتنی بر هوش مصنوعی را در سال مالی 2023 راه‌اندازی خواهد کرد تا اطلاعات جعلی را در رسانه‌های اجتماعی و سایر پلتفرم‌ها جمع‌آوری و تجزیه و تحلیل کند و به آن اجازه می‌دهد تا چگونگی تلاش عوامل خارجی برای تأثیرگذاری بر افکار عمومی در میان مدت تا بلندمدت را ردیابی کند.

این چارچوب نه تنها اطلاعاتی را که برای مخاطبان ژاپنی طراحی شده، پوشش می‌دهد، بلکه اطلاعاتی را نیز با هدف آسیب رساندن به برداشت‌های خارجی از ژاپن پوشش می‌دهد.

کارشناسان بخش خصوصی برای شناسایی منظم اخبار جعلی در رسانه‌های اجتماعی در سال مالی 2023 استخدام می‌شوند.

نیروی پدافند (SDF) زمینی شخصی نیز ظرف یک دهه یک واحد اطلاعاتی اختصاصی ایجاد خواهد کرد. نیروی پدافند دریایی واحدی را با قابلیت‌های سایبری و ارتباطات ترکیبی راه‌اندازی خواهد کرد.

کارشناسان ادعا کردند که جنگ شناختی به عنوان یک نگرانی جهانی با دخالت روسیه در انتخابات ریاست جمهوری 2016 ایالات متحده ظاهر شد. گمان می‌رود که مقاله‌های خبری جعلی درباره هیلاری رادهام کلینتون، نامزد دموکرات، که از طریق رسانه‌های اجتماعی منتشر شده، به تغییر رقابت به نفع رقیب او، دونالد ترامپ، کمک کرده است.

بنابه گفته محققان، اطلاعات غلط در جنگ اوکراین نیز نقش داشته است؛ گزارش‌های جعلی درباره فرار ولودیمیر زلنسکی، رئیس‌جمهور اوکراین از کیِف، بلافاصله پس از حمله روسیه و اوکراین در شبکه‌های اجتماعی منتشر شد. تحریم‌های غرب به دلیل افزایش جهانی قیمت مواد غذایی و جلب حمایت روسیه از سوی برخی کشورهای در حال توسعه مقصر شناخته شدند.

کارشناسان اعلام کردند که در پاسخ به اقدامات اخیر چین و روسیه، راهبرد امنیت ملی ژاپن که در ماه دسامبر گذشته تصویب شد، شامل طرح‌هایی برای تقویت توانایی این کشور در پاسخ به جنگ در حوزه شناختی، از جمله انتشار اطلاعات نادرست است.

چندین کشور در حال حاضر مکانیسم‌هایی برای پاسخ به جنگ شناختی دارند. در ایالات متحده، آژانس امنیت سایبری و امنیت زیرساخت وظیفه نظارت و هشدار به مردم در مورد اطلاعات نادرست را بر عهده دارد. ترامپ در سپتامبر 2018 فرمان اجرایی امضا کرد تا عوامل خارجی دخیل در انتخابات آمریکا، از جمله با مسدود کردن دارایی‌هایشان در ایالات متحده، را تحریم کند.

بریتانیا شبکه‌های اجتماعی را 24 ساعته رصد می‌کند. در حالیکه این کشور مجازات‌های رسمی برای مداخله در انتخابات ندارد، یک کمیته ویژه پارلمانی گزارشی را در سال 2019 منتشر کرد و از دولت خواست که به انتخابات گذشته رسیدگی کند.

در آسیا، سنگاپور در اکتبر 2021 قانونی را تصویب کرد که به مقامات اجازه می‌داد محتوای آنلاین را برای جلوگیری از دخالت خارجی محدود کنند.

موتوهیرو سوچیا (Motohiro Tsuchiya)، استاد و کارشناس فناوری اطلاعات در دانشگاه کیو (Keio) در توکیو، گفت : «واکنش ژاپن به اطلاعات غلط تاکنون تا حدی با ماده 21 قانون اساسی که مخفی بودن ارتباطات را تضمین می‌کند، متوقف شده است. دولت باید با فیس‌بوک و سایر اپراتورهای رسانه‌های اجتماعی برای ایجاد چارچوبی با هدف حذف اطلاعات نادرست همکاری کند.»