نحوه برخورد کشورها با محتوای خشن در فضای مجازی
کشورهای مختلف از چند سال قبل وضع قوانینی برای مقابله با نفرت پراکنی و محتوای خشن در فضای مجازی را آغاز کرده اند و سعی دارند شبکه های اجتماعی را وادار به قبول مسئولیت در حذف و کنترل آن کنند.
به گزارش خبرنگار مهر، در کشور ما در پی حادثه قتل یک زن در اهواز به دست همسرش در روزهای اخیر و همزمان انتشار تصاویر و ویدئوهای مربوط به آن در فضای مجازی، مجدداً موضوع قانونمند کردن محتوای آنلاین به میان آمده است. انتشار این تصاویر واکنشهای مختلفی را در بر داشت و از سویی به جریحه دار شدن احساسات عمومی منجر شد.
اگرچه در پی این رویداد برخی مسئولان اظهار نظر کرده و انتشار این تصاویر و یا فیلمها در مجازی و رسانهها را ممنوع دانستند اما آنچه در این زمینه واضح است این است که محتوای فضای مجازی و نحوه انتشار آن در کشور ما قانونمند نیست و چارچوب مشخصی ندارد.
از سوی دیگر آنچه خلاء آن بیش از پیش احساس میشود، نحوه مواجهه و مقابله ما با پلتفرمها در این زمینه است چراکه آنها به ویژه پلتفرمهای خارجی از قوانین داخلی کشور پیروی نمیکند.
این درحالی است که کشورهای مختلف در سراسر جهان از چند سال قبل با وضع قوانینی در مقابل محتوای نفرت پراکنی و خشونتآمیز فضای مجازی، سعی دارند کاربران شان را محافظت کنند.
قوانین بازدارنده در این کشورها اجازه گسترش چنین محتوایی در فضای مجازی را نمیدهد و در صورت حذف نشدن آن جریمهها و تنبیهاتی در انتظار شبکههای اجتماعی متخلف است.
برخی کشورها شرکتهای فناوری را ملزم کردهاند خودشان در این باره قوانینی وضع کنند و بر اساس قوانین برخی دیگر، محتوای نفرت پراکنی و خشونتآمیز ظرف مدت زمانی محدود پس از انتشار حذف شود. در غیر این صورت پلتفرم متخلف جریمه میشود. به هر روی آنچه در زیر میخوانید مجموعهای از قوانینی است که کشورهای مختلف طی سالیان اخیر برای مقابله با نفرت پراکنی و محتوای خشونتآمیز در فضای مجازی وضع کردهاند.
شرکتهای فناوری مسئول حذف محتوای خشن در آمریکا
در آمریکا پلتفرمهای فناوری مسئول قانونمند کردن خودشان هستند. شبکههای اجتماعی مختلف مانند توئیتر، فیس بوک و اینستاگرام قوانینی در خصوص محتوای خشونتآمیز دارند.
این پلتفرمهای پرطرفدار سیاستهای بازبینی محتوای مشابهی دارند به طوری که هرگونه پست و محتوایی که خشونت را ترویج یا تشویق کند، ممنوع کردهاند. پستهای حاوی نفرت پراکنی نیز در آمریکا ممنوع شدهاست. پلتفرمهای بزرگ همچنین برای محدود کردن چنین محتوایی اقداماتی نظیر راستی آزمایی محتوا را نیز در دستور کار خود قرار دادهاند.
به عنوان مثال محتوای خشونتآمیز، قلدری و تهدید در فیس بوک ممنوع است. این شبکه اجتماعی گاهی اوقات در صورتی که محتوای مذکور به نفع عموم مردم باشد، آن را نگه میدارد و در غیر این صورت آن را حذف میکند.
توئیتر نیز سیاست مشابهی دارد. کاربران میتوانند پروفایلها، پستها، تصاویر، ویدئوها، گروههایی با محتوای خشونتآمیز را گزارش دهند. همچنین یوتیوب نیز این نوع محتوا را ممنوع کرده است.
این نوع محتوا در واتس اپ نیز ممنوع است. انتشار محتوای غیرقانونی، نامناسب، افتراآمیز، تهدید کننده، ترسناک، آزار دهنده، نفرت پراکنی، تبعیضآمیز در این پلتفرم ممنوع است.
نقطه عطف فرایند خود قانونمندسازی پلتفرمهای اجتماعی در آمریکا حمله حامیان دونالد ترامپ، رییس جمهور پیشین آمریکا به کنگره در ۶ ژانویه ۲۰۲۱ بود. در نتیجه این رویداد، حساب کاربری دونالد ترامپ در فیس بوک ، توئیتر، اینستاگرام، پینترست، یوتیوب و غیره مسدود شد. از سوی دیگر توئیتر یک گروه خشن حامی نظریههای توطئه(QAnon) افراطی را نیز مسدود کرد. همچنین پارلر یک اپلیکیشن شبکه اجتماعی که مدعی گسترش آزادی بیان بود نیز از سرویسهای میزبان وب آمازون(AWS) حذف شد. این وب سایت در نهایت یک ماه پس از این ماجرا آفلاین شد.
در همین راستا بحث و گمانه زنیهایی درباره بازبینی محتوای آنلاین در قانون آمریکا به وجود آمد.
تلاش انگلیس برای حذف محتوای نامناسب
این کشور در حال حاضر مشغول بررسی و اصلاح قانون ایمنی آنلاین است تا موارد و جرائم بیشتری را در بر گیرد. با اصلاح این قانون پلتفرمهایی که محتوای غیرقانونی را به نمایش بگذارند با جریمههای کلان و یا مسدود شدن روبرو میشوند.
در این قانون آزارهای آنلاین، غیرقانونی محسوب میشوند. نمونههای آن عبارتند از سوءاستفاده از کودکان، استفاده از اینترنت برای مقاصد تروریستی، جرائم مربوط به نفرت و همچنین نفرت پراکنی، آزار قلدری سایبری و سوءاستفاده آنلاین. در این میان پلتفرمهای آنلاین اپ ها و نرم افزارها و غیره باید محتوای خود را مدیریت کنند. در حال حاضر هرکسی که پلتفرمهای آنلاین را مدیریت میکند براساس قانون انگلیس موظف به حذف محتوای غیرقانونی آنلاین است.
برای این منظور، پلتفرمها باید به شکل ایمن تری طراحی شوند. این بدان معنا است که ویژگیهای بنیادین ایمنی باید در طراحی وب سایت، اپ یا نرم افزار لحاظ شوند. همچنین کاربران باید محتوای غیرقانونی را به نیرویهای مجری قانون و پلیس اطلاع دهند.
البته این کشور در اکتبر ۲۰۲۱ میلادی قوانین جدیدی وضع کرد که هدف آن پلتفرمهای اشتراک گذاری ویدئو بود. هدف این قانون حفاظت از کاربران و افراد زیر سن قانونی در مقابل نفرت پراکنی و ویدئوهای خشونتآمیز علیه گروههایی خاص است. در همین راستا آفکام (رگولاتور انگلیس در بخش رسانهها)، دستورالعمل جدید برای پلتفرمهایی مانند تیک تاک، اسنپ چت، ویمو و توییچ اعلام کرد. این پلتفرمها باید اقدامات مناسب جهت محافظت کاربران در مقابل محتوای مخرب را اتخاذ کنند. محتوای تروریستی، نژاد پرستی و غیره بخشی از این محتوای خشن به حساب میآیند.
اما پیش از آن و در سال ۲۰۱۹ میلادی ساجد جاوید وزیر کشور وقت انگلیس و رییس کارگروه خشونت جدی انگلیس بودجه ۱.۳۸ میلیون پوندی برای این کارگروه تعیین کرد تا پایان ماه می همان سال اجرایی شود. تیم ۱۷ نفره شامل نیروی پلیس و افسرانی بود که وظیفه آنها حذف محتوای مربوط به گروههای جنایتکارانه در فضای آنلاین بود.
در این کارگروه مدیران ارشد گوگل و فیس بوک اقدامات خود را برای مقابله با محتوای خشن از جمله ویدئوهای مروج خشونت عرضه کردند.
کارگروه مشترک پلیس ملی انگلیس و شبکههای اجتماعی در پلیس متروپولیتن تاسیس شد. در این کارگروه تیمهایی مختص مقابله با محتوای آنلاین روی تحقیق، اختلال و اجرای قانون در مقابل گروههای مجرمانه فعالیت میکنند.
همچنین این کارگروه محتوای خطرناک در شبکههای اجتماعی را مشخص میکند تا آنها را به طور دائم حذف کنند. این مرکز بخشی از استراتژی خشونت جدی دولت انگلیس برای دورکردن جوانان از جرائم و همچنین قدرتمندتر کردن واکنش پلیس بود.
مهلت ۲۴ ساعته آلمان برای حذف محتوای نامناسب
آلمان نیز یکی از کشورهایی است که در این زمینه قوانینی وضع کرده است. قانون اجرایی شبکه یا NetzDG که به قانون فیس بوک نیز مشهور است برای مقابله با نفرت پراکنی و اخبار جعلی در شبکههای اجتماعی در این کشور وضع شده است.
این قانون شبکههای اجتماعی با بیش از ۲ میلیون کاربر را ملزم به حذف محتوای غیرقانونی واضح در ۲۴ ساعت و محتوای غیرقانونی ضمنی طی ۷ روز پس از پست آن، میکند. شبکه اجتماعی خاطی با جریمهای تا ۵۰ میلیون یورو روبرو میشود. محتوای حذف شده باید حداقل تا ۱۰ هفته بعد نیز حذف شود و پلتفرمها باید هر ۶ ماه یکبار گزارشهای شفافیت درباره محتوای غیرقانونی را ارائه کنند.
این قانون در سال ۲۰۱۷ میلادی تصویب شد و از ۲۰۱۸ میلادی اجرایی شده است.
تلاش نافرجام فرانسه برای تصویب قانون مقابله با محتوای نامناسب
در این درحالی است که فرانسه نیز در سال ۲۰۱۹ میلادی قانونی مشابه NetDG وضع کرد. این قانون با پشتیبانی امانوئل مکرون و حزب او پلتفرمهای آنلاین را ملزم میکرد تا محتوای خشن و نفرت پراکنی که توسط کاربران مشخص شده را تا ۲۴ ساعت حذف کنند. اگر پلتفرم این قانون را نقض میکرد، با جریمهای ۱.۲۵ میلیون یورویی روبرو میشد.
اما در سال ۲۰۲۰ میلادی شورای قانون اساسی فرانسه، (دادگاهی که قوانین را بررسی میکند تا مطابق قانون اساسی کشور باشند) آن را لغو کرد. به گفته این دادگاه قانون مذکور سبب میشد پلتفرمها برای اجتناب از جریمه و تنبیه شدن، هر گونه محتوای گزارش شده را بدون در نظر گرفتن آنکه نفرت پراکنی به حساب میآید یا خیر حذف کنند.
رویداد کریستی چرچ سرآغاز تلاش نیوزلند و استرالیا برای مقابله با محتوای خشن
نیوزلند نیز درباره حذف محتوای غیرقانونی قانون مشخصی دارد. پس از حمله تروریستی کریستی چرچ در این کشور ساز و کاری برای مقابله صریحتر با محتوای خشونتآمیز و نفرت پراکنی در نظر گرفته شد. در این حلمه یک فرد افراط گرا با حمله به مسجدی حدود ۵۰ نفر را به قتل رساند و کل این فرایند را به طور زنده در فیس بوک پخش کرد.
مقابله با چالش افراطی گری چالشی پیچیده و بلند مدت است بنابراین چند سازمان دولتی، آژانس مجری قانون، جوامع مدنی، کارشناسان نیوزلندی همه در این حوزه نقش دارند.
تیم ایمنی دیجیتال در وزارت امور داخلی مسئولیت ایمن نگه داشتن شهروندان این کشور نسبت به آزارهای آنلاین و همچنین اجتناب از گسترش محتوای مخربی را دارد که خشونت را ترویج میکند.
از مسئولیتهای این تیم شناسایی محیطی است که محتوای خشونتآمیز ایجاد و در فضای آنلاین به اشتراک میگذارد. همچنین این تیم وظیفه اجتناب، دور کردن و در صورت لزوم تعقیب قانونی افرادی را برعهده دارد که محتوای مخرب را در فضای مجازی به اشتراک میگذارند.
دیگر اقدام این کشور تعهد دولت و شرکتهای فناوری برای حذف محتوای تروریستی و خشونتآمیز در فضای آنلاین است.
همچنین طبق قانونی در ۲۰۲۰ میلادی به پارلمان این کشور ارائه شده، پخش زنده هرگونه محتوای غیرقانونی مانند رویداد تروریستی کریستی چرچ یک جرم قانونی است. دولت میتواند دستور حذف محتوای آنلاین را به پلتفرم اعلام کند.
استرالیا نیز یکی دیگر از کشورهایی است که قوانینی درزمینه محتوای خشونتآمیز و نفرت پراکنی در فضای آنلاین است. در این کشور پلتفرمها ملزم به حذف محتوای منزجرکننده و خشن هستند و در غیر این صورت با جریمههای کلان روبرو میشوند. این قانون پس از حمله تروریستی کریستی چرچ در نیوزلند که به مسلمانان حاضر در مسجدی حمله و قتل آنان به طور زنده در فیس بوک پخش شد، وضع شده است.
تلاش گسترده هند برای مقابله با محتوای خشونتآمیز و نفرت پراکنی
هند با ۵۰۰ میلیون کاربر آنلاین و تاریخچهای از گسترش اخبار جعلی در شبکههای اجتماعی و پیامرسان ها که گاهاً به خشونت منجر شده، یکی از کشورهایی است که بازبینی محتوا در آن اهمیت زیادی دارد. قانونمندسازی محتوا تحت قانونی به نام قانون فناوری اطلاعات(ITA) قرار دارد.
استفاده از اینترنت برای انتشار محتوای تروریستی تحت جرائم سایبری قانون فناوری اطلاعات قرار میگیرد.
با این قانون که در ۲۰۰۰ میلادی وضع و در ۲۰۰۵ میلادی اصلاح شده، چهارچوبی برای مقابله با تروریسم سایبری در هند به وجود آمده است. در سال ۲۰۱۵ میلادی دادگاه عالی هند رای داد شرکتهای فناوری باید به طور فعال پلتفرمها را برای وجود محتوای غیرقانونی رصد کنند.
هرچند قانون ITA به طور واضح محتوای تروریستی را توضیح نمیدهد اما در سال ۲۰۱۵ میلادی مشخص شد استفاده از دستگاههای ارتباطی برای به اشتراک گذاری اطلاعاتی که به شدت اهانت آمیز است یا ماهیت تهدیدآمیزی دارد در کنار اخبار جعلی که نفرت و دشمنی به وجود میآورد، ممنوع است. در همین راستا شرکتهای فناوری ملزم هستند در صورت دریافت دستور از دادگاه یا دولت، محتوای مذکور را حذف کنند.
همچنین سازمانهای دولتی و قضایی میتوانند از پلتفرمهای اینترنتی بخواهند محتوای غیرقانونی را حذف کنند.
قانون عملکرد اینترنت در سنگاپور
سنگاپور یکی از هاب های اصلی فناوری در آسیا است و در حقیقت جایگزین آسیایی سیلیکون ولی به حساب میآید. بسیاری از شرکتهای فناوری بزرگ. از جمله فیس بوک، مایکروسافت، گوگل و یوتیوب مقری در سنگاپور دارند.
این کشور در اکتبر ۲۰۱۶ میلادی «قانون عملکرد اینترنت»(Internet Code of Practice) را تصویب کرد که مبنایی برای وظایف سرویسهای اینترنتی و تهیه کنندگان محتوا در سنگاپور فراهم میکند. علاوه بر آن «چارچوب نظارتی اینترنت»(Internet Regulatory Framework) در این کشور وضع شده ، که نمای کلی از رویکرد سنگاپور به مقررات آنلاین را نشان میدهد و با «قانون عملکرد اینترنت» نیز مرتبط است. قانون «حفاظت در مقابل محتوای اشتباه و دستکاری آنلاین» (POFMA) نیز در اکتبر ۲۰۱۹ در سنگاپور تصویب شده که مربوط به کنترل گسترش اخبار جعلی به وسیله دستورات اصلاح و حذف محتوا است. در همین راستا سازمان IMDA بر اجرای این قوانین در کشور نظارت دارد.
چارچوب قانونگذاری این کشور به طور خاص محتوای تروریستی آنلاین را هدف میگیرد. البته در این خصوص، ممنوعیت محتوای آنلاینی که نفرت را ترویج میکند نیز مبنایی برای حذف محتوا به حساب میآید.
تمام محتوای اینترنت و تهیه کنندگان سرویس در سنگاپور باید از قانون عملکرد اینترنت پیروی کنند. در صورت نقض قانون IMDA قدرت وضع تحریم از جمله تصویب جریمه بر شرکتهای فناوری را دارد.
- ۰۰/۱۱/۲۰