ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۱۸۹۰۸ مطلب با موضوع «others» ثبت شده است

تحلیل


تدابیر بین‌المللی علیه هوش مصنوعی

چهارشنبه, ۲۰ ارديبهشت ۱۴۰۲، ۰۳:۵۳ ب.ظ | ۰ نظر

توسعه ابزار هوش مصنوعی جدید طی ماه‌های اخیر، سبب تشدید نگرانی‌ها در مورد تهدیدات بالقوه این فناوری نوظهور در میان قانون‌گذاران سراسر جهان شده است.

خبرگزاری مهر - گروه دانش و فناوری؛ سیدرضا حسینی: مدتی است که آوازه هوش مصنوعی و پیشرفت‌هایش در سراسر جهان پیچیده و یکی از معروف‌ترین آن‌ها که به‌محض برخورد با کلمه هوش مصنوعی در ذهن تداعی می‌شود چت جی پی تی است؛ اما اکثر اسم‌هایی که با عنوان هوش مصنوعی به گوش ما می‌رسند، در واقع نرم‌افزارهای مبتنی بر هوش مصنوعی هستند.

«ChatGPT» و «Bard» جزو گروه چت‌بات‌ها هستند و «Midjourney» و «Dall.E» از جمله مدل‌های یادگیری ماشینی هستند که برای تبدیل متن به تصویر دیجیتال ساخته شده‌اند.

با گذشت مدتی کوتاه از عرضه عمومی «ChatGPT» و رشد رکورد شکن تعداد کاربران این پلتفرم، مسئله تنظیم‌گری فناوری‌های نوظهور همچون هوش مصنوعی، بار دیگر به اولویت اصلی فعالان این حوزه و دولت‌های سراسر جهان تبدیل شده است. ابراز نگرانی از مضرات این فناوری تا آنجا پیش رفت که جفری هینتون یکی از پیش کسوت‌ها و پدرخوانده هوش مصنوعی به تازگی و پس از آنکه متوجه شد احتمالاً رایانه‌ها از انسان‌ها باهوش‌تر می‌شوند، از شرکت گوگل استعفا داد تا آزادانه درباره خطرات این فناوری صحبت کند.

وی که با ابراز نگرانی درباره خطرات هوش مصنوعی از شرکت گوگل استعفا داده است، گفت: اکنون از کار خود در این رشته پشیمان است.

او در مصاحبه‌ای با نیویورک تایمز درباره ظرفیت این فناوری برای ایجاد تصاویر و متون جعلی اظهار نگرانی کرد و گفت: این فناوری و ابزارهایش دنیایی را به وجود می‌آورند که در آنها انسان‌ها نمی‌توانند واقعیت را تشخیص دهند.

 

قیام کشورها علیه فناوری‌های نوظهور هوش مصنوعی

با همه اینها به عقیده بسیاری از کارشناسان، هوش مصنوعی فناوری آینده‌ساز خواهد بود و درک ما از زندگی را تا حدود زیادی تغییر خواهد داد. از همین روی با روی کار آمدن و شهرت روز افزون چت جی پی تی، سیاستمداران با عزمی راسخ در پی مهار و کنترل آن برآمده‌اند.

از سوی دیگر، غول‌های فناوری مانند مایکروسافت، گوگل و آمازون نیز در حال رقابت تنگاتنگ برای بهره‌برداری حداکثری از مواهب توسعه این فناوری نوظهور هستند و همین امر، مسئله لزوم تنظیم‌گری این حوزه را بیش از پیش برجسته ساخته است. زیرا در صورت عدم کنترل نهادهای قانون‌گذار و تنظیم‌گر بر قوانین رقابت، هوش مصنوعی مولد می‌تواند سبب کسب مزیت و قدرت نامتعارف از سویشرکت‌های بزرگ فناوری شود و این بنگاه‌های اقتصادی را بر جوامع بشری مسلط کند.

تدابیر بین‌المللی علیه هوش مصنوعی جدید

چین؛ از مقابله رویاروی تا چت بات ملی

دولت چین، در راستای مقابله با تهدیدات هوش مصنوعی دو راه حل اساسی اتخاذ کرده است. این کشور در ماه فوریه اعلام کرد که پکن از شرکت‌های پیشرو در ساخت مدل‌های هوش مصنوعی که می‌توانند «Chat GPT» را به چالش بکشند، حمایت خواهد کرد. در ماه آوریل خبرگزاری شینهوا یک بیانیه دولتی بر مبنای نشست فصلی حزب کمونیست منتشر کرد. این بیانیه تأکید می‌کند که چین باید توجه شایانی به توسعه هوش مصنوعی و خلاقیت در این حوزه و مقابله با خطرات پیش‌بینی شده آن داشته باشد. به عقیده برخی کارشناسان این اقدام چین علاوه بر اینکه نشان‌دهنده اولویت چین در تبدیل‌شدن به قدرت اول در حوزه فناوری است، مبین اهمیت «ChatGPT» و لزوم مقابله با قدرت انحصاری این پلتفرم است.

دوم اینکه دولت چین علاوه بر اینکه تلاش دارد تا چت‌بات ملی خود را داشته باشد، تلاش برای تنظیم‌گری هوش مصنوعی مولد را نیز در دستور کار خود قرار داده است. تنظیم‌کننده فضای سایبری چین (CAC) در این راستا از پیش‌نویس اقداماتی برای تنظیم‌گری خدمات هوش مصنوعی رونمایی کرد و در آن از شرکت‌ها خواست که ارزیابی‌های امنیتی خود را قبل از ارائه خدمات به مقامات اعلام کنند. اصول دولت چین در تنظیم‌گری هوش مصنوعی، نظارت بر محتوا، حمایت از حق مالکیت معنوی، مقابله با اطلاعات نادرست، حفظ حریم شخصی و محافظت از داده‌ها و رفع نابرابری است.

 

اولین گام مهم اتحادیه اروپا

اتحادیه اروپا و نهادهای قانون‌گذار آن در بحبوحه محبوبیت و شهرت «ChatGPT» و سایر چت‌بات‌ها و هوش مصنوعی‌های مولد در پی آسیب‌شناسی و مقابله با خطرات احتمالی این فناوری جدید، بر آمدند. در ادامه مروری بر نظرات مختلف و اقدامات انجام‌شده خواهیم داشت.

برخی از قانون‌گذاران اروپا معتقدند می‌توان از مقررات حفاظت از داده‌های عمومی (GDPR)، جهت کنترل هوش مصنوعی و صاحبان آن استفاده کرد. با توجه به اینکه هوش مصنوعی از داده‌ها برای پاسخ‌های خود استفاده می‌کند «GDPR» با اصول حفاظت از داده‌های خود، می‌تواند با هرگونه استفاده از داده‌های کاربران و نقض حریم شخصی مقابله کند.

برخی دیگر از تنظیم گران مانند هلن دیکسون، عضو هیئت نهاد حفاظت از داده‌ها ایرلند، در جلسه‌ای که در پی ممنوعیت موقت «ChatGPT» برگزار شد، معتقد بودند که عجله در تنظیم‌گری هوش مصنوعی مولد بدون درک و شناخت دقیق کارکرد و فرایند آن، مانع تنظیم‌گری مناسب و صحیح خواهد شد.

در نهایت هیئت حفاظت از داده‌های اروپا، با متحد کردن ناظران ملی حفظ حریم خصوصی اروپا، در ماه آوریل اعلام کرد که کارگروهی مخصوص «ChatGPT» راه‌اندازی کرده است که این حرکت را می‌توان اولین گام مهم قاره سبز در جهت تنظیم قوانین مشترک حفظ حریم خصوصی در حوزه هوش مصنوعی دانست؛ به عبارتی دیگر قانون‌گذاران اتحادیه اروپا همچنان در حال گفتگو، بحث و کارشناسی در مورد معرفی قانون هوش مصنوعی اتحادیه اروپا هستند تا حکمرانی حوزه هوش مصنوعی را بااقتدار پیش ببرد. قانون‌گذاران پیشنهاد کرده‌اند که ابزارهای گوناگون هوش مصنوعی را بر اساس میزان ریسک و خطرپذیری، از کم تا غیرقابل‌قبول درجه‌بندی کنند.

بنا به گفته سخنگوی وزیر صنعت و علوم استرالیا از نهاد اصلی مشاوره علمی کشور درباره نحوه برخورد باهوش مصنوعی درخواست مشورت کرده و در حال تحلیل و بررسی گام‌های بعدی خود است.

 

ایالات متحده آمریکا؛ تشکیل کارگروه مقابله با هوش مصنوعی

در راستای جذب میلیونی کاربران به سمت «Chat GPT» و تلاش کشورها جهت تنظیم‌گری آن، کاخ سفید در ماه مارس اعلام کرد که آمادگی شنیدن هر گونه پیشنهادی مبنی بر نحوه برخورد با «Chat GPT» و روش مسئولیت‌پذیر و پاسخگو نگه‌داشتن این فناوری جدید را دارد.

کمی قبل‌تر از آن در ماه می جو بایدن، رئیس‌جمهور ایالات متحده طی درخواستی بر بررسی پیامدهای ناشی از توسعه هوش مصنوعی تأکید کرد و شناخت و مقابله با خطرات آن را برای جامعه، امنیت ملی و اقتصاد ضروری دانست و همچنین افزود: «از نظر من، شرکت‌های فناوری مسئولیت دارند که پیش از عرضه عمومی محصولات خود، از ایمنی آن‌ها اطمینان حاصل کنند.» او از اعضای کنگره خواست که یک قانون حریم خصوصی تصویب کنند. چنین قانونی شامل مواردی مانند محدودیت شرکت‌ها در جمع‌آوری داده‌های شخصی، ممنوعیت تبلیغات برای جامعه هدف کودکان و منع انتشار اطلاعات نادرست و… خواهد بود.

طی آخرین اخبار در آوریل، مایکا بنت، سناتور آمریکایی، لایحه‌ای ارائه کرده است که بر اساس آن کارگروهی برای بررسی سیاست‌های ایالات متحده در زمینه هوش مصنوعی و شناسایی راه‌های مناسب مقابله با هر گونه نقض حریم خصوصی و آزادی‌های مدنی در آمریکا تشکیل شده و روندهای قانونی نحوه توسعه این فناوری مشخص خواهد شد.

وزیر امنیت میهن آمریکا نیز اعلام کرد کارگروه هوش مصنوعی همچنین شیوه استفاده از این فناوری برای انجام بهتر کارها مانند بررسی محموله‌های ورودی به کشور برای ردیابی کالاهای غیرقانونی را مطالعه می‌کند.

وی همچنین خواستار استفاده از هوش مصنوعی جهت ایمن سازی شبکه توزیع برق و سیستم‌های ذخیره آب شد. بیم آن می‌رود که هر دو این زیرساخت‌ها هدف دشمنان قرار گیرند.

مایورکاس اعلام کرد این فناوری به طور گسترده‌ای چشم انداز تهدیدها را تغییر می‌دهد.

کارشناسان امنیتی در واشنگتن مدعی احتمال استفاده دشمنان خارجی از قابلیت‌های هوش مصنوعی برای ضربه‌زدن به امنیت ملی ایالات متحده شدند.

وظیفه این کارگروه بر اساس لایحه منتشر شده، شناسایی نقاط ضعف در فرایند نظارت بر هوش مصنوعی و ارائه پیشنهادهایی برای بهبود و اصلاح رویه‌ها خواهد بود. اعضای این کارگروه اعضای برخی از سازمان‌های دولتی مانند: دفتر مدیریت و بودجه، نهاد ملی استاندارد و فناوری، دفتر سیاست دانش و فناوری و افسران آزادی‌های مدنی و حریم خصوصی از وزارت‌خانه‌های دادگستری، امور خارجه، خزانه‎‌داری، دفاع و سایر دستگاه‌های اجرایی هستند.

بر اساس مفاد لایحه، تشکیل این کارگروه موقتی است و بعد از ۱۸ ماه، گزارش نهایی را ارائه کرده و سپس تعطیل می‌شود.

در پنجم ماه می جو بایدن، رئیس‌جمهور ایالات متحده آمریکا به دنبال لزوم تنظیم‌گری هوش مصنوعی در نشستی با حضور مدیران شرکت‌های هوش مصنوعی از جمله مایکروسافت و گوگل به‌وضوح اعلام کرد که شرکت‌ها موظف‌اند ایمنی پلتفرم‌هایشان را قبل از توسعه آن تضمین کنند. محورهای اصلی این جلسه شامل لزوم شفافیت بیشتر شرکت‌ها در مقابل سیاست‌گذاران، اهمیت ارزیابی این محصولات و نیاز به محافظت از آنان در مقابل حملات مخرب بود. همچنین در این جلسه به نگرانی‌هایی درباره هوش مصنوعی مانند نقض حریم خصوصی، تصمیم‌های غلط در استخدام که منجر به ازبین‌رفتن مشاغل شود و ایفای نقش هوش مصنوعی به‌عنوان ناشر اطلاعات نادرست اشاره شد.

 

بریتانیا؛ مسئولیت پذیر کردن شرکت‌ها از طریق رویکردهای غیرسختگیرانه

دولتمردان بریتانیایی در ماه آپریل اعلام کردند هوش مصنوعی علاوه بر مزایایی که در رشد و پیشرفت بشر دارد ممکن است مشکلاتی را درباره حریم خصوصی، حقوق بشر یا ایمنی افراد ایجاد کند. آن‌ها مدعی شدند که قوانین سخت‌گیرانه و سرکوبگر را راه‌حل مناسبی نمی‌دانند و قصد دارند رویکردهای منعطف‌تر و بر اساس اصولی مانند ایمنی، شفافیت، انصاف و مسئولیت‌پذیری را در پیش گیرند.

کمی بعد استفان آلموند، مدیر اجرایی ریسک‌های امنیت داده از دفتر کمیسری اطلاعات بریتانیا هوش مصنوعی مولد بخصوص «Chat GPT» متعلق به شرکت «OpenAI» را خطری بالقوه برای امنیت داده دانست و بر اهمیت چگونگی استفاده این فناوری از داده‌های شخصی تأکید کرد. او در ادامه به لزوم متعهدشدن سازمان‌هایی که از هوش مصنوعی استفاده می‌کنند به حفاظت از داده‌های شخصی اشاره کرد و پیامدهای اهمیت‌ندادن هوش مصنوعی به حریم شخصی را بزرگ و سخت دانست.

سرانجام بریتانیا در ماه مارس اعلام کرد که قصد دارد به‌جای ایجاد یک نهاد تنظیم‌گر جدید، مسئولیت مدیریت هوش مصنوعی را بین تنظیم‌کننده‌های حقوق بشر، سلامت و ایمنی و رقابت تقسیم کنند.

 

ایتالیا؛ فیلترینگ و مشروط سازی

ایتالیا در ماه مارس، «ChatGPT» را موقتاً ممنوع اعلام کرد، زیرا مقامات تنظیم‌گر حفاظت از داده‌ها نگرانی‌هایی را در مورد نقض حریم خصوصی، نقض مقررات «GDPR» و کاربران زیر ۱۳ سال داشتند. همچنین سازمان دیده‌بان ایتالیا در ۲۰ مارس گفت که هیچ مبنای قانونی برای توجیه «جمع‌آوری و ذخیره انبوه داده‌های شخصی» به‌منظور «آموزش» الگوریتم‌های زیربنایی عملکرد پلتفرم وجود ندارد.

ایتالیا از شرکت سازنده هوش مصنوعی جدید خواست ابزاری فراهم کند تا همه افرادی که داده‌هایشان در چت جی پی تی مورد استفاده است، بتوانند درخواست تصحیح یا حذف داده‌های شخصی خود که به‌طور نادرست توسط این سرویس ایجاد شده‌اند را مطرح کنند. OpenAI همچنین باید به غیر کاربران اجازه دهد تا «به روشی ساده و در دسترس» با پردازش داده‌های شخصی خود برای اجرای الگوریتم‌های چت جی پی تی مخالفت کنند.

همچنین از این شرکت خواسته شده تا پایان سپتامبر یک سیستم تأیید سن را راه اندازی کند تا دسترسی کاربران زیر ۱۳ سال به چت جی پی تی ممنوع شود.

کمتر از یک ماه پس از اعمال ممنوعیت‌هایی برای ChatGPT به دلیل نگرانی‌های مربوط به حریم خصوصی توسط ایتالیا، دولت این کشور در روز جمعه نسبت به رویکرد خود درباره چت‌بات OpenAI عقب نشینی کرد. تصمیم جدید ایتالیا پس از پاسخگویی این استارتاپ به نگرانی‌هایی که درباره حریم خصوصی و امنیت داده‌های کاربران در پلتفرم هوش مصنوعی آنها مطرح شده بود، اتخاذ شده است.

تدابیر بین‌المللی علیه هوش مصنوعی جدید

آلمان و اقدامی مشابه ایتالیا

همچنین در روزهای اخیر ۴۲ انجمن و اتحادیه تجاری آلمانی که نماینده بیش از ۱۴۰ هزار مؤلف و بازیگر هستند از اتحادیه اروپا خواسته اند سریع‌تر پیش نویس قوانین هوش مصنوعی را فراهم کند. آنها به تهدید «چت جی پی تی» برای کپی رایت آثارشان اشاره کردند.

در این نامه به اهمیت نگرانی‌های روزافزون درباره هوش مصنوعی مولد مانند چت جی پی تی که می‌تواند از انسان‌ها تقلید کند و متن و تصویر بسازد، نیز پرداخته شده است.

در بخشی از این نامه آمده است: استفاده غیرمجاز از محتوای آموزشی محافظت شده، پردازش غیرشفاف آن و جایگزین کردن قابل پیش بینی منابع با محصول خروجی هوش مصنوعی مولد سوالاتی بنیادین درباره مسئولیت پذیری و پاداش ایجاد می‌کند که باید قبل از ایجاد آسیب‌های جبران ناپذیر، به آنها پرداخته شود. هوش مصنوعی مولد باید در مرکز هر قانون مربوط به بازار هوش مصنوعی باشد.

از سوی دیگر به نظر می‌رسد آلمان در نظر دارد به دلیل نگرانی در مورد حریم خصوصی، استفاده از چت جی‌پی‌تی را ممنوع کند. به گزارش ایندیپندنت، اولریش کلبر، رئیس حفاظت از داده‌های کشور آلمان، به روزنامه هندلسبلات (Handelsblatt) گفت: «به دنبال ممنوعیت چت جی‌پی‌تی در ایتالیا، ناظران آلمانی با همتایان ایتالیایی خود در ارتباط هستند و حالا این احتمال وجود دارد که چنین اقدامی در آلمان نیز صورت بگیرد.»

 

ژاپن؛ اجلاس G۷ و بیانیه پایانی با محوریت هوش مصنوعی

وزرای کشورهای عضو گروه ۷ معتقدند باید قوانینی مبتنی بر ریسک برای هوش مصنوعی به کار گیرند.

این در حالی است که قانونگذاران اروپایی سعی دارند هرچه سریع‌تر یک قانون مرتبط با ابزارهای نوظهوری مانند چت جی پی تی وضع کنند البته طبق بیانیه مشترک وزرای گروه ۷، قانون مذکور باید یک محیط باز و توانمند برای توسعه فناوری‌های هوش مصنوعی را حفظ کند و مبتنی بر ارزش‌های دموکراتیک باشد.

این بیانیه در پایان اجلاس ۲روزه گروه در ژاپن صادر شده است.

هر چند به اعتقاد وزرا ممکن است ابزارهای سیاستگذاری برای دستیابی به چشم اندازی یکسان و هدف ایجاد یک سیستم هوش مصنوعی ایمن بین کشورهای عضو این گروه متفاوت باشد، اما توافق مذکور نقطه عطفی در زمینه نظارت کشورهای پیشرفته بر هوش مصنوعی در بحبوحه اوج گیری نگرانی‌های حریم خصوصی و ریسک‌های امنیتی است.

مارگارت وستاگر کمیسر رقابت اتحادیه اروپا پیش از توافق در این باره گفت: نتیجه گیری اجلاس گروه ۷ نشان می‌دهد ما در زمینه قانونگذاری برای هوش مصنوعی تنها نیستیم.

در بخش دیگری از بیانیه وزرای این گروه آمده است: ما تصمیم داریم در آینده مذاکرات درباره هوش مصنوعی مولد را در اجلاس‌های گروه ۷ ادامه دهیم. در این مذاکرات احتمالاً موضوعاتی مانند نظارت، چگونگی حفاظت از حقوق مالکیت معنوی از جمله کپی رایت، ترویج شفافیت، بررسی اطلاعات اشتباه (از جمله اطلاعاتی که توسط نیروهای خارجی دستکاری می‌شود) مورد بحث قرار می‌گیرد.

در این میان ژاپن که رئیس گروه ۷ در سال جاری است، روشی آسانگیرانه تر در خصوص توسعه دهندگان هوش مصنوعی در پیش گرفته و خواستار پشتیبانی عمومی و صنعتی از توسعه هوش مصنوعی شده است.

ژاپن امیدوار است تا گروه ۷ را به یک فرایند نظارتی انعطاف پذیر به جای قوانینی سختگیرانه در خصوص هوش مصنوعی متقاعد کند.

 

روسیه؛ گیگا چت بومی

بانک روسی «اسبربانک» (Sberbank) رقیب چت جی پی تی به نام «گیگاچت» را ارائه کرده است. این فناوری در حال حاضر در وضعیت آزمایشی است و افراد با استفاده از دعوتنامه می‌توانند از آن استفاده کنند.

به گفته اسبربانک نکته متمایز گیگاچت توانایی برقراری ارتباط هوشمندانه‌تر به زبان روسی نسبت به سایر شبکه‌های عصبی خارجی است.

اسبربانک یا بانک پس‌انداز فدراسیون روسیه بزرگترین بانک در روسیه و اروپای شرقی است که در سال‌های اخیر سرمایه گذاری عظیمی در این فناوری کرده است. هدف این بانک کاهش اتکای کشور به واردات است زیرا پس از حمله روسیه به اوکراین کشورهای غربی صادرات را به شدت کاهش داده و تحریم‌های علیه آن وضع کرده اند.

 

ضرورت پیوست نگاری برای فناوری‌های نوظهور

«علی زرودی»، پژوهشگر فضای مجازی و مدرس دانشگاه، در گفتگو با خبرنگار مهر درباره تهدیدات بالقوه هوش مصنوعی گفت: هوش مصنوعی مانند بسیاری از فناوری‌های نوظهور گذشته، گرچه مزایای شگفت‌انگیزی دارد و فرصت‌های بی‌بدیلی می‌آفریند؛ اما جوامع بشری را با تهدیدات بزرگی مواجه می‌کند. یکی از مهمترین این تهدیدات نقض امنیت داده و حریم خصوصی است.

وی افزود: تهدید دیگر بیکارشدن بخشی از نیروی کار فعلی جوامع است. افزایش نظارت دولت‌ها و شرکت‌های صاحب فناوری بر کاربران، افزایش دستکاری در افکار عمومی به واسطه تسهیل تولید و انتشار محتوای نادرست و جعلی (مانند ساخت ویدئوی جعلی از سخنرانی یک شخصیت مشهور)، پیچیده‌تر شدن حملات سایبری، جاسوسی و باج‌افزارها نیز از دیگر تهدیدات این فناوری محسوب می‌شوند.

پژوهشگر فضای مجازی گفت: البته هوش مصنوعی برای تقابل با این تهدیدات هم یاریگر انسان‌ها خواهد بود؛ به عنوان مثال تقویت «دفاع سایبری» از مزایای این فناوری محسوب می‌شود. نکته دیگر این است که پیش‌بینی این تهدیدات و اتخاذ تدابیر تنظیم‌گرانه برای مقابله با آن‌ها مهم و ضروری است.

وی در ادامه و در مورد دلیل تمرکز نهادهای تنظیم‌گر جهان بر حوزه فناوری هوش مصنوعی افزود: وظیفه قانون‌گذاران و به طور کلی حکمرانان یک جامعه، تضمین منافع و مصالح عمومی آن جامعه است. هدف محوری شرکت‌های هوش مصنوعی مانند سایر شرکت‌ها در بخش خصوصی، بیشینه کردن سود تجاری است. بنابراین این شرکت‌ها به دنبال خلاقیت و نوآوری روزانه هستند. از آنجا که مطابق نظریات جامعه شناختی، سرعت تغییرات ارزشی و هنجاری در یک جامعه بسیار کمتر از سرعت تغییرات فناوری در آن جامعه است (که اصطلاح تأخر فرهنگی/Cultural Lag را برای این پدیده استفاده می‌کنند) تحولات روزانه فناوری‌ها موجب اختلال در سیستم ارزشی جوامع می‌شود.

زرودی افزود: اگر این تحول فناورانه، به صورت وارداتی باشد، شدت تأخر فرهنگی و اختلال ذکر شده بیشتر خواهد بود. تحولات سیستم ارزشی جامعه پیامدهایی برای سایر سیستم‌ها همچون سیاست، فرهنگ، اقتصاد، تربیت و… دارد و منافع عمومی را به خطر می‌اندازد. قانون‌گذار به ویژه در کشورهایی که واردکننده فناوری هستند، تلاش می‌کند تا با محدودکردن شرکت‌های فناوری از اختلالات ذکر شده بکاهد. به عنوان مثال بریتانیا و اتحادیه اروپا که در زمینه تحولات فناوری از شرکت‌های آمریکایی عقب افتاده‌اند و محصولات فناورانه داخلی آن‌ها نمی‌تواند با محصولات شرکت‌های آمریکایی رقابت کند، به مقررات‌گذاریِ حداکثری برای شرکت‌های آمریکایی روی آورده‌اند.

وی در این مورد گفت: فناوری‌های نوظهور همواره می‌تواند شتاب پیشرفت اقتصادی را بیشتر کند مشروط به آنکه رویکرد فعالانه (بدون تأخیر، آینده‌نگرانه و مبتنی بر طراحی بومی) وجود داشته باشد و زیرساخت‌های حقوقی، اقتصادی، اجتماعی و سیاسی لازم برای توسعه آن فناوری مهیا شود. با درنظر گرفتن چنین شرایطی، فناوری نوظهور می‌تواند در مسیر پیشرفت، جهش ایجاد کند.

هر یک روز تأخیر ما برای ورود به طراحی اکوسیستم بومی یک فناوری منجر به این می‌شود که در آن فناوری عقب‌مانده و بدون قدرت باشیم. اقتضای حکمرانی فعال، غنیمت شمردن فرصت‌هاست

پژوهشگر فضای مجازی و مدرس دانشگاه اظهار داشت: تاکنون چنین مواجهه مطلوبی با فناوری‌های نوظهور نداشته‌ایم. اقدامات گذشته ما منفعلانه بوده است. یا جلوی یک فناوری را گرفته‌ایم یا در نهایت آن را وارد کرده و برایش پیوست فرهنگی و زیست محیطی و… نوشته‌ایم. پیوست‌نگاری برای فناوری‌های نوظهور حتی اگر نوع پیوست‌نگاری پیشینی (یعنی پیش از ورود فناوری به کشور) باشد، اقدامی منفعلانه است. اقدام فعالانه در مواجهه با فناوری جدید، طراحی بومی باشد ضروری است. چند سال قبل که ما از ضرورت طراحی بومی اینترنت اشیا صحبت می‌کردیم، برخی این موضوع را باور نداشتند تا اینکه در دو سال گذشته، آفکام در رویکرد جدید خود برای توسعه سواد رسانه‌ای، اقدام به تعامل با پلتفرم‌ها کرده است تا طراحی پلتفرم‌ها متناسب با اصول سواد رسانه‌ای مدنظر آفکام باشد. درواقع مقررات و ارزش‌ها را در مرحله طراحی فناوری پیاده‌سازی می‌کند. بعد از این اقدام آفکام، حرف ما نیز درخصوص طراحی بومی اینترنت اشیا شنیده شد. امروز هم همین موضوع درمورد هوش مصنوعی و سایر فناوری‌ها وجود دارد. هر یک روز تأخیر ما برای ورود به طراحی اکوسیستم بومی یک فناوری منجر به این می‌شود که در آن فناوری عقب‌مانده و بدون قدرت باشیم. اقتضای حکمرانی فعال، غنیمت شمردن فرصت‌هاست.

به گزارش مهر، هوش مصنوعی‌هایی مانند «ChatGPT» مزایای بسیاری دارند، این پلتفرم‌ها می‌توانند سرعت رشد و توسعه علم را بالا برده و به تجارت، اکتشاف، آموزش، سیاست‌گذاری و بسیاری از مسائل خرد و کلان زندگی بشر رونق بیشتری داده و کیفیتشان را بالا ببرد؛ اما بی‌اهمیتی به معایب آن و اقدام‌نکردن به‌موقع برای تنظیم‌گری درست و به‌قاعده می‌تواند آثار جبران‌ناپذیری داشته باشد که نه‌تنها خود آسیب می‌زنند بلکه مزایای هوش مصنوعی را هم عملاً بی‌فایده خواهند کرد.

حساب‌های غیر فعال توییتر حذف می‌شوند

سه شنبه, ۱۹ ارديبهشت ۱۴۰۲، ۰۶:۳۷ ب.ظ | ۰ نظر

ایلان ماسک مدیر ارشد اجرایی توئیتر اعلام کرد حساب های کاربری که چندماه غیر فعال بوده اند را حذف خواهد کرد. 
به گزارش خبرگزاری مهر به نقل از رویترز، مالک توئیتر در توئیتی اعلام کرد حساب های کاربری غیرفعال آرشیو می شوند. او جزئیاتی درباره این اقدام یا زمان انجام فرایند را اعلام نکرد.

هنوز مشخص نیست آیا کاربران توئیتر می توانند به حساب های کاربری آرشیو شده دسترسی یابند یا اصلا دسترسی به چنین حساب هایی چگونه ممکن است.

همچنین ماسک اعلام کرد با حذف حساب های کاربری غیرفعال ممکن است کاربران این پلتفرم شاهد کاهش تعداد فالوئرهایشان باشند.

طبق سیاست توئیتر کاربران باید حداقل هر ۳۰ روز یکبار وارد حساب کاربری شان شوند تا از حذف دائمی آن اجتناب کنند.

جریمه سنگین برای فرار مالیاتی «اینفلوئنسرها»

سه شنبه, ۱۹ ارديبهشت ۱۴۰۲، ۰۶:۳۴ ب.ظ | ۰ نظر

سینماپرس: سه اینفلوئنسر به پرداخت ۴۰۰۰۰۰ یورو به عنوان معوقه مالیاتی و جریمه محکوم شدند.

به گزارش سینماپرس، برخی از کشورها قوانین مختلفی را برای فعالیت اینفلوئنسرها و سلبریتی‌ها در شبکه‌های اجتماعی وضع کرده‌اند که اگر این افراد قوانین را رعایت نکنند با جریمه‌های نقدی یا حتی زندان مواجه می‌شوند.

جریمه سنگین برای فرار مالیاتی «اینفلوئنسرها»

*اینفلوئنسر با چهره ورزشی و هنری فرق می‌کند

اینفلوئنسرها، افراد معروف و تاثیرگذار در شبکه‌های اجتماعی هستند آنها مانند چهره‌های سرشناس دنیای ورزش و هنر و سرگرمی در میان مردم شناخته شده نیستند ولی در شبکه‌های اجتماعی نفوذ و اثرگذاری قابل ملاحظه‌ای دارند.

بطور معمول اینفلوئنسرها به عنوان یک پیمانکار مستقل برای تبلیغات شرکت‌ها کار می‌کنند. پیمانکاران مستقل در دسته «خود اشتغالی» جای می‌گیرند از این رو باید «مالیات خود اشتغالی» و «مالیات بر درآمد» پرداخت کنند.

جریمه سنگین برای فرار مالیاتی «اینفلوئنسرها»

*بهره‌برداری اینفلوئنسرها از بازاریابی مجازی

همان طور که می‌دانید یکی از روش‌های موثر در بازاریابی، بازاریابی دهان به دهان است. در اینفلوئنسر مارکتینگ از این روش بازاریابی به خوبی بهره برده و از آن جایی که مخاطبین(فالُوِرها/دنبال کننده) به فرد اینفلوئنسر اعتماد دارند راحت تر جذب محصول یا خدمات برند می‌شوند.

میزان در آمد اینفلوئنسرها از طریق فعالیت در شبکه‌های اجتماعی به ویژه اینستاگرام یکی از موضوعات جذاب برای کاربران در این شبکه‌هاست. بیشترین سوالی که احتمالا در ارتباط با این موضوع برای خیلی‌ها پیش می‌آید این است که آیا درآمد آنها از این طریق شامل مالیات می‌شود و آیا آنها ملزم هستند تا بخشی از درآمد خود از طریق شبکه‌های اجتماعی تحت عنوان اینفلوئنسر را به مالیات اختصاص دهند؟

جریمه سنگین برای فرار مالیاتی «اینفلوئنسرها»

*عدم تصویب قوانین مشخص در حوزه مالیات اینفلوئنسرها

این گونه فعالیت‌ها و کسب و کارها چون از ماهیت جدیدی برخوردار هستند قوانین مالیاتی مشخصی در کشور ما برای آنها تعریف نشده است.

حال سوال این است که درآمد اینفلوئنسرها و مبالغ مالیاتی آنها چگونه مورد محاسبه قرار می‌گیرد؟ و اساسا سازمان امور مالیاتی برای تعیین اینفلوئنسر چه معیار و مولفه‌ای به کار خواهد برد؟

 

*گردش مالی بسیار بالای اینفلوئنسرها

اینفلوئنسرها و سلبریتی‌های بسیار زیادی در زمینه تبلیغات در شبکه‌های اجتماعی فعال هستند. که البته به میزان بسیار بیشتری از این افراد نیز، صفحات و پیج‌های مجهول‌الهویه‌ای وجود دارند که تعداد مخاطبان میلیونی داشته و گردش مالی آنها رقم بسیار بالایی است اما هویت واقعی اینفلوئنسر مشخص نیست و با درآمدهایی با رقم‌هایی نجومی به حیات خود در فضای مجازی ادامه می‌دهند و تاکنون یک ریال مالیات هم پرداخت نکرده‌اند.

جریمه سنگین برای فرار مالیاتی «اینفلوئنسرها»

*جریمه ۴۰۰ هزار یورویی سه اینفلوئنسر در بلژیک

به نقل از وی‌آرتی نیوز، سه اینفلوئنسر در کشور بلژیک به پرداخت ۴۰۰۰۰۰ یورو به عنوان معوقه مالیاتی و جریمه محکوم شدند.

این اینفلوئنسرها محصولات و خدمات خاصی را در رسانه های اجتماعی تبلیغ می‌کنند. در ازای آن، شرکت‌هایی که کالاها و خدماتشان را تبلیغ می‌کنند، به صورت نقدی یا کالایی به آن اینفلوئنسرها پول‌های کلان پرداخت می‌کنند.

جریمه سنگین برای فرار مالیاتی «اینفلوئنسرها»

*کشورهای اروپایی در حال تنظیم‌گری فعالیت اینفلوئنسرها

بلژیک سال گذشته قوانین خود در زمینه فضای مجازی و برخورد با اینفلوئنسرها را تشدید کرد. در نتیجه اینفلوئنسرها نیز باید هر گونه مزایایی را که دریافت کرده‌اند را اعلام کنند.

تعدادی از آنها تمام وجوه نقد، کالاها و خدماتی که به آنها داده شده را اعلام نکردند و اکنون به پرداخت معوقات و همچنین جریمه محکوم شده‌اند.

بسیاری کشورهای اروپایی در حال تدوین مقررات و قوانین نظارت و مالیات گیری از اینفلوئنسرها هستند.

توافق صدمیلیون دلاری نیویورک تایمز و گوگل

سه شنبه, ۱۹ ارديبهشت ۱۴۰۲، ۰۶:۲۴ ب.ظ | ۰ نظر

نیویورک تایمز حدود ۱۰۰ میلیون دلار از گوگل برای مدت سه سال در ازای محتوای این روزنامه که در پلتفرم‌های این غول اینترنتی منتشر می‌شود، دریافت می‌کند.

به گزارش ایسنا، روزنامه وال استریت ژورنال به نقل از منابع آگاه گزارش کرد قرارداد میان گوگل و نیویورک تایمز شامل مشارکت در گوگل نیوز و پلتفرم‌های دیگر گوگل است.

نیویورک تایمز در فوریه، تمدید توافق با گوگل که شامل توزیع محتوا و اشتراکها بود را اعلام کرده بود.

بر اساس گزارش رویترز، گوگل و تایمز در این باره اظهارنظر نکردند.

لینکدین قید چین را زد

سه شنبه, ۱۹ ارديبهشت ۱۴۰۲، ۰۶:۱۷ ب.ظ | ۰ نظر

یکی از معدود اپلیکیشن‌های آمریکایی شبکه اجتماعی از ادامه فعالیت خود به خاطر رقابت شدید و شرایط دشوار اقتصاد کلان در چین صرفنظر کرد.

به گزارش شارا، شبکه اجتماعی لینکدین اعلام کرد که اپلیکیشن آن در چین به زودی کار خود را متوقف خواهد کرد.

شرکت مایکروسافت که صاحب لینکدین است در همین زمینه از «رقابت شدید» و «شرایط دشوار اقتصاد کلان» در چین سخن گفته است. لینکدین یکی از معدود اپلیکیشن‌های آمریکایی شبکه‌اجتماعی بود که با وجود سانسور شدید و مقررات سختگیرانه موفق شده بود در چین فعالیت کند.
مایکروسافت در همین راستا در چین نسخه خاصی از اپلیکیشن لینکدین مطابق با مقررات محلی عرضه کرده بود.

افزایش محتوای کودک آزاری در رسانه‌های اجتماعی

سه شنبه, ۱۹ ارديبهشت ۱۴۰۲، ۰۵:۰۳ ب.ظ | ۰ نظر

مقامات پلتفرم‌های دیجیتال و سایت‌های عمده رسانه‌های اجتماعی اذعان می‌کنند در سال ۲۰۲۲ میلادی مضامین مربوط به سوء استفاده جنسی از کودکان افزایش نگران کننده‌ای یافته است
به گزارش خبرگزاری صدا و سیما؛  به نقل از سی تی وی نیوز، مقامات پلتفرم‌های دیجیتال و سایت‌های عمده رسانه‌های اجتماعی اذعان می‌کنند در سال ۲۰۲۲ میلادی مضامین مربوط به سوء استفاده جنسی از کودکان افزایش نگران کننده‌ای یافته است ضمن آن که از ۳۱ میلیون و ۸۰۰ هزار گزارش موجود، ۸۵.۵ درصد به پلتفرم‌های متا شامل فیس بوک، اینستاگرام و واتس اپ ارتباط دارد.
لیانا مک دونالد، مدیر اجرایی مرکز حفاظت از کودکان در کانادا در بیانیه‌ای گفت: «این ارقام در حال افزایش است یا به خاطر افزایش توزیع مطالب توسط کاربران یا به خاطر آن که شرکت‌ها همین تازگی شروع به بررسی وضعیت سایت‌ها و پلتفرم‌های خود کرده اند.»
این داده‌ها را مرکز ملی کودکان ناپدید یا قربانی سوء استفاده در آمریکا منتشر کرده است. هم کانادا و هم آمریکا از نظر قانونی ارایه دهندگان خدمات الکترونیک در کشورشان را ملزم کرده اند که موارد هرزه نگاری کودکان را گزارش دهند و حذف کنند. با این حال هیچ الزام قانونی برای این شرکت‌ها وجود ندارد که این دست محتوا‌ها را جستجو کنند یا از ابزار‌هایی برای عدم بارگزاری آن استفاده کنند.
شرکت متا در سال ۲۰۲۲ میلادی ۲۷.۲ میلیون گزارش از این دست ارسال کرد که شامل ۲۱.۲ میلیون از فیس بوک، ۵ میلیون از اینستاگرام و یک میلیون از واتس اپ بود و نشانگر افزایش ۱.۱ درصدی نسبت به سال ۲۰۲۱ بود. فیس بوک به تنهایی منشا ۶۶.۶ درصد از گزارش‌ها در سال ۲۰۲۲ بود.
فیس بوک محبوب‌ترین رسانه اجتماعی در کانادا و آمریکاست طوری که ۳ ه چهارم بزرگسالان از آن استفاده می‌کنند.
مطالب گزارش شده بسیاری از ارایه دهندگان خدمات الکترونیک در سال ۲۰۲۲ نیز در حدی نگران کننده است و این شامل ۲.۲ میلیون گزارش از گوگل معادل ۱۵۵ درصد افزایش نسبت به سال ۲۰۲۱، بیش از ۵۵۱ هزار گزارش از اسنپ چت معادل ۷.۵ درصد افزایش، بیش از ۲۸۸ هزار گزارش از تیک توک معادل ۸۶.۳ درصد افزایش، حدود ۱۷۰ هزار گزارش از دیسکورد معادل ۴۷۳ درصد افزایش و بیش از ۹۸ هزار گزارش از توئیتر معادل ۱۳ درصد افزایش می‌باشد

استراتژی سایبری ارتش آمریکا؛ شکار به جلو

سه شنبه, ۱۹ ارديبهشت ۱۴۰۲، ۰۵:۰۱ ب.ظ | ۰ نظر

ژنرال پل ناکاسونه فرماندهی سایبری ایالات متحده پس از سخنرانی کلیدی پایانی خود در اجلاس سران دانشگاه وندربیلت در مورد درگیری های مدرن و تهدیدات نوظهور، با خبرنگاران به گفتگو نشست تا تعدادی از موضوعات امنیت سایبری را بررسی کند.
در اینجا نکات مهم صحبت با ناکاسونه، که همچنین ریاست آژانس امنیت ملی را بر عهده دارد، آمده است:

استراتژی سایبری وزارت دفاع: پنتاگون آماده انتشار آخرین استراتژی سایبری خود در پنج سال آینده است. در سال 2018، نسخه قبلی آژانس را از موضعی عمدتاً پاسخگو به استراتژی «دفاع به جلو» تغییر داد، که هدف آن مقابله با رفتار دشمن تا حد امکان نزدیک به منبع است. فرماندهی سایبری آن را از طریق رویکرد «درگیری مداوم» اجرا خواهد کرد؛ به این معنی که اپراتورهای آمریکایی باید دائما و سریع با دشمنان در فضای مجازی تعامل داشته باشند.
ناکاسون در مورد سند پیش رو می گوید: من فکر نمی‌کنم تفاوت چشمگیری با سال 2018 داشته باشد. در سال 2018 نقطه عطف بزرگی با دفاع به جلو وجود داشت. من لزوماً تغییر بزرگی در استراتژی نمی بینم. فکر می‌کنم تغییرات مهمی دارد، اما 2018 برای ما بسیار مهم بود.

او اضافه می کند که محتوای استراتژی، بیشتر در راستای این است که چگونه می‌توان بسیار سریع تر شد و مشارکت با سازمان‌های دیگر، از جمله در سطح بین‌المللی را تقویت کرد. ناکاسونه می گوید: من فکر می کنم شما چیزهای بیشتری از این را خواهید دید. من فکر می‌کنم نقش بسیار مهم‌تری از این نظر وجود دارد که متحدان شما چگونه در این امر بازی می‌کنند، هم از این نظر که چگونه از متحدان خود به نحوی استفاده می‌کنید که به توانایی‌های شما می‌افزاید و همچنین اینکه چگونه در حفاظت از آنها کمک خواهید کرد.

بخش 702: ناکاسون می گوید اگر کنگره نتواند بخش 702 قانون نظارت بر اطلاعات خارجی را قبل از پایان سال تمدید کند، جامعه پنهان ایالات متحده متضرر خواهد شد. این قانون به دولت فدرال اجازه خواهد داد تا ایمیل ها و ارتباطات الکترونیکی اهداف اطلاعاتی خارجی را جمع آوری کند، اما به طور اتفاقی داده های شخصی آمریکایی ها را نیز جمع آوری می کند.
اف بی آی، مقامات بسیار بسیار منحصر به فردی دارد که آژانس امنیت ملی آنها را انتخاب نخواهد کرد. این عنصر داخلی چیزی است که در جریان است. ناکاسونه می گوید که آنها در ایالات متحده فعالیت نمی کنند و بنابراین این بسیار چالش برانگیز خواهد بود.
او پیش‌بینی می کند که با ادامه بحث تمدید، اف بی آی نشان خواهد داد که از پرسش‌ها برای تعیین قربانیان هک استفاده خواهد شد. این چیزی است که او فکر می‌کند زمانی که دفتر بیشتر و بیشتر درباره آن صحبت کند، عملی خواهد شد.

اوکراین: ژنرال چهار ستاره ارتش پیش‌بینی می کند که فرماندهی سایبری که تیم‌های شکار به جلو را برای تقویت دفاع دیجیتال خود به اوکراین فرستاده است، با ادامه درگیری کیف با روسیه در تابستان به حمایت خود ادامه خواهد داد.
وی با اشاره به اینکه کشورهای ناتو برای تقویت امنیت سایبری خود تلاش می کنند، می گوید: من شرط می بندم که درخواست بزرگ تری برای این کار در زمینه عملیات شکار وجود دارد.

اما در غیر این صورت، ناکاسون پیش بینی می کند که کار فرماندهی سایبری با فرماندهی اروپایی ایالات متحده، تغییر زیادی نخواهد داشت.

روسیه: ناکاسونه می گوید که او با دقت بسیار بالایی دنبال می کند که چگونه هکرهای روسی ممکن است از هوش مصنوعی مولد برای پیشبرد عملیات نفوذ مسکو در آینده استفاده کنند. وی در این باره می گوید: این کشوری است که بهترین تاثیر را بر عملیات انجام می دهد. من آنها را تماشا کرده ام. و بنابراین، آیا ما شاهد تغییری در این نوع کار خواهیم بود؟ آیا آنها شروع به حرکت به سمت ویدیوهای آنلاین بزرگتر یا ضبط های متفاوتی خواهند کرد؟

ناتو: حملات دیجیتالی به اعضای ائتلاف پس از حمله مخرب به آلبانی در سال گذشته که به هکرهای ایرانی نسبت داده شد، در «همان سطح» باقی مانده است.
در آن نمونه، ایالات متحده کمک های زیادی را به آلبانی اعزام کرد، از جمله فرماندهی سایبری که تیمی از اپراتورها را برای بازگرداندن خدمات دولتی به صورت آنلاین مستقر کرد. به گفته ناکاسونه، آنها شاهد افزایش حملات نبودند. (منبع:سایبربان)

نگرانی ۷۵درصد استرالیایی‌ها از توسعه 5G

سه شنبه, ۱۹ ارديبهشت ۱۴۰۲، ۰۵:۰۰ ب.ظ | ۰ نظر

کارشناسان اعلام کردند که 75 درصد از استرالیایی‌ها نگران 5G هستند.
به گزارش سایبربان؛ تالس (Thales) در گزارش تهدید داده‌های «Thales 2023» سالانه خود در مورد آخرین تهدیدات امنیت داده‌ها، روندها و موضوعات نوظهور براساس نظرسنجی از نزدیک به 3000 متخصص فناوری اطلاعات و امنیت در 18 کشور مطرح کرد که از آنجایی که حملات باج‌افزاری همچنان بر سازمان‌های استرالیایی تأثیر می‌گذارد، نگرانی‌های امنیتی رو به رشد بیشتری در مورد شبکه 5G و داده‌های در حال حرکت شناسایی شده است.

 

افزایش حجم و شدت تهدیدات امنیتی

بیش از یک سوم سازمان‌های استرالیایی (36 درصد) در 12 ماه گذشته نقض داده‌ها را تجربه کرده‌اند که باعث شد 45 درصد از متخصصان فناوری اطلاعات مورد بررسی بر این باور باشند که تهدیدات امنیتی از نظر حجم یا شدت در حال افزایش است.

از هر 10 سازمان، 4 مورد (43 درصد) افزایش حملات باج‌افزاری را گزارش کرده‌اند و در حالی که نیمی از آنها (51 درصد) یک طرح رسمی باج‌افزار آماده فعال‌سازی دارند، یک چهارم (24 درصد) اذعان می‌کنند که باج را پرداخت کرده‌اند یا پرداخت خواهند پرداخت.

با گسترش باج‌افزارهای اخاذی مضاعف، تقریباً از هر 5 سازمان استرالیایی یک نفر (17 درصد) معتقد است که افشای اطلاعات حساس از طریق نفوذ به بزرگترین تأثیر حملات باج‌افزاری تبدیل شده است.

 

مزایا و معایب 5G

در حالیکه 5G از نظر بهبود بهره‌وری انقلابی خواهد بود، اما مسئول گسترش چشمگیر چشم انداز تهدید امنیت سایبری است.

3 چهارم (7 5 درصد) متخصصان فناوری اطلاعات استرالیا نگران تهدیدات امنیتی شبکه 5G هستند؛ از هر 10 نفر (75 درصد) 7 نفر بیشتر نگران امنیت داده‌هایی هستند که در سراسر شبکه 5G حرکت می‌کنند.

 

شناسایی داده‌های در حال حرکت به عنوان بزرگ‌ترین هدف حمله سایبری

پاسخ دهندگان دارایی‌های ابری خود را به عنوان هدف اصلی حملات سایبری شناسایی کردند.

تقریباً نیمی (48 درصد) گفتند که برنامه‌های میزبانی شده از ابر و داده‌های در حال حرکت بزرگ‌ترین اهداف هستند؛ مشکلی که از سوی 7 سازمان (72 درصد) با استفاده از بیش از 25 برنامه نرم‌افزار به عنوان سرویس (SaaS) و یکی از 5 مورد (19 درصد) با استفاده از بیش از 100 برنامه تشدید شده است.

در نتیجه، یک سوم سازمان‌های استرالیایی سرمایه‌گذاری را برای تأمین امنیت داده‌ها در حین حمل و نقل (33 درصد) و پس از آن داده‌های در حالت استراحت (28 درصد) و داده‌های در حال استفاده (28 درصد) در اولویت قرار می‌دهند.

 

پرداختن به چالش‌های حاکمیت دیجیتال

حاکمیت دیجیتال به طور فزاینده‌ای در ذهن تیم‌های حریم خصوصی و امنیت داده‌ها قرار می‌گیرد. به طور کلی، این گزارش نشان داد که حاکمیت داده‌ها هم یک چالش کوتاه مدت و هم درازمدت برای شرکت‌های استرالیایی است.

از هر 10 نفر (82 درصد) 8 نفر در مورد اینکه چگونه حریم خصوصی داده و حاکمیت داده بر برنامه‌های استقرار ابری سازمان‌هایشان تأثیر می‌گذارد، ابراز نگرانی کردند و 59 درصد موافق بودند که حفظ حریم خصوصی و انطباق داده‌ها در فضای ابری دشوارتر شده است.

برایان گرانت (Brian Grant)، مدیر امنیت ابر تالس در استرالیا و نیوزیلند گفت : «از آنجایی که 5G برای اجرای بخش‌های تولید، حمل‌ونقل، انرژی و موارد دیگر حیاتی‌تر می‌شود، سونامی داده‌های حساس ایجاد می‌کند. نیمی از سازمان‌های استرالیایی معتقدند که تهدیدات امنیتی در سال گذشته افزایش یافته و استقرار مداوم 5G تنها به تشدید چشم‌انداز تهدید کمک می‌کند.»

گرانت خاطرنشان کرد که سازمان‌ها حق دارند درباره داده‌های خود نگران باشند. رشد و موفقیت یک کسب و کار امروزه به همان اندازه که به حفاظت از جریان نقدی آن متکی است به امنیت خوب داده‌ها، رمزگذاری و ایمن‌سازی داده‌های در حال استفاده بستگی دارد. داده‌های حمل و نقل و در حالت استراحت نه تنها به اثبات آینده در برابر گسترش 5G، بلکه به تشدید مقررات حریم خصوصی و حاکمیت در سراسر جهان نیز کمک خواهد کرد.

مهار ۱۳ میلیون حمله سایبری در مصر

سه شنبه, ۱۹ ارديبهشت ۱۴۰۲، ۰۴:۵۸ ب.ظ | ۰ نظر

شرکت کسپرسکی ادعا کرد که با 13 میلیون حمله سایبری در مصر در 3 ماهه اول سال 2023 مقابله کرده است.
به گزارش سایبربان؛ امین حسبینی (Amin Hasbiny)، رئیس تیم تحقیقاتی و تحلیل جهانی کسپرسکی (Kaspersky) در خاورمیانه، ترکیه و آفریقا، شرکت متخصص در راه‌حل‌ها و خدمات امنیت سایبری، ادعا کرد که شرکت او در طول 3 ماهه اول سال جاری، حدود 13 میلیون حمله الکترونیکی را در مصر رصد و متوقف کرده است.

حسبینی در بیانیه‌ای در حاشیه فعالیت‌های هشتمین مجمع سالانه امنیت سایبری خاورمیانه، ترکیه و آفریقا که از سوی کسپرسکی در شهر آلماتی قزاقستان برگزار می‌شود، گفت : «افزایش تعداد حملاتی که حساب‌های بانکی را هدف قرار می‌دهند و داده‌های مشتریان بخش بانکی در مصر در 3 ماهه اول سال 186 درصد نسبت به مدت مشابه در سال 2022 رصد شده است. افزایش سریع تعداد حملات هک روی سیستم اطلاعاتی در بخش بانکداری خرده‌فروشی در مصر و همچنین افزایش حملات فیشینگ از طریق ایمیل و پیام‌های کوتاه در بحبوحه کاهش حملات پیشرفته مرتبط با وضعیت ژئوپلیتیک دیده می‌شود.»

وی خاطرنشان کرد که حدود 75 هزار کاربر در مصر در 3 ماهه اول سال جاری در معرض حملات فیشینگ قرار گرفتند که تلاشی برای کلاهبرداری در راستای ورود به سایت‌های مخرب و به اشتراک‌گذاری اطلاعات شخصی و بانکی از طریق پیوندهای مخرب در ایمیل است؛ و پیامک‌ها نشان می‌دهد که بین 17 تا 70 درصد از کاربرانی که این ایمیل‌ها و پیام‌های جعلی را دریافت می‌کنند، روی لینک‌ها کلیک می‌کنند و در دام الکترونیکی می‌افتند.

رئیس تیم تحقیق و تحلیل جهانی کسپرسکی درخاورمیانه، ترکیه و آفریقا فاش کرد که نهادهای دولتی مصر سال گذشته در معرض حملات تیم‌های هکری بین‌المللی با هدف جاسوسی و سرقت اطلاعات مشتریان قرار گرفتند.

حسبینی توضیح داد که این حملات به‌وسیله تیم‌های جهانی «AllRig» و «BlogX» هدایت می‌شوند که در حملات سایبری پیشرفته تخصص دارند و ترجیح می‌دهند نام این مؤسسات یا ماهیت کارشان به دلیل برای حساسیت موضوع فاش نشود.

او با اشاره به اینکه با این حملات با همکاری نهادهای مصری مقابله شده، تأکید کرد که کسپرسکی به نظارت و دفع حملات امنیت اطلاعاتی که نهادهای محلی در مصر را هدف قرار می‌دهند، به ویژه جاسوسی و تلاش برای هدف قرار دادن و خرابکاری نهادهای زیرساختی حیاتی به ویژه نهادهای دولتی توجه دارد.

دو رهبر ارشد امنیت سایبری فدرال روز جمعه، باج‌افزار را به عنوان یک تهدید دائمی توصیف کردند، اما ابراز خوش‌بینی کردند که اقدامات در حال انجام و اخیراً آغاز شده، به مبارزه با همه‌گیری دیجیتال کمک خواهد کرد.
ژنرال پل ناکاسونه، فرمانده فرماندهی سایبری ایالات متحده و رئیس آژانس امنیت ملی ایالات متحده آمریکا (NSA)، پس از سخنرانی اصلی خود در اجلاس سران دانشگاه وندربیلت در مورد درگیری های مدرن و تهدیدات نوظهور، به خبرنگاران گفت:

من مطمئن نیستم که این تهدیدات چه زمانی به اوج خواهند رسید. اما مطمئناً از بین نخواهد رفت.

جن ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیرساخت آمریکا (CISA) نیز گزارش‌های تقریباً روزانه حملات باج‌افزار را تأیید کرد، اما می گوید: به سختی می‌توان گفت که تعداد حوادث در حال افزایش یا کاهش است، زیرا هنوز هیچ گزارش دقیقی برای ارائه یک تصویر بزرگ به دولت وجود ندارد.

او پس از گفتگوی دوستانه خود در کنفرانس به خبرنگاران گفت که هنوز یک نهاد معتبر در مورد میزان افزایش یا کاهش باج‌افزار وجود ندارد و این موضوع خیلی مبهم است و خود بسیار حکایت ها را به دنبال دارد.
پس از حملات اخاذی صورت گرفته به خطوط لوله کولونیال (Colonial Pipeline) در گذشته و دیگر نهادهای خصوصی بزرگ در سال 2021، کاخ سفید و کنگره برای رسیدگی به باج افزارها اقداماتی را انجام داده اند تا تهدید آنلاین را به یک مسئله مورد بحث عادی در خانواده های آمریکایی تبدیل کند.
مهم‌تر از همه، جو بایدن، رئیس‌جمهور ایالات متحده سال گذشته قانون دو حزبی را امضا کرد که مالکان زیرساخت‌های حیاتی را موظف می‌کرد تا در صورت هک شدن سازمانشان یا پرداخت باج‌افزار، به دولت اطلاع دهند. همچنین به بخش سایبری وزارت امنیت داخلی مأموریت داد تا یک سازمان گزارش رویداد ایجاد کند. از جمله ابتکارات دیگر آن، می توان به نیروی اقدام مشترک علیه باج افزار (Joint Ransomware Task Force) که توسط آژانس امنیت سایبری و امنیت زیرساخت آمریکا و اف بی آی اداره می شود، اشاره نمود.
با این حال، حملات همچنان ادامه دارد و ظاهراً علیه سازمان‌هایی مانند مدارس محلی، سازمان‌های پلیسی و شبکه‌های بیمارستانی که فاقد منابع لازم برای محافظت از خود در برابر گروه های جنایتکار هستند، افزایش یافته است.

 

 

  • "سوال مهم تر"
    ایسترلی در سخنرانی خود در کنفرانس اوایل روز، می گوید که آژانس او به دنبال اجرای برنامه هایی در چند سال آینده است که تفاوت بزرگی برای درک واقعی اکوسیستم باج افزار ایجاد خواهد کرد، مانند نیروی کارگروه مشترک، نیروی دفاع مشترک سایبری (JCDC) و اخیرا نیز برنامه آزمایشی هشدار آسیب‌پذیری باج‌افزار.
    او به خبرنگاران می گوید که همچنین احساس می کند که رویدادهای سال 2021 باعث افزایش آگاهی در مورد باج افزار و دفاع سایبری به طور کلی شده است.
    او می گوید: من این سوال را کنار می گذارم که آیا این آمار رو به افزایش یا کاهش است. سوال مهم‌تر این است که آیا ما توانسته‌ایم تفاوتی در افزایش آگاهی ایجاد کنیم و همچنین اقداماتی را انجام دهیم که به ما امکان می‌دهد هم شیوع را کاهش دهیم که همان چیزی است که پشت پایلوت هشدار آسیب‌پذیری باج‌افزار ما وجود دارد، و اما مهم‌تر از آن، تاثیر آن را نیز توانسته ایم کاهش دهیم یا خیر.

ناکاسون که در سال 2021 برای مبارزه با تکثیر باج‌افزارها موجی را در هر دو آژانس خود رآغاز کرد، می گوید که لزوما عوامل مخرب را مشاهده نکرده است که از تکنیک‌های جدید برای رسیدن به اهداف خود استفاده می‌کنند.
او خاطرنشان می کند که دو سازمانی که او سرپرستی می کند در حال همکاری بسیار بسیار نزدیک با اف بی آی،  آژانس امنیت سایبری و امنیت زیرساخت و همچنین سایر نهادهای فدرال و شرکای بین المللی برای مقابله با آن هستند.
این ژنرال ارتش، روابط عمیق بین آژانس ایسترلی و نیروی ماموریت ملی سایبری تحت فرماندهی او (CNMF) را به عنوان یک قطعه بزرگ برای دنبال کردن باج افزار در آینده، برجسته می کند. با این حال، به گفته ناکاسون، معضل دیجیتال به این زودی ناپدید نخواهد شد.
در همین حال، ایسترلی می گوید که آژانس او همچنان در مسیر اجرای قانون نهایی در مورد سازمان گزارش رویداد در سپتامبر 2025 است. او به خبرنگاران می گوید:

این موضوع برای من کافی نیست، اما این چیزی است که در اساسنامه تعیین شده است. سپس ما ایده بسیار بهتری در مورد نحوه پایه گذاری بسیاری از این موارد خواهیم داشت و واقعاً می توانیم بگوییم، در آن مقطع زمانی، تأثیر و شیوع باج افزار به طور آماری کاهش یافته است. (منبع:  سایبربان)

احتمال تعطیلی شعبه بایننسِ در آمریکا

دوشنبه, ۱۸ ارديبهشت ۱۴۰۲، ۰۵:۳۶ ب.ظ | ۰ نظر

سمیه مهدوی‌پیام – چانگ پنگ ژائو (معروف به CZ)، مدیرعامل بایننس در اولین گفت‌وگو پس از سقوط صرافی FTX در نوامبر، همچنان تاکید داشت بایننس یک صرافی تمیز است که با معاملات مطابقت دارد اما معاملات آتی (futures trading) انجام نمی‌دهد یا مانند یک فروشگاه معاملاتی عمل نمی‌کند.

حملات سایبری چین به دوست و دشمن

دوشنبه, ۱۸ ارديبهشت ۱۴۰۲، ۰۵:۳۴ ب.ظ | ۰ نظر

مرکز ارتباطات راهبردی اقیانوس آرام هند  (IPCSC)گزارش داد که چین، حملات سایبری خود را علیه متحدان و رقبا، سازماندهی کرده که بر مبنای آن، کشورهای آسیب‌دیده شامل روسیه، ایالات متحده و ایران هستند و البته آخرین هدف آن، کره‌جنوبی است.

به گزارش عصر ارتباط نگرانی‌های فزاینده‌ای درباره اینکه کدام کشورها در آینده توسط چین هدف قرار خواهند گرفت، وجود دارد. در همین رابطه، یک گروه هکری چینی به 12 موسسه دانشگاهی کره‌ای، حمله سایبری کرده است.

بر اساس گزارش آژانس امنیت اینترنتی کره (KISA)، موسسات موردحمله شامل موسسه تحقیقاتی کره برای سیاست‌های ساخت‌وساز، برخی از بخش‌های دانشگاه Jeju و دانشگاه ملی آموزش کره بوده‌اند.

گزارش مرکز ارتباطات راهبردی اقیانوس آرام هند، نشان می‌دهد در یک اتاق فکر اختصاصی مستقر در هند، سایت‌های آسیب‌دیده به مدت چهار روز غیرقابل دسترسی باقی ماندند.

بر اساس این گزارش، هکرها، شبکه‌های کامپیوتری 70 موسسه آموزشی کره‌ای را از 21 تا 24 ژانویه به خطر انداخته‌اند. این گروه هکری تهدید کرده 54 گیگابایت اطلاعات سرقت‌شده از دولت و نهادهای عمومی کره را افشا خواهد کرد.

مرکز ارتباطات راهبردی اقیانوس آرام هند، به نقل از یک گزارش واشنگتن‌پست در مارس 2022 ادعا کرد همان گروه مرتبط با دولت چین، حداقل به شش دولت در 13 ماه گذشته حمله کرده و داده‌های عظیمی را جمع‌آوری کرده است.

همچنین بر اساس گزارش شرکت امنیت سایبری اسرائیلی-آمریکایی Check Point، هکرهای چینی، 23 مارس 2022، ایمیل‌هایی حاوی لینک‌های بدافزار را برای دانشمندان و مهندسان چندین موسسه تحقیقاتی و توسعه نظامی روسیه ارسال کردند تا ظاهرا داده‌های مهمی را درباره سیستم‌های امنیتی این کشور کسب کنند.

بر اساس گزارش IPCSC نیز چین این حملات را سازماندهی کرد؛ همان چینی که از انتقاد از مسکو خودداری کرده و پروپاگاندای روسیه علیه ایالات متحده و ناتو را به عنوان متجاوزان در درگیری با اوکراین تکرار کرده است.

موسسه چک‌پوینت نیز در گزارش خود آورده است: این حمله چین به روسیه، از ژوئیه 2021 موسساتی را هدف قرار داد که در زمینه ارتباطات ماهواره ای هوابرد، رادار و جنگ الکترونیک تحقیق می‌کنند.

این موسسات متعلق به شرکت Rostec یک مجموعه نظامی روسیه است که یکی از بزرگ‌ترین و قدرتمندترین شرکت‌های دفاعی روسیه به شمار می‌رود.

طبق گزارش مرکز ارتباطات راهبردی اقیانوس آرام هند (IPCSC)، تحقیقات گوگل و شرکت امنیت سایبری Proofpoint ادعا کرده‌اند که هکرهای چینی به جنگ کسانی پیوسته‌اند که روسیه را بر سر درگیری اوکراین و بحران پناهجویان مرتبط با آن هدف قرار می‌دهند.

انتقاد ۲ شرکت آلمانی از قانون داده اتحادیه اروپا

دوشنبه, ۱۸ ارديبهشت ۱۴۰۲، ۰۵:۲۸ ب.ظ | ۰ نظر

دو شرکت آلمانی به شرکت های فناوری آمریکایی پیوسته و از پیش نویس قانون اتحادیه اروپا درباره شیوه استفاده از داده های مربوط به گجت های هوشمند انتقاد کرده اند.
به گزارش خبرگزاری مهر به نقل از رویترز، کشورهای اروپایی و قانونگذاران اتحادیه اروپا مشغول بررسی جزئیات «قانون داده»(Data Act) هستند که سال گذشته از سوی کمیسیون اتحادیه اروپا پیشنهاد شد و ممکن است امسال تصویب شود.

پیش نویس قانون مذکور داده های شرکتی و مصرف کنندگان اتحادیه اروپا را در بر می گیرد و بخشی از مجموعه قوانینی است که با هدف کنترل قدرت شرکت های بزرگ فناوری آمریکا ارائه شده و به این منطقه کمک می کند به اهداف خود در حوزه دیجیتال و حفظ محیط زیست دست یابد.

شرکت های آمریکایی گله دارند که لایحه مذکور بسیار محدود کننده است اما همتایان آلمانی شان مدعی هستند که چنین قانونی شرکت ها را ملزم به اشتراک گذاری داده ها با طرف های ثالث برای ارائه خدمات پس از فروش یا سایر خدمات مبتنی بر داده می کند و در نتیجه می تواند اسرار تجاری را به خطر بیندازد.

۲ شرکت آلمانی در نامه ای مشترک به اورسولا فون در لاین رییس کمیسیون اروپا، مارگارت وستاگر کمیسر رقابت منطقه و تیری برتون کمیسیونر اروپا در امور بازارهای داخلی، نوشته اند: چنین قانونی با الزام به اشتراک گذاری اطلاعات (از جمله داده های مربوط به دانش خاص و طراحی) قدرت رقابت در اروپا را تضعیف می کند.

در بخش دیگری از نامه آنها آمده است: این امر به طور موثر به معنای آن است که شرکت های اتحادیه اروپا باید داده هایشان را برای رقبای طرف ثالث فاش کنند، به خصوص عده ای که در اروپا فعالیت نمی کنند و در نتیجه اقدامات حمایتی «قانون داده» درباره آنها تاثیری نخواهد داشت.

نامه مذکور خواستار آن شده تا مقررات طوری تنظیم شوند که شرکت ها بتوانند درخواست اشتراک گذاری اطلاعات مربوط به اسرار تجاری، امنیت سایبری، سلامت و ایمنی را که در خطر هستند، رد کنند. همچنین گستره دستگاه هایی که در این قانون گنجانده می شوند نیز نباید وسیع باشد.

این شرکت ها در خصوص قوانینی که به مشتریان اجازه می دهد تامین کننده سرویس های ابری خود را تغییر دهند، معتقدند که قانون باید به مشتریان و تهیه کنندگان سرویس اجازه دهد با آزادی کامل روی قراردادهایی توافق کنند که برای هر دو طرف تجاری کارآمد باشد.

پایگاه فناوری تک‌کرانچ نوشت: مجلس ملی فرانسه پیش‌نویس طرحی را تصویب کرده که فعالیت شاخ‌های مجازی را ساماندهی می‌کند. این قانون هنوز نهایی نشده اما احتمال تصویب نهایی آن در مجلس سنا در هفته‌های آینده بسیار جدی است.
به گزارش همشهری آنلاین، براساس این طرح، اینفلوئنسرهای فرانسوی موظف می‌شوند تا میان تصاویر یا ویدئوهای تبلیغاتی خود از برچسب‌هایی استفاده کنند که نشان بدهد آن پست تبلیغاتی است و استفاده از عبارت تبلیغ در توضیح پست‌ها کافی نیست. 

اینفلوئنسرها درصورت استفاده از فیلترِ زیبایی شبکه‌های اجتماعی یا فتوشاپ در تصاویرشان باید این موضوع را اعلام کنند؛ به‌طوری‌که در خود عکس یا ویدیو قابل مشاهده باشد. پارلمان فرانسه با این کار می‌خواهد از کاربران شبکه‌های اجتماعی در برابر مشکلات روانی مانند افسردگی محافظت کند. 

همچنین این لایحه تبلیغ جراحی زیبایی، محصولات و خدمات مالی (از جمله ارزهای دیجیتال) و محصولات تقلبی را برای اینفلوئنسرها ممنوع کرده است.

اینفلوئنسرها حتی درصورت تبلیغ سایت‌های شرط‌بندی باید یک بنر اطلاعاتی در مورد خطرات آن در تبلیغ اضافه کنند.

 هرکسی هم که این قوانین را رعایت نکند با جریمه‌هایی مانند بسته‌شدن حساب کاربری و ۶ ماه زندان مواجه شده و تا ۳۰۰ هزار یورو هم جریمه می‌شود.

بایدو هم گوشی‌ساز شد

دوشنبه, ۱۸ ارديبهشت ۱۴۰۲، ۰۵:۰۹ ب.ظ | ۰ نظر

غول اینترنتی چینی بایدو با عرضه یک تلفن هوشمند تحت برند خود، به این بازار ورود می‌کند.
به گزارش ایسنا، واحد شیائودوی این شرکت که مشابه واحد الکسای آمازون است، نخستین محصول تلفن هوشمند خود را رونمایی خواهد کرد. شیائودو، بلندگوهای هوشمندی طراحی کرده است که با نرم افزار سیستم عامل DuerOS بایدو کار می‌کند که این شرکت آن را به عنوان یک سیستم هوش مصنوعی مرسوم توصیف کرده است.

بایدو در میان نخستین شرکت‌های چینی بود که گزینه بومی برای ابزار چت جی‌پی‌تی شرکت OpenAI معرفی کرد و ابزار خود به نام Ernie Bot را در مارس معرفی کرد. این شرکت اعلام کرده است قصد دارد ابزارهای هوش مصنوعی را در همه خطوط تجاری خود شامل جست‌وجوی آنلاین، رانندگی خودران و گجت‌های هوشمند تعبیه کند.

بر اساس گزارش بلومبرگ، معرفی یک گوشی تحت برند بایدو، به منزله ورود یک شرکت جدید چینی در بازار پربازیگر تلفن هوشمند در چند سال اخیر محسوب می‌شود و نخستین شرکت در میان غولهای اینترنتی چین است که چنین کاری را انجام می‌دهد.

مراقب سوالاتی که از ChatGPT می‌کنید باشید

دوشنبه, ۱۸ ارديبهشت ۱۴۰۲، ۰۵:۰۲ ب.ظ | ۰ نظر

غزال زیاری- خبرآنلاین - به‌صورت پیش‌فرض، OpenAI از پیغام‌هایی که شما برای ChatGPT ارسال می‌کنید، برای آموزش و پیشرفت مدل‌هایش بهره می‌برد ولی کاربران این امکان را دارند که با بهره‌گیری از فعال کردن "حالت ناشناس" در این پلتفرم، مانع از انجام این کار شوند.

با عرصه و ارائه فناوری‌های جدید در دنیا، مدت زمانی طول می‌کشد تا مسائل متعددی از جمله حریم خصوصی و امنیتی آن تعریف و تعیین شود و حالا این موضوع درمورد ChatGPT نیز صادق است. این مدل زبانی مولد متن که با بهره‌گیری از هوش مصنوعی کار می‌کند، در نوع خود بی‌نظیر و خیره‌کننده است؛ اما حالا تردیدهایی در مورد نحوه جمع‌آوری و پردازش داده‌های ما توسط این ابزارها ایجاد شده است.

توسعه‌دهندگان ChatGPT، این مدل زبانی بزرگ را بر پایه حجم وسیعی از متون در دسترس و موجود در اینترنت تعلیم داده‌اند. ولی این ربات چت‌بات، علاوه بر این داده‌ها، از گفتگوهایی که با شما دارد نیز برای یادگیری استفاده می‌کند. پس اگر می‌خواهید از حریم خصوصی‌تان محافظت کنید، باید بدانید که شرایط و گزینه‌های پیش رو چیست؛ تا چه اندازه باید به ChatGPT اطلاعات بدهید و چه بایدها و نبایدهایی در این مسیر وجود دارد.

در این مقاله سه نکته مشخص را به شما یادآوری می‌کنیم:

فعال کردن حالت ناشناس در ChatGPT

به‌صورت پیش‌فرض، OpenAI از پیغام‌هایی که شما برای ChatGPT ارسال می‌کنید، برای آموزش و پیشرفت مدل‌هایش بهره می‌برد ولی کاربران این امکان را دارند که با بهره‌گیری از فعال کردن "حالت ناشناس" در این پلتفرم، مانع از انجام این کار شوند.

برای فعال کردن این حالت، ChatGPT را در مرورگر خود باز کنید، بر روی نام کاربری خود در سمت چپ کلیک کرده و وارد بخش تنظیمات شوید. در کنار گزینه Data Controls، روی Show کلیک کرده و گزینه Chat History & Training را خاموش کنید.

از حالا به بعد، هر زمانی که برگه مرورگر خود را ببندید، گزارش گفتگوهای شما با ChatGPT از حسابتان ناپدید می‌شود؛ البته این بدان معنا نیست که این گفتگوها کاملا از بین بروند ( چرا که OpenAI، تاریخچه گفتگوها را برای ۳۰ روز نگاه می‌دارد تا برای "نظارت بر سوءاستفاده‌های احتمالی" آنها را در اختیار داشته باشد و بعد از سی روز این گفتگوها پاک خواهند شد.)

در منوی Data Controls، یک گزینه به نام Export Data نیز در اختیار شماست. استفاده از این گزینه تاثیری بر نحوه استفاده OpenAI از اطلاعات شما و یا پاک کردن اطلاعاتی که تا حالا جمع‌آوری کرده ندارد؛ بلکه به شما در مورد آنچه OpenAI از شما می‌داند، ایده بهتری می‌دهد. این ممکن است شامل گفتگوهایی که پاک نکرده‌اید و یا بازخوردهایی که به سوالات ChatGPT داده‌اید، باشد.

اگر موضوعی است که شما با آن احساس راحتی نمی‌کنید، می‌توانید به صورت دستی، تاریخچه گفتگوها را پاک کنید. به صفحه ChatGPT خود برگردید، بر روی نام کاربری‌تان کلیک کرده و سپس وارد بخش Clear Conversations بشوید تا به یک باره کل گفتگوها را پاک کنید. یا می‌توانید روی علامت سطل زباله در کنار هر گفتگوی خاص کلیک کنید تا آن گفتگو را به کلی پاک کنید.

ChatGPT قادر نخواهد بود تا از متن گفتگوهای پاک شده، برای یادگیری استفاده کند ولی بسته به مدت زمانی که سابقه گفتگوهای شما موجود باشد، ربات چت ممکن است قبل از آنکه شما تصمیم به پاک کردن‌شان بگیرید، از آنها استفاده کند. پس برای جلوگیری از این اتفاق، یا درصورتی که فردی به کامپیوتر شما دسترسی پیدا کرده و بخواهد تا به گفتگوهای شما با ChatGPT نگاهی بیندازد، این فکر خوبی است که هر چند وقت یک بار، تاریخچه گفتگوهایتان را سر و سامان بدهید.

در نهایت، اگر دیگر نخواستید تا با ChatGPT صحبت کنید، همیشه این امکان برایتان فراهم است که حساب کاربری‌تان را پاک کنید که این کار را می‌توانید از پنل Data controls انجام دهید.

مراقب صحبت‌هایتان با ChatGPT باشید

ChatGPT ممکن است به‌صورت طبیعی و روزمره پاسخگوی شما باشد؛ ولی هرگز به هوش مصنوعی مثل یک دوست یا مشاور اعتماد نکنید. اسناد پشتیبانی رسمی این پلتفرم به کاربران توصیه می‌کند که هیچ اطلاعات شخصی را با چت‌بات به اشتراک نگذارند. چون مشخص کردن اینکه در آینده به چه ترتیب از اطلاعات شما استفاده شده و مورد تجزیه و تحلیل قرار خواهد گرفت، سخت است.

خط مشی رازداری و حریم خصوصی چت بات، گفته که OpenAI داده‌هایی مثل گفتگوها و ویژگی‌هایی که با آن سروکار دارید را ثبت می‌کند و ممکن است اطلاعات جمع‌آوری شده از جمله آمار کاربران را با اشخاص ثالث به اشتراک بگذارد. مثلا کمپانی OpenAI، در واکنش به درخواست‌های قانونی مجریان قانون، ممکن است اطلاعات شخصی کاربران مثل آدرس ایمیل آنها و یا داده‌های موقعیت مکانی‌شان را در اختیار شرکت‌های وابسته قرار دهند. ولی حتی اطلاعات ارائه شده در این رابطه نیز مبهم است و مشخص نیست که شرکت‌های وابسته‌ای که OpenAI ممکن است اطلاعات‌مان در اختیارشان قرار بگیرد، چه شرکت‌هایی هستند؟

این یک خط مشی رازداری استاندارد است و قوانین ChatGPT هم مشابه با اکثر پلتفرم‌های آنلاین است: در نتیجه هر چه اطلاعات کمتری به اشتراک بگذارید، بهتر خواهد بود. این ماجرا نه تنها شما را در برابر اقدامات مشکوک حریم خصوصی که OpenAI ممکن است در آینده پیش بیاید محافظت می‌کند، بلکه از شما در مقابل هرگونه باگ و هک شدن‌های احتمالی نیز مراقبت خواهد کرد. به عنوان مثال، قطعی اخیر ChatGPT منجر به این شد که افراد تیتر تاریخچه گفتگوهای کاربران فعال دیگر را ببینند.

اگر هر گونه اطلاعات عمومی از شما در اینترنت وجود داشته باشد، ChatGPT قادر خواهد بود تا به دیگران کاربران، درباره شما اطلاعاتی بدهد و اگر این موضوع برایتان هنوز ترسناک به نظر نمی‌رسد، به این فکر کنید که اگر روزی اشتباهاتی رخ دهد، چه خواهد شد. اگر قصد دارید تا موارد نادرست را اصلاح کرده یا تنها مانع از آن شوید که ChatGPT اطلاعاتی از شما داشته باشد، می‌توانید یک فرم خاص را پر کرده و یا از طریق ایمیل dsar@openai.com با کمپانی OpenAI تماس بگیرید و یا در سایت این پلتفرم اطلاعات بیشتری کسب کنید.

درمورد برنامه‌های شخص ثالث ChatGPT محتاط باشید

تا اینجا هر آنچه باید در هنگام استفاده از پلتفرم ChatGPT بدانید را گفتیم؛ اما این تنها جایی نیست که با ربات‌های چت بات مواجه می‌شوید. کمپانی OpenAI به اپلیکیشن‌ها و پلاگ-این‌های شخص ثالث نیز اجازه می‌دهد تا برپایه این پلتفرم کار کنند و در صورت استفاده از هریک از آنها، باید در مورد مجموعه تازه‌ای از مسائل حریم خصوصی و امنیتی نیز فکر کنید.

وقتی بحث استفاده از یک اپلیکیشن یا افزونه مرورگرهایی که برپایه ChatGPT کار می‌کنند، مطرح می‌شود، باید دقیقا همان دقتی که در استفاده از هر ابزار شخص ثالث دیگر اعمال می‌کنید را مدنظر قرار دهید: اجازه‌هایی که از شما گرفته می‌شود را بررسی کنید؛ Privacy Policy (خط مشی رازداری) و شرایط و ضوابط را مطالعه کنید و درباره هزینه‌های مرتبط، چه هزینه اشتراک باشد و چه پرداخت‌های درون برنامه‌ای مطلع شوید.

به محض آنکه چیزی مثل ChatGPT به محبوبیت برسد، کلاهبرداران و هکرها نیز به سراغش می‌آیند. از همین رو توصیه می‌شود که همیشه درباره پیشینه توسعه دهنده پشت هر ابزار ChatGPT که از آن استفاده می‌کنید، اطلاعاتی کسب کنید.

باید این را بدانید که قابل اعتمادترین برنامه‌ها ، تنظیمات حریم خصوصی و امنیتی خاص خود را دارند که می‌توانید شخصا آنها را تنظیم کنید.

پیشگیری از آلزایمر با استفاده از اینترنت

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۷:۰۲ ب.ظ | ۰ نظر

یافته‌های جدید پژوهشگران نشان می‌دهد، استفاده منظم از اینترنت برای مدت طولانی در کهنسالی، برای تقویت قوای ذهنی سالمندان مفید است.
به گزارش خبرگزاری صدا وسیما، محققان به افراد کهنسال توصیه می‌کنند، بیشتر از سایر فناوری‌های دیجیتال استفاده کرده و در اینترنت وبگردی کنند.

طی مطالعات جدید محققان دانشگاه نیویورک به سرپرستی دکتر گاوون چو، مشخص شد: استفاده از اینترنت برای تقویت قوای ذهنی سالمندان مفید است.

این تیم مطالعاتی از داده‌های ۱۸ هزار و ۱۵۴ فرد کهنسال فاقد زوال عقل بین سنین ۵۰ تا ۶۴ سال و ۹ ماه استفاده کردند. اطلاعات این افراد طی یک مطالعه مرتبط با سلامت و بازنشستگی ثبت شده بود تا ارتباط بین افزایش سن با زوال عقل و استفاده از اینترنت مورد بررسی قرار گیرد.

طی مطالعات فوق، محققان دریافتند: استفاده منظم از اینترنت در مقایسه با استفاده غیرمنظم از این فناوری با کاهش تقریباً پنجاه درصدی خطر زوال عقل مرتبط است.

این قانون برای همه افراد کهنسال صادق بوده و هیچ تفاوتی در میزان خطر ابتلا و نرخ کاهش آن پس از استفاده منظم از اینترنت بین کاربران معمولی و غیرمعمولی از نظر میزان تحصیلات، نژاد، قومیت یا جنسیت مشاهده نشد. تخمین‌ها برای میزان ساعات استفاده روزانه از اینترنت نشان می‌دهد که رابطه U شکل بین استفاده از این فناوری با بروز زوال عقل وجود دارد. بر این اساس کمترین خطر در میان بزرگسالانی مشاهده شد که حدود ۲ ساعت در شبانه روز از اینترنت استفاده می‌کردند.

محققان این تیم مطالعاتی در رابطه با یافته‌های فوق می‌گویند: کاربران دائمی اینترنت برای دوره‌های طولانی در اواخر بزرگسالی با اختلال شناختی تاخیری همراه بودند، اگرچه شواهد بیشتری در مورد اثرات نامطلوب احتمالی استفاده بیش از حد از دستگاه‌های دیجیتال مورد نیاز است.

شرح کامل این مطالعه در آخرین شماره مجله تخصصی انجمن سالمندان آمریکا (Journal of the American Geriatrics Society) به صورت آنلاین منتشر شده است.

افزایش همکاری سایبری کره جنوبی و آمریکا

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۶:۱۴ ب.ظ | ۰ نظر

همزمان با افزایش آزمایش های موشکی کره شمالی، وزارت دفاع کره جنوبی روز یکشنبه اعلام کرد این کشور و ایالات متحده در هفته جاری مذاکراتی در خصوص سایبری در سئول برگزار خواهند کرد.

به گزارش ایرنا به نقل از یونهاپ، این نشست، هشتمین جلسه ای به شمار می آید که در دو روز آینده در کارگروه همکاری سایبری در سئول برگزار خواهد شد.

در چهار سال گذشته به سبب شیوع ویروس کرونا برگزاری نشست همکاری سایبری رو در رو به حال تعلیق درآمده بود.

این اولین جلسه ای است که بصورت رو در رو در چهار سال گذشته پس شیوع همه گیری کووید-۱۹ برگزار می شود.

بنابر اعلام وزارت دفاع کره جنوبی، در این دیدار دو طرف قصد دارند سیاست های امنیت سایبری، روند فعلی تهدیدات سایبری و تلاش های مشترک برای تقویت آموزش امنیت سایبری را مورد بحث قرار دهند.

وزارت دفاع کره جنوبی همچنین در بیانیه ای اعلام کرد: دو طرف انتظار دارند مکانیسم همکاری امنیت سایبری در این دیدار مورد بحث و بررسی قرار گیرد.

در اواخر سال جاری، مقام های امنیتی کره جنوبی پیونگ یانگ را متهم کردند که با سازماندهی گروهی از کارشناسان ، یک ارتش سایبری تشکیل داده و از آن در فضای مجازی استفاده می کند.

مقام های سئول می گویند ۳۲ هزار رایانه و سرورهای سه شبکه اصلی تلویزیونی و سه بانک در کره جنوبی در پی آلودگی به یک بدافزار در ۴ فروردین ماه سال جاری گذشته از کار افتادند و کارهای اطلاع رسانی و بانکی مختل شد ، اما این که این بدافزار را چه کسی به جان کامپیوترهای کره جنوبی انداخته بود مسئله ای است که نیاز به هفته ها و حتی ماه ها بررسی دارد.

با این همه کره جنوبی تمامی شش حمله سایبری به این کشور را از سال ۲۰۰۹ و از جمله حمله اخیر را به کره شمالی نسبت می دهد.
کره جنوبی حتی یک مرکز فرماندهی امنیت سایبری در سئول تشکیل داده تا جلوی حمله هکرهای کره شمالی را بگیرد.

طی چند سال گذشته کره شمالی همگام با توفیق در فناوری هسته ای و موشکی، در بخش فناوری اطلاعات هم پیشرفت هایی داشته است. از جمله این پیشرفت ها می توان به ساخت سیستم عاملی به نام 'ستاره سرخ' اشاره کرد که پیونگ یانگ برای استفاده در رایانه های کره شمالی طراحی کرده است.

آموزش چت جی‌پی‌تی با داده کاربران متوقف شد

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۶:۱۳ ب.ظ | ۰ نظر

مدیر ارشد اجرایی سازنده چت جی پی تی اعلام کرد از این پس از داده های API مشتریان برای آموزش های مدل هوش مصنوعی زبانی خود استفاده نمی کند. زیرا مشتریان از این روند ناراضی بوده اند.

به گزارش خبرگزاری مهر به نقل از سی ان بی سی، به گفته سم آلتمن مدیر ارشد اجرایی «اوپن آ.آی»، این شرکت برای مدتی مدل های زبانی خود مانند چت جی پی تی را با داده های خریداری شده کاربران آموزش می داد.

او در مصاحبه ای گفت: مشتریان به وضوح نمی خواهند سیستم های ما با داده هایشان آموزش یابد، بنابراین ما برنامه خود را تغییر دادیم و این کار را انجام نمی دهیم.

در همین راستا شرایط خدمات «اوپن آ. آی» در یکم مارس بی سروصدا تغییر کرد. آلتمن در این باره افزود: ما براساس هیچ داده API سیستم هایمان را آموزش نمی دهیم. اکنون مدتی است که این کار را انجام نمی دهیم.

APIها درحقیقت چهارچوب هایی هستند که به مشتریان اجازه می دهند به طور مستقیم به نرم افزار اوپن آ. آی متصل شوند.

مشتریان تجاری این شرکت که مایکروسافت، سلز فورس و اسنپ چت را شامل می شوند، احتمالا از قابلیت هایAPI بهره می برند.

اما سیاست جدید حریم خصوصی و حفاظت از داده اوپن آ. آی فقط شامل مشتریانی می شود که از سرویس هایAPI استفاده می کنند. در شرایط استفاده آپدیت شده شرکت آمده است: ما احتمالا از محتوای سرویس های دیگر به غیر از API کاربران استفاده می کنیم.

این امر ممکن است شامل متنی باشد که کارمندان در چت بات چت جی پی تی وارد می کنند. آمازون اخیرا به کارمندانش هشدار داده داده های محرمانه را در چت جی پی تی وارد نکنند زیرا ممکن است داده ها در پاسخ های این چت بات ظاهر شود.

تغییر مذکور در حالی اجرا می شود که صنایع با وجوه مختلف مدل های زبانی بزرگ جایگزین محتوای تولید انسان روبرو می شوند.

از سوی دیگر مدیران ارشد اجرایی شرکت ها نگران تاثیر چت جی پی تی و برنامه های مشابه بر مالکیت معنوی شان هستند.

خنثی‌سازی حملات سایبری گسترده به امارات

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۶:۰۹ ب.ظ | ۰ نظر

یک روز بعد از اعلام هشدار به نهادهای دولتی، شورای امنیت سایبری امارات از خنثی‌سازی حملات هکری به سامانه های ملی دیجیتال و حوزه های راهبردی کشور خبر داد.
به گزارش آنا، شورای امنیت سایبری امارات، بعدازظهر امروز یکشنبه، اعلام کرد که این کشور در روز‌های اخیر با حملات سایبری مواجه بوده است.

بنابر گزارش خبرگزاری رسمی امارات (وام)، هکر‌ها در تلاش بوده‌اند تا زیرساخت‌ها، سامانه‌های ملی دیجیتال و حوزه‌های راهبردی امارات را هدف قرار دهند.

در این بیانیه شورای امنیت سایبری امارات آمده است که این نهاد توانسته با حملات هکر‌هایی که از آن‌ها با عنوان «سازمان‌های تروریستی سایبری» یادشده، مقابله و آن‌ها را خنثی کند.

شورای امنیت سایبری امارات، روز گذشته، در پیامی به تمام نهاد‌های این کشور درباره حمله احتمالی سایبری هشدار داده بود.

در بیانیه روز گذشته این نهاد اماراتی آمده بود: «شورای امنیت سایبری دولت امارات از همه نهاد‌های دولتی و خصوصی این کشور می‌خواهد که احتیاط کرده و مراقب هرگونه حمله سایبری علیه زیرساخت‌ها و دارایی‌های ملی دیجیتال باشند».

همشهری‌آنلاین نوشت: استارت‌آپ فضایی اسپیس‌ایکس امروز در توییتر خود به تعداد کاربران کنونی اینترنت ماهواره استارلینک خود اشاره کرد.

این شرکت در توییتر اعلام کرد که اینترنت ماهواره‌ای استارلینک توانسته در سرتاسر جهان بیش از ۱.۵ میلیون کاربر به دست آورد.

استارلینک که زیرمجموعه استارت‌آپ فضایی اسپیس‌ایکس ایلان ماسک محسوب می‌شود، هم‌اکنون به‌طور رسمی در آمریکای شمالی، اروپا، استرالیا، نیوزیلند، ژاپن، فیلیپین و بخش‌های زیادی از آمریکای جنوبی فعالیت می‌کند.

اعتصاب نویسندگان هالیوود: هوش مصنوعی سارق است

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۴:۲۴ ب.ظ | ۰ نظر

انجمن نویسندگان آمریکا به دنبال محدود کردن استفاده از هوش مصنوعی برای نوشتن فیلمنامه‌ها است و در این راستا نویسندگان دست به اعتصاب زدند.
به گزارش فارس به نقل از سی‌ان‌ان، اختلاف بر سر هوش مصنوعی یکی از چندین موضوعی است که نویسندگان سینما و تلویزیون هالیوود را به اعتصاب کشاند و اولین توقف کار در 15 سال گذشته را رقم زد.

دهه‌ها است نویسندگان هالیوود  فیلمنامه‌های علمی تخیلی می‌نویسند که نشان می‌دهد ماشین‌هایی دنیا را در دست گرفته‌اند. اکنون، آنها برای اینکه مطمئن شوند ربات‌ها بی کارشان نمی‌کنند اعتصاب کردند.

اختلاف بر سر هوش مصنوعی یکی از چندین موضوعی است که نویسندگان سینما و تلویزیون هالیوود را به اعتصاب سوق داد. هوش مصنوعی در هالیوود، در رفع چین و چروک صورت مجریان مسن، حذف فحاشی بیش از حد دیالوگ بازیگران و کمک به ساخت فیلم‌های کوتاه انیمیشن مفید بوده است. علاوه بر این، برخی از نویسندگان نیز شروع به بررسی استفاده از هوش مصنوعی برای ساخت فیلمنامه ها کرده اند.

اما نویسندگان می ترسند که توسط هوش مصنوعی کنار گذاشته شوند یا در اولویت های بعدی قرار گیرند. به عنوان مثال، استودیوها به جای اینکه برای نوشتن پیش نویس اول نویسندگان را استخدام کنند، شاید آنها را برای انجام پیش نویس دوم به کار گیرند که هزینه کمتری دارد.

 انجمن نویسندگان آمریکا پیشنهادی ارائه کرد مبنی بر اینکه هر چیزی که توسط یک سیستم هوش مصنوعی مانند چت‌جی‌پی‌تی ایجاد می شود، نباید به عنوان مطالب ادبی در نظر گرفته شود. در اصل، اگر یک مدیر استودیو یک فیلمنامه تولید شده توسط هوش مصنوعی را برای بازبینی در اختیار نویسنده قرار دهد، نمی‌تواند به نویسنده با نرخ پایین‌تری برای بازنویسی کار دستمزد بدهد.

این اتحادیه همچنین مدعی است که از فیلم نامه های فعلی نباید برای آموزش هوش مصنوعی استفاده شود، زیرا ممکن است منجر به سرقت مالکیت معنوی شود.

آن ها می خواهند که هوش مصنوعی از کسب و کار نوشتن فیلمنامه دور باشد و سعی در جایگزینی نویسندگان نکند.

طبق اعلام دولت بایدن قرار است ۱۴۰ میلیون دلار صرف تحقیق و توسعه درباره هوش مصنوعی شود، این در حالی است که استفاده از این فناوری رو به افزایش است.
به گزارش خبرگزاری صدا و سیما به نقل از روزنامه آمریکایی دِ هیل، دولت بایدن اعلام کرد در شرایط فعلی که هوش مصنوعی میان کاربران رونق گرفته، ۱۴۰ میلیون دلار برای تحقیق و توسعه درباره این فناوری سرمایه گذاری خواهد کرد.

همراه با بودجه، دفتر مدیریت و بودجه (OMB) در ماه‌های آینده دستورالعمل‌های سیاستی در مورد استفاده از هوش مصنوعی توسط دولت فدرال را صادر خواهد کرد و شرکت‌هایی که هوش مصنوعی را توسعه می‌دهند، مانند گوگل، مایکروسافت و OpenAI، متعهد شده‌اند که در ارزیابی عمومی سیستم‌های هوش مصنوعی شرکت کنند.

بنیاد ملی علوم ۱۴۰ میلیون دلار را برای راه اندازی هفت موسسه تحقیقاتی ملی هوش مصنوعی سرمایه گذاری خواهد کرد و تعداد کل این موسسات را در آمریکا به ۲۵ عدد خواهد رساند.

تعهدات شرکت‌هایی که هوش مصنوعی را توسعه می‌دهند، بخشی از تلاش برای ارائه اطلاعات به محققان و مردم در مورد مدل‌های هوش مصنوعی و چگونگی هماهنگی مدل‌ها با اصولی که در طرح لایحه هوش مصنوعی دولت آمریکا که اخیرا برای کاهش آسیب‌های سیستم‌های خودکار منتشر شده، هماهنگ می‌کنند.

در پاسخ به این سوال که آیا نیازی به استاندارد‌های بین المللی در مورد هوش مصنوعی نیز وجود دارد، مقامات ارشد آمریکا گفتند: ما باید یک قدم برداریم و افزودند که هوش مصنوعی یک فناوری جهانی است و همکاری با شرکای اروپایی ضروری خواهد بود.

استفاده از هوش مصنوعی اخیرا رشد داشته و سیاست‌گذاران و تنظیم‌کننده‌ها در حال مبارزه با چگونگی مقابله با نگرانی‌های ناشی از آن هستند. رشد سریع این فناوری نگرانی‌هایی را در مورد خطر اطلاعات نادرست، کلاهبرداری و جمع آوری داده‌ها ایجاد می‌کند.

ایویت کلارک، نماینده مجلس لایحه‌ای را ارائه کرد که گروه‌ها یا پویش‌های سیاسی را ملزم می‌کند تا استفاده از محتوای ایجاد شده توسط هوش مصنوعی در تبلیغات سیاسی را افشا کنند. این در حالی است که کارگروه ملی جمهوری خواه اولین تبلیغ خود را با محتوای تولید شده توسط هوش مصنوعی پس از اعلام نامزدی بایدن برای انتخابات ریاست جمهوری آمریکا منتشر کرد.

همچنین در این هفته، لینا خان، رئیس کمیسیون تجارت فدرال متعهد شد این آژانس در نظارت بر استفاده‌های ناعادلانه یا فریبنده از هوش مصنوعی هوشیار باشد.

مراقب وای فای رایگان فرودگاه‌ها باشید

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۴:۱۸ ب.ظ | ۰ نظر

میلیون‌ها نفر از شبکه‌های وای فای عمومی در فرودگاه‌ها و ایستگاه‌های قطار استفاده می‌کنند و به دنبال راحتی و سرگرمی در حین سفر هستند.
کارشناسان داده تحقیقات جامعی در مورد خطرات امنیت سایبری مرتبط با وای فای عمومی در فرودگاه ها و ایستگاه های راه آهن انجام داده اند. این یافته ها آمار و بینش نگران کننده ای را نشان می دهد.
هر روز، میلیون‌ها نفر از شبکه‌های وای فای عمومی در فرودگاه‌ها و ایستگاه‌های قطار استفاده می‌کنند و به دنبال راحتی و سرگرمی در حین سفر هستند. با این حال، این شبکه ها اغلب فاقد الزامات امنیتی مناسب هستند و کاربران را در معرض طیف وسیعی از تهدیدات سایبری قرار می دهند.
آخرین تحقیقات نشان می‌دهد که تا 75 درصد از شبکه‌های وای فای عمومی در فرودگاه‌ها و ایستگاه‌های قطار در برابر حملات سایبری آسیب‌پذیر هستند، و این در حالی است که 1 نفر از هر 3 کاربر اطلاعات حساسی مانند رمزهای عبور و داده‌های مالی را بر روی این شبکه های ناامن به اشتراک می گذارد.
تهدیدات سایبری مختلف مرتبط با استفاده از وای فای عمومی در فرودگاه ها و ایستگاه های قطار، شامل رهگیری داده ها، حملات انسان در وسط و نقاط حساس مخرب است.
در زیر برخی از بهترین شیوه ها برای ایمن ماندن در هنگام استفاده از شبکه های وای فای عمومی در فرودگاه ها یا هر مکان عمومی دیگر آورده شده است:

-    از شبکه خصوصی مجازی (VPN) استفاده کنید: یک وی پی ان، داده های شما را رمزگذاری می کند و آنها را از طریق یک سرور امن هدایت می کند و رهگیری یا دسترسی به اطلاعات شما را برای مجرمان سایبری دشوارتر می کند.
-    فعال کردن احراز هویت دو مرحله ای (2FA): در صورت امکان، احراز هویت دو مرحله ای را در حساب های خود فعال کنید. این یک لایه امنیتی اضافی را با نیاز به نوع دوم تأیید، مانند یک پیام متنی یا برنامه تأیید هویت، علاوه بر رمز عبور شما، اضافه می کند.
-    نرم افزارها و برنامه ها را به روز نگه دارید: سیستم عامل، مرورگرهای وب و برنامه های خود را به طور منظم به روز کنید تا مطمئن شوید که آخرین وصله های امنیتی را دارید.
-    از استفاده از وای فای عمومی برای فعالیت های حساس خودداری کنید: هنگام اتصال به شبکه های وای فای عمومی از دسترسی یا به اشتراک گذاری اطلاعات حساس مانند بانکداری آنلاین یا شناسه های شخصی خودداری کنید.
-    از وب‌سایت‌های HTTPS استفاده کنید: مطمئن شوید که وب‌سایت‌هایی که بازدید می‌کنید از HTTPS استفاده می‌کنند، که نشان می‌دهد داده‌های مبادله شده بین دستگاه شما و وب‌سایت رمزگذاری شده است.
-    اشتراک گذاری فایل و وای فای را در صورت عدم استفاده خاموش کنید: گزینه های اشتراک فایل را در دستگاه خود غیرفعال کنید و هنگامی که از وای فای استفاده نمی کنید آن را خاموش کنید تا از دسترسی غیرمجاز به فایل ها یا دستگاه خود جلوگیری کنید.
-    از نرم افزار آنتی ویروس و فایروال استفاده کنید: نرم افزار آنتی ویروس قابل اعتمادی نصب کنید و یک فایروال را روی دستگاه خود فعال کنید تا در برابر بدافزارها و سایر تهدیدات محافظت شوید.
-    مراقب ایستگاه های شارژ عمومی باشید: مجرمان سایبری می توانند از ایستگاه های شارژ عمومی برای نصب بدافزار یا سرقت داده ها از دستگاه شما سوء استفاده کنند. از شارژر خود استفاده کنید و آن را به پریز برق وصل کنید یا از یک پاوربانک قابل حمل استفاده کنید.
-    مراقب نقاط اتصال وای فای جعلی باشید: قبل از اتصال به یک شبکه وای فای عمومی، واقعی بودن آن را بررسی کنید. مجرمان سایبری اغلب نقاط جعلی را با نام های مشابه ایجاد می کنند تا کاربران را فریب دهند تا ارتباط برقرار کنند.
-    از رمزهای عبور قوی و منحصربه‌فرد استفاده کنید: برای هر یک از حساب‌های خود رمزهای عبور قوی و منحصربه‌فرد ایجاد کنید و از استفاده از رمز عبور یکسان در چندین پلتفرم خودداری کنید.
با پیروی از این بهترین شیوه‌ها، می‌توانید خطر قربانی شدن در حملات سایبری در حین استفاده از شبکه‌های وای فای عمومی را به میزان قابل توجهی کاهش دهید. (منبع:  سایبربان)

 اقدامات پنتاگون برای محافظت از شبکه‌های داده‌اش نباید به سیستم‌های صنعتی و فناوری اطلاعات آن ختم شود. وسایل نقلیه و سلاح های آن نیز آسیب پذیر هستند. اما توانایی ارتش برای دفاع از این سیستم‌ها به دلیل ناتوانی آن در نظارت حتی ابتدایی‌ترین عملکردهای داخلی آنها مختل شده است.
سال گذشته، آژانس امنیت سایبری و امنیت زیرساخت توضیح داد که روسیه چگونه اطلاعات حساس مربوط به تسلیحات را از پیمانکاران دفاعی ایالات متحده به سرقت برده است. اداره حسابرسی دولت چندین گزارش از خود صادر کرده است.
بسیاری از سیستم‌های روی تسلیحات و وسایل نقلیه نظامی ایالات متحده برای پنهان کردن این عملکردهای درونی، حتی از مشتری خود ساخته شده‌اند. دلایل مختلفی برای این رویکرد "جعبه سیاه" وجود دارد. مهر و موم قطعات می تواند کار حفظ مواردی مانند گواهینامه های ارزش پرواز را ساده کند. آنها می توانند به تامین کنندگان کمک کنند تا برنده شوند و قراردادهای پشتیبانی سودآور را حفظ کنند. و حداقل در تئوری، آنها اطلاعات مهاجمان از سیستم های کلیدی را انکار می کنند.
اما اگر نیم قرن فناوری اطلاعات سازمانی چیزی به ما آموخته باشد، این است که رویکرد «امنیت از طریق ابهام» هر بار شکست می‌خورد. در واقع، این به توانایی پنتاگون برای درک آسیب‌پذیری‌های سیستم‌هایشان و دانستن اینکه چه زمانی به خطر افتاده‌اند آسیب خواهد زد. همچنین داده‌های ارزشمندی را که می‌توان از آنها برای راهنمایی تعمیر و نگهداری، پیش‌بینی خرابی قطعات و حتی بهبود آموزش استفاده کرد، حذف می‌کند.
اما راهی وجود دارد که پنتاگون ممکن است به داده های کلیدی، بدون نقض مهر و موم سازنده قطعات دسترسی پیدا کند. سلاح ها و وسایل نقلیه پیچیده از اتوبوس های سریال باز و مبتنی بر استاندارد برای جابجایی داده ها بین اجزا استفاده می کنند. این مسیرها با طراحی باز هستند. نظارت بر این مسیرها می‌تواند به مدافعان کمک کند تا بفهمند دشمنان از چه تکنیک‌های سایبری استفاده می‌کنند، آن‌ها را شناسایی کنند، نشانه‌ها و حفاظت‌ها را توسعه دهند و به طور بالقوه آنها را کاهش دهند.
به عنوان مثال، فرض کنید یک دشمن راهی برای بهره برداری از یک هواپیما از طریق یک کانال فرکانس رادیویی کشف می کند. با ارسال داده های دستکاری شده به گیرنده RF همیشه روشن، یک پیام مخرب می تواند از نظر تئوری به یک جزء متصل به گذرگاه و سپس به خود گذرگاه تزریق شود. این می تواند نتایجی از غیرعادی تا فاجعه آمیز ایجاد کند که عمدتاً به مهاجم واگذار می شود. سیستمی که امکان دید در اتوبوس را فراهم می کند، می تواند نفوذ را تشخیص دهد و سیستمی که این امکان را فراهم نمی کند، نمی تواند.
چنین دیدی برخلاف سنت دیرینه در میان سازندگان دفاعی است. در واقع، توانایی درک ماهیت "کل" پلت فرم، که در واقع از مجموع قطعات آن بیشتر است، به نفع سازنده است بدون اینکه خطری ناخواسته برای مالکیت معنوی آنها داشته باشد در حالی که به مالک پلت فرم اطمینان می دهد. این گذرگاه‌های داده به هم پیوسته عنصر «باز» پلتفرم هستند که از طریق آن تعامل بین اجزای ارائه‌شده توسط مجموعه‌ای از فروشندگان فرعی صورت می‌گیرد و در این لایه است که مهاجمان یک مانع کم برای ورود پیدا می‌کنند.
جمع‌آوری، برچسب‌گذاری و نگهداری داده‌هایی که از اتوبوس‌های یک سکوی نظامی عبور می‌کنند، کار ساده‌ای نیست. یک وسیله نقلیه واحد حجم سرسام‌آوری از داده‌ها را تولید می‌کند و در طول درگیری ممکن است مدت زمان قابل توجهی بین کشش داده‌ها در محیط‌های مورد بحث RF طی شود. به دست آوردن داده‌های اتوبوس به معنای گنجاندن صدها ساعت حافظه پنهان محلی بدون تلفات و همچنین حفظ در فضای ابری است، در حالی که سیاست‌های ذخیره‌سازی وزارت دفاع و محدودیت‌های اندازه، وزن و محدودیت‌های قدرت خودرو را رعایت می‌کند.
اما انجام این کار لازم است. هر فریم، از هر اتوبوس، همیشه، صرف نظر از پروتکل، ارزشمند است. اویونیک را در هواپیمای فلای با سیم در نظر بگیرید. یک خلبان از یک چوب یا پدال برای اعمال تغییرات فیزیکی استفاده می کند. حرکت چوب به جلو یک سیگنال دیجیتال تولید می کند که باید به تغییر فوری منجر شود: حرکت سطح پرواز. هیچ تاخیری بین ورودی و عمل وجود ندارد. هر مؤلفه دائماً وضعیت خود را گزارش می دهد تا هر ورودی فوراً شناسایی و انجام شود. این "گزارش" در زمان واقعی اتفاق می‌افتد، در نانوثانیه اندازه‌گیری می‌شود و در هر دستگاه منفرد در هر اتوبوس رخ می‌دهد.
برای شناسایی ناهنجاری ها، تمام آن انتقال ها باید ثبت و تجزیه و تحلیل شوند. یک "ناهنجاری" ممکن است فقط در یک فریم از این جریان بی پایان پیام ها ظاهر شود. علاوه بر این، توانایی تجزیه و تحلیل این داده‌های جمع‌آوری‌شده از سراسر ناوگان در مجموع بینشی به دست می‌دهد که یافتن آن به‌صورت مجزا غیرممکن خواهد بود.
داده ها همچنین باید به درستی ترجمه و برچسب گذاری شوند تا بتوان از آنها برای آموزش مدل های یادگیری ماشینی استفاده کرد و اطلاعات مفیدی برای اپراتورها تولید نمود. هر چه ترجمه و برچسب‌گذاری به لحظه ضبط نزدیک‌تر باشد، ارزش داده‌ها بیشتر می‌شود؛ زیرا زمان انجام عمل را کاهش می‌دهد و ارزش باقیمانده را در پس از تجزیه و تحلیل افزایش می‌دهد. متا داده های اضافی مانند GPS، اطلاعات مرحله پرواز یا فعالیت طیف RF امکان غنی سازی بهتر داده های اولیه را فراهم می کند. این موضوع می‌تواند پیش‌بینی‌های دقیقی در مورد مثلاً، خرابی قطعات و سایر رویدادهایی که بر آمادگی عملیاتی و هزینه‌های پایدار تأثیر می‌گذارند، ارائه دهد.
سیستم های نظامی مدرن، تسلیحاتی سفارشی و وابسته به فناوری هستند. حمله شبکه‌ای به یکی از این سلاح‌ها یک اگر نیست بلکه موضوعی است که باید فقط زمان آن مشخص شود. برخی از آنها احتمالا در حال حاضر در حال انجام است. اصول دید و کنترل، که از دنیای امنیت سایبری سازمانی به خوبی درک شده است، عامل تعیین کننده در دوره بعدی جنگ خواهد بود.  (منبع:  سایبربان)

باج ۱میلیون دلاری مقامات کالیفرنیا به هکرها

شنبه, ۱۶ ارديبهشت ۱۴۰۲، ۰۷:۰۹ ب.ظ | ۰ نظر

مقامات شهر «سن برناردینو» در ایالت کالیفرنیا به هکرهایی که به سامانه‌های کلانتری نفوذ کرده بودند باج میلیون دلاری دادند.

به گزارش فارس، مقامات محلی اعلام کردند که شهر «سن برناردینو» ایالت کالیفرنیا مجبور شد یک باج 1.1 میلیون دلاری به هکرهایی پرداخت کند که به سامانه‌های رایانه‌های اداره کلانتری نفوذ کرده بودند.

شبکه «ای بی سی» در این خصوص گزارش کرد، ماه گذشته، اداره کلانتری سن برناردینو اعتراف کرد که گروهی از هکرها، بسیاری از فایل‌ها را رمزگذاری کرده و با ایجاد اخلال در سامانه رایانه‌های اداره کلانتری، دسترسی به اطلاعات را مسدود کرده‌اند.

مقامات محلی شهر سن برناردینو به ای بی سی نیوز اعلام کردند که این شهر برای چنین حملاتی بیمه است و سهم آن از باج‌خواهی بیش از ۵۱۱ هزار دلار است.

شرکت بیمه و مسئولان شهر پس از مذاکره با هکرها موافقت کردند که برای بازگرداندن سیستم به عملکرد کامل و تضمین امنیت داده‌ها، هزینه را به هکرها پرداخت کنند.

بر اساس این گزارش، اداره کلانتری سن برناردینو پس از حملات سایبری اخیر به سامانه‌های رایانه‌ای این اداره، سامانه‌هایی چون ایمیل و اینترنت را مسدود کردند.

مقامات محلی بر این باورند که هکرها حتمالاً پس از آن به سامانه‌های رایانه‌ای اداره کلانتری دسترسی پیدا کردند که افرادی درون کلانتری بر روی یک لینک مخرب کلیک کرده بود.

کاسبی فیس‌بوک با داده‌های کودکان

شنبه, ۱۶ ارديبهشت ۱۴۰۲، ۰۷:۰۷ ب.ظ | ۰ نظر

فیس بوک به سواستفاده از داده های افراد زیر سن قانونی متهم شده و اکنون کمیسیون فدرال تجارت آمریکا پیشنهاد کرده درآمدزایی شرکت از داده های این دسته از کاربران ممنوع شود.

به گزارش خبرگزاری مهر به نقل از رویترز، کمیسیون فدرال تجارت آمریکا، فیس بوک را به گمراه کردن والدین درباره حفاظت از کودکان متهم و پیشنهاد کرده توافقنامه فعلی درباره حریم خصوصی سختگیرانه تر شود تا ممنوعیت از دستیابی به سود از داده های افراد زیر سن قانونی را دربرگیرد.

به طور خاص کمیسیون فدرال تجارت آمریکا اعلام کرد: فیس بوک والدین را درباره میزان کنترل شان بر افرادی که با فرزندانشان در اپ Messenger Kidsارتباط دارند، گمراه کرده است. همچنین این شرکت درباره میزان دسترسی توسعه دهندگان اپ به داده های خصوصی کودکان فریبکارانه عمل و در حقیقت توافقنامه ۲۰۱۹ درباره حریم خصوصی را نقض کرده است.

تغییرات پیشنهادی کمیسیون فدرال تجارت آمریکا شامل ممنوع کردن فیس بوک از درآمدزایی به وسیله کاربران کمتر از ۱۸ سال از جمله در کسب و کار واقعیت مجازی آن است. همچنین این شرکت در خصوص گسترش فناوری شناسایی چهره با محدودیت هایی روبرو خواهد شد.

پس از انتشار این اخبار ارزش سهام متا ۲ درصد کاهش یافت. اندی استون سخنگوی متا در توئیتر این اقدام را یک مانور سیاسی خواند. او نوشت: ما با قدرت با این اقدام مقابله می کنیم.

ممنوعیت فروش آیفون بدون USB-C در اروپا

شنبه, ۱۶ ارديبهشت ۱۴۰۲، ۰۳:۰۳ ب.ظ | ۰ نظر

کمیسر بازار داخلی اتحادیه اروپا هشدار داد اگر اپل از پورت یواس‌بی‌-سی در آیفون استفاده نکند، ممکن است این بلوک با ممنوعیت فروش، واکنش نشان دهد.
به گزارش ایسنا، اپل ممکن است در حال حاضر به فکر معرفی یواس‌بی‌-سی در آیفون ۱۵ باشد. اما شایعات حاکی از آن است که این شرکت مشغول بررسی راه‌هایی برای درآمدزایی از این تغییر است. یکی از راه‌هایی که بررسی شده است، گواهینامه "ساخته شده برای آیفون" است که تضمین می‌کند حداکثر سرعت و انتقال کامل داده تنها با لوازم جانبی تایید شده، امکان پذیر است. این اقدام، کاهش گردش مالی ناشی از اجبار به رعایت مقررات استفاده از پورت شارژ یکسان یواس‌بی‌-سی را برای این شرکت آمریکایی محدود می‌کند.

با این حال، به نظر می‌رسد اتحادیه اروپا تمایلی ندارد به هیچ بهانه‌ای گوش کند. تیه‌ری برتون، کمیسر بازار داخلی اتحادیه اروپا ظاهرا نامه‌ای به اپل نوشته و ارسال کرده است تا مطمئن شود این شرکت از عواقب عدم رعایت مقررات اتحادیه اروپا مطلع است. برتون تاکید کرده است دستگاه‌هایی که به الزام شارژر یکسان عمل نکنند، مجوز فروش در بازار اتحادیه اروپا را دریافت نخواهند کرد.

اتحادیه اروپا اواخر سال ۲۰۲۲، قانونی را تصویب کرد که بر اساس آن، از سال ۲۰۲۴، همه دستگاه‌های الکترونیکی برای شارژ باید پورت یواس‌بی‌-سی داشته باشند. هدف از این مقررات، بهبود راحتی مصرف کنندگان و کاهش زباله‌های الکترونیکی است. به نظر می‌رسد که اپل این الزام را در آیفون ۱۵ رعایت خواهد کرد. با این حال، مقررات اتحادیه اروپا دو ضرب الاجل تعیین کرده است که می‌تواند به سازنده آیفون اجازه دهد برای مدتی طولانی‌تری از پورت لایتنینگ در محصولاتش استفاده کند. کشورها باید قوانین خود در خصوص استفاده از شارژر یکسان را تا ۲۸ دسامبر سال میلادی جاری تصویب کنند. با این حال، این کشورها تا ۲۸ دسامبر سال ۲۰۲۴ مجبور به اجرای این قوانین نیستند.

هدف اتحادیه اروپا از اجباری کردن استفاده از پورت یواس‌بی‌-سی در آیفون‌ها، کاهش زباله‌های الکترونیکی و بهبود راحتی مصرف‌کنندگان است. عزم اتحادیه اروپا برای جلوگیری از محدودیت برای مصرف کنندگان روشن است. اما مشخص نیست که اپل چطور به این هشدار واکنش نشان خواهد داد و آیا تا مهلت مقرر به مقررات اتحادیه اروپا عمل خواهد کرد یا خیر.

سوئیچ به پورت یواس‌بی‌-سی، می‌تواند مزایای زیادی را برای کاربران آیفون به همراه داشته باشد. یواس‌بی‌-سی، یک استاندارد اتصال جهانی است که در بسیاری از دستگاه‌های دیگر از جمله تلفن‌های هوشمند اندرویدی و لپ تاپ‌ها بکار رفته است. به این ترتیب، کاربران می‌توانند آیفون خود را با همان کابل شارژی که برای دستگاه‌های دیگر استفاده می‌کنند، شارژ کنند و تعداد کابلهای مورد استفاده آنها، کاهش پیدا کرده و زندگیشان راحت‌تر می‌شود. یواس‌بی‌-سی همچنین از سرعت شارژ و نرخ انتقال داده سریعتر در مقایسه با لایتینگ، پشتیبانی می‌کند و بهبود قابل توجهی برای کاربران آیفون خواهد بود.

با این حال، مشخص است که اپل نگران تاثیر این تغییر بر سود خود است. با معرفی مجوز ساخته شده برای آیفون، اپل می‌تواند کنترل بر بازار لوازم جانبی را حفظ کرده و درآمد بیشتری تولید کند. با این حال، برای استفاده از مزایای کامل یواس‌بی‌-سی، مصرف کنندگان باید لوازم مورد تائید اپل را خریداری کنند.

از نقطه نظر مصرف کنندگان، سوئیچ به پورت یواس‌بی‌-سی، تغییر خوشایندی است. کابل‌های لایتینگ مختص اپل بوده و تنها در دستگاه‌های اپل قابل استفاده هستند. اما با کابل یواس‌بی‌-سی، کاربران می‌توانند آیفون یا هر دستگاه دیگر خود را با هر کابلی شارژ کنند.

بر اساس گزارش گیزچاینا، سوئیچ به یواس‌بی‌-سی، مزایای محیط زیستی هم دارد و با هدف اتحادیه اروپا از معرفی شارژر یکسان که کاهش زباله الکترونیکی است، تعداد شارژرها و کابل‌هایی که سر از گورستان زباله‌های الکترونیکی در می آورند، کاهش پیدا خواهد کرد و این تاثیر مثبتی برای محیط زیست است.

بریتانیا و آمریکا در بحث رقابت برای توسعه فن آوری هوش مصنوعی مداخله کرده اند، بخش ناظر رقابتی هوش مصنوعی بریتانیا بررسی این بخش را آغاز کرد و همچنین کاخ سفید به شرکت های فن آوری در مورد مسئولیت اساسی خود برای توسعه محصولات ایمن توصیه نمود.
قانونگذاران تحت فشار فزاینده ای برای مداخله هستند، چرا که ظهور مولدهای زبانی مبتنی بر هوش مصنوعی مانند چت جی پی تی (ChatGPT) نگرانی هایی را در مورد گسترش بالقوه اطلاعات نادرست، افزایش تقلب و تاثیر بر بازار مشاغل ایجاد میکند و ایلان ماسک در میان نزدیک به ۳۰ هزار امضا کننده نامه ای که ماه گذشته منتشر شد ،خواستار توقف پروژه های مهم شد.

سازمان رقابت و بازارهای بریتانیا (CMA) اعلام کرد که به بررسی سیستم های اساسی یا مدل های بنیادی ابزارهای هوش مصنوعی خواهد پرداخت. یکی از کارشناسان حقوقی، بررسی هایی به عنوان یک پیش نیاز برای این بخش توصیف کرده است، یافته های این کارشناس ماه سپتامبر منتشر خواهد شد.
دولت آمریکا نیز اقداماتی را برای مقابله با خطرات توسعه هوش مصنوعی اعلام کرد؛ به طوری که کاملا هریس، معاون رئیس جمهور، با مدیران ارشد در خط مقدم پیشرفت های سریع این صنعت ملاقات کرد. کاخ سفید در بیانیه ای اعلام کرد شرکت هایی که این فن آوری را توسعه میدهند، مسئولیتی اساسی دارند تا پیش از گسترش یا عمومی شدن، از ایمن بودن محصولات خود مطمئن شوند.
این نشست یک هفته به طول انجامید و در جریان آن گروهی از دانشمندان و رهبران کسب وکار ،هشدارهایی را در مورد سرعت اختلال این فن آوری در صنایع مستقر صادر کردند.

جفری هینتون، پدرخوانده هوش مصنوعی، گوگل را ترک کرد تا آزادانه‌تر در مورد خطرات این فناوری صحبت کند، این در حالی است که سر پاتریک والانس، مشاور علمی سابق دولت بریتانیا با بیان اینکه تاثیر هوش مصنوعی بر مشاغل می تواند به بزرگی تاثیر انقلاب صنعتی باشد، از وزرا خواست تا از تغییرات عمیق اجتماعی و اقتصادی که می تواند توسط هوش مصنوعی ایجاد شود، جلوگیری کنند.

سارا کاردل میگوید هوش مصنوعی این پتانسیل را دارد که نحوه رقابت کسب وکارها را تغییر دهد؛ اما باید از مصرف کنندگان محافظت کرد.

مدیر اجرایی سازمان رقابت و بازارهای بریتانیا ( CMA) گفت: هوش مصنوعی در چند ماه گذشته به آگاهی عمومی نفوذ کرده است و مردم در برابر مسائلی مانند اطلاعات نادرست یا گمراه کننده محافظت میشوند.بسیار مهم است که مزایای بالقوه این فناوری متحول کننده به راحتی برای مشاغل و مصرف کنندگان بریتانیا قابل دسترسی باشد.
سرویس چت جی پی تی (ChatGPT) و رقیب گوگل یعنی بارد  (Bard) در پاسخ به درخواست های کاربران در معرض ارائه اطلاعات غلط هستند، در حالی که نگرانیهایی در مورد کلاهبرداری های صوتی مبتنی بر هوش مصنوعی مطرح شده است. سازمان ضد اطلاعات نادرست، نیوز گارد (NewsGuard) در این هفته اعلام کرد که چت بات هایی که وانمود میکنند روزنامه نگار هستند، تقریبا ۵۰ مزرعه مجهز به هوش مصنوعی را اداره مینمایند. ماه گذشته، آهنگی با آوازهای جعلی ساخته‌شده توسط هوش مصنوعی که ادعا میشد درک و ویکند  (Drake and the Weeknd)  هستند، از سرویس‌های استریم حذف شد.

در ایالات متحده، هریس با مدیران ارشد اوپن آی (OpenAI)، آلفابت و مایکروسافت در کاخ سفید دیدار کرد و اقداماتی را برای رسیدگی به خطرات توسعه بدون کنترل هوش مصنوعی مطرح کرد.در بیانیه ای پس از جلسه، هریس گفت که به مدیران اجرایی گفته است که بخش خصوصی مسئولیت اخلاقی، معنوی و قانونی برای تضمین ایمنی و امنیت محصولات خود را  بر عهده دارند.

دولت اعلام کرد که در هفت موسسه تحقیقاتی ملی جدید هوش مصنوعی سرمایه گذاری خواهد کرد تا پیشرفت های هوش مصنوعی را دنبال کند که قابل اعتماد، مسئولیت پذیر و در خدمت منافع عمومی هستند. توسعه هوش مصنوعی تحت سلطه بخش خصوصی است و صنعت فن آوری در سال گذشته ۳۲ مدل ماشین یادگیری قابل توجه تولید کرده است، در حالی که سه مدل توسط دانشگاه تولید شده است.

توسعه دهندگان برجسته هوش مصنوعی نیز با ارزیابی عمومی سیستم های خود در کنفرانس امنیت سایبری دیفکن 31 (Defcon 31)  امسال موافقت کرده اند.موسساتی که در این کنفرانس شرکت خواهند کرد شامل اوپن آی (OpenAI)، گوگل، مایکروسافت و هوش مصنوعی استابیلیتی (Stability)  میباشد.

همچنین به اتحادیه اروپا هشدار داده شد که باید از تحقیقات مردمی هوش مصنوعی محافظت نماید یا ریسک واگذاری کنترل توسعه فناوری به شرکت‌های آمریکایی را بپذیرد.اروپا نمیتواند حق حاکمیت هوش مصنوعی را از دست بدهد. حذف تحقیق و توسعه منبع باز، جامعه علمی و اقتصاد اروپا را به شدت به چند شرکت خارجی و اختصاصی برای زیرساخت های ضروری هوش مصنوعی وابسته خواهد کرد.

کریستف شوهمان، رهبر سازمانی در شرکت لایون  ( Laion)گفت: ما در حال کار روی هوش مصنوعی منبع باز هستیم، زیرا فکر می‌کنیم این نوع هوش مصنوعی ایمن‌تر، در دسترس‌تر و آزاد‌تر خواهد بود. منبع:  سایبربان

چین: حملات هکری در دنیا کار CIA است

جمعه, ۱۵ ارديبهشت ۱۴۰۲، ۰۲:۴۱ ب.ظ | ۰ نظر

براساس گزارش مرکز ملی واکنش اضطراری ویروس رایانه‌ای چین و شرکت چینی امنیت اینترنتی ۳۶۰، آژانس اطلاعات مرکزی آمریکا (سیا) مغز متفکر بسیاری از حملات هکری و «انقلاب‌های رنگی» در فضای پس از فروپاشی شوروی و سایر مناطق جهان است.
به گزارش ایسنا، به نقل از خبرگزاری اسپوتنیک، در این گزارش آمده است: «سیا سال‌هاست که مخفیانه «تغییر مسالمت‌آمیز» و «انقلاب‌های رنگی» را سازمان‌دهی می‌کند و همچنین فعالیت‌های جاسوسی و سرقت اطلاعات را انجام می‌دهد.»

نویسندگان گزارش بر این باورند که انقلاب مخملی در چکسلواکی در سال ۱۹۸۹، انقلاب گل رز در گرجستان در سال ۲۰۰۳، انقلاب نارنجی در اوکراین از ۲۰۰۴ تا ۲۰۰۵، انقلاب گل لاله در قرقیزستان در سال ۲۰۰۵، بهار عربی دهه ۲۰۱۰، یورومیدان اوکراین از سال ۲۰۱۳-۲۰۱۴ و جنبش آفتابگردان در تایوان در سال ۲۰۱۴، که توسط کارشناسان و سازمان‌های بین‌المللی به عنوان «انقلاب‌های رنگی» شناخته می‌شوند و همچنین بسیاری از رویدادهای دیگر توسط سرویس‌های ویژه ایالات متحده سازماندهی شدند.

علاوه بر این، گزارش فوق استدلال می‌کند که آژانس‌های مخفی ایالات متحده در تلاش بودند تا «انقلاب‌های رنگی» را در بلاروس، جمهوری آذربایجان، لبنان، میانمار، ایران و سایر کشورها به راه بیندازند.

در این گزارش آمده است: «طبق آمار، در چند دهه گذشته، سیا در بیش از ۵۰ کشور، حکومت‌های قانونی را سرنگون کرده یا برای سرنگونی آنها تلاش کرده و باعث ناآرامی شده است.»

علاوه بر این، در این گزارش آمده است که سازمان هکری APT یا APT-C-۳۹، که توسط شرکت ۳۶۰ در سال ۲۰۲۰ افشا شد، برای حملات سایبری خود از ابزارهایی مشابه مواردی که در مقالات Vault ۷ منتشر شده توسط ویکی‌لیکس و در فهرست آن به عنوان ابزار هک سیا ذکر شده است، استفاده کرده است.

اهداف اصلی این سازمان، زیرساخت های اطلاعاتی مهم کشورهای مختلف، هوافضا، موسسات تحقیقاتی، شرکت‌های نفتی، شرکت‌های اینترنتی و سازمان‌های دولتی است. بر اساس این گزارش، رد فعالیت‌های این‌ها به سال ۲۰۱۱ بازمی‌گردد و حملات تا امروز ادامه دارد.

آغاز تحقیقات انگلیس درباره خطرات هوش مصنوعی

جمعه, ۱۵ ارديبهشت ۱۴۰۲، ۰۲:۴۰ ب.ظ | ۰ نظر

رگولاتور رقابت انگلیس تحقیقی درباره صنعت هوش مصنوعی آغاز کرده تا نگرانی های احتمالی مربوط به رقابت و حقوق مصرف کننده را برطرف کند.
به گزارش خبرگزاری مهر به نقل از رویترز، این درحالی است که مایکروسافت و گوگل حالت تدافعی نسبت به این فناوری دارند.

این تحقیق روی مدل های بنیادینی مانند مدل های زبانی بزرگ و هوش مصنوعی مانند ابزاری که شرکت اوپن آ. آی ابداع کرده، متمرکز است.

مدل های بزرگ زبانی سیستم های هوش مصنوعی هستند که با داده های عظیمی آموزش دیده اند تا زبان انسانی را دریابند و مانند انسان به سوالات پاسخ دهند.

هوش مصنوعی مولد به ابزارهایی اشاره دارد که به کاربران اجازه می دهد محتوای جدیدی براساس درخواست کاربران انسان بسازند.

این فناوری ها پتانسیل زیادی برای افزایش بهره وری انسان دارند و مدت زمان لازم برای ارائه یک کپی ساده جهت اهداف بازاریابی یا کد نویسی را کاهش می‌دهند.

با این وجود آنها سروصدای زیادی به پا کردند زیرا رگولاتورها از سرعت توسعه سیستم های هوش مصنوعی و استفاده از آن در بازار کار بیمناک هستند.

سازمان رقابت و بازارهای انگلیس در بیانیه ای اعلام کرد چگونگی چشم‌انداز رقابتی برای مدل‌های پایه و استفاده از آنها می‌تواند تکامل یابد، فرصت‌ها و خطراتی را که چنین سناریوهایی به همراه دارند، بررسی خواهد کرد و اصول راهنما را برای حمایت از رقابت و حمایت از مصرف‌کنندگان با توسعه مدل‌های پایه منتشر خواهد کرد.

سارا کاردل، مدیر ارشد اجرایی سازمان رقابت و بازارهای انگلیس در بیانیه‌ای اعلام کرد: هوش مصنوعی در چند ماه اخیر به آگاهی عمومی نفوذ کرده است اما ما از مدتی آن را تحت نظر داشتیم. این فناوری با سرعت در حال توسعه است و پتانسیل آن را دارد که شیوه رقابت کسب و کارها را تغییر دهد و همچنین رشد اقتصادی قابل توجهی را ایجاد کند.

اودر ادامه افزود: بسیار مهم است که مزایای بالقوه این فناوری به آسانی برای کسب‌وکارها و مصرف‌کنندگان بریتانیا قابل دسترسی باشد، و از سوی دیگر از مردم در مقابل مواردی مانند اطلاعات نادرست یا گمراه‌کننده محافظت شود.

این سازمان دیدگاه ها و شواهد را تا مهلت ۲ ژوئن بررسی خواهد کرد. پس از آن، رگولاتورها گزارشی درباره یافته های آن در سپتامبر منتشر می کنند.

هشدار ناتو به قطع عمدی کابل‌های اینترنت

جمعه, ۱۵ ارديبهشت ۱۴۰۲، ۰۲:۰۶ ب.ظ | ۰ نظر

ناتو ادعا کرده که مسکو ممکن است به عنوان بخشی از جنگ با اوکراین، کابل‌های زیردریایی انتقال داده‌های اطلاعاتی را خراب کند.
به گزارش مهر رئیس اطلاعات ناتو با اتهام زنی به روسیه هشدار داد، در حالی که این ائتلاف تلاش‌ها برای محافظت از زیرساخت‌های زیردریایی را پس از حملات نورد استریم افزایش می‌دهد، مسکو ممکن است برای مجازات کشورهای غربی به دلیل حمایت از اوکراین، کابل‌های زیردریایی را خراب کند.

دیوید کاتلر در این ارتباط مدعی شد: «نگرانی‌های زیادی وجود دارد که روسیه کابل‌های زیردریایی و دیگر زیرساخت‌های حیاتی را در تلاش برای مختل کردن زندگی غربی‌ها، برای به دست آوردن اهرم‌های فشار علیه کشورهایی که امنیت اوکراین را تأمین می‌کنند، هدف قرار دهد.»

او گفت: «روس‌ها سال‌هاست در این حوزه فعال هستند و فعالیت‌های خود را در دریاهای شمال و بالتیک افزایش داده‌اند.»

گفته شده است با افزایش نگرانی‌ها در مورد امنیت کابل‌های زیردریایی، کشورهای غربی قصد دارند دریای شمال را به یک موتور برق سبز تبدیل کنند و مجموعه‌ای از پارک‌های بادی جدید را برنامه‌ریزی می‌کنند که با کابل‌ها به سرزمین اصلی متصل خواهند شد.

کابل‌های زیردریایی حدود ۹۵ درصد از ترافیک اینترنت را در سراسر جهان با سرعتی در حدود ۲۰۰ ترابایت در ثانیه انتقال می‌دهند که به گفته ناتو، ۲۰۰ کابل از این ۴۰۰ کابل حیاتی تلقی می‌شوند.

کاتلر، دستیار دبیرکل ناتو در امور اطلاعات و امنیت گفت: «در مجموع، آنها روزانه حدود ۱۰ تریلیون دلار تراکنش‌های مالی را حمل می‌کنند، بنابراین این کابل‌ها واقعاً یک محور اقتصادی هستند.»

او هشدار داد که دشمنان ناتو متوجه مزیت استراتژیک عظیمی هستند که می‌توانند امنیت اینترنت، انرژی و سیستم‌های مالی غربی را تهدید کنند.

کاتلر با تشریح این روند به عنوان بخشی از یک برنامه شناسایی زیر آب که توسط بخشی از وزارت دفاع روسیه اجرا می‌شود، گفت: «روسیه به طور فعال در حال نقشه برداری از زیرساخت‌های حیاتی متحدین هم در زمین و هم در بستر دریا است.»

او تاکید کرد، متحدان ناتو از نزدیک کشتی‌های روسی مجهز به حسگرهایی را که می‌توانند اطلاعات الکترونیکی یا صوتی را از بستر دریا جمع‌آوری کنند، زیر نظر دارند و گفت که کشتی‌های جاسوسی را می‌توان از طریق آنتن یا فعالیت غیرعادی آنها در نزدیکی مناطق بحرانی شناسایی کرد.

ناتو پس از انفجارهای نورد استریم تعداد کشتی‌های گشت زنی در دریای شمال و بالتیک را به میزان قابل توجهی افزایش داد و یک سلول حفاظت از زیرساخت‌های زیردریایی حیاتی برای بهبود همکاری با صنعت، سرمایه‌ها و کارشناسان ایجاد کرد.

ژنرال هانس ورنر ویرمن، ژنرال آلمانی، که از فوریه مسئول هسته جدید نظارتی ناتو است، گفت: «تهدید واقعی است و ناتو در حال افزایش گشت زنی‌های خود است.»

این مقام ناتو در پاسخ به این سوال که صنعت چه کاری می‌تواند انجام دهد تا پارک‌های بادی جدید را در برابر حملات مقاوم‌تر کند، پیشنهاد کرد که به جای یک کابل، آنها را با چند کابل به سرزمین اصلی متصل کنیم.

ابراز نگرانی ناتو از فعالیت روسیه در حالی است که همزمان روسیه نیز با نگرانی تحرکات ناتو را رصد می‌کند. پیشتر «نیکلای پاتروشف»، دبیر شورای امنیت ملی روسیه در گفت‌وگو با روزنامه «ایزوستیا» اعلام کرده بود که هم‌اکنون نزدیک به ۶۰ هزار نیروی نظامی ناتو در نزدیکی مرزهای روسیه مستقر شده‌اند. وی دراین‌باره گفت: ناتو واحدهای نظامی بیشتری را در شرق اروپا مستقر و زیرساخت‌های نظامی در نزدیکی مرزهای روسیه را نوسازی کرده است.

به گفته پاتروشف «غرب به صورت پیوسته فشارهای سیاسی و اقتصادی علیه روسیه را افزایش می‌دهد و ناتو هم‌اکنون نزدیک به ۶۰ هزار نیروی آمریکایی را در منطقه مستقر کرده و حجم و شدت آموزش‌های جنگی و عملیاتی نیروهای نظامی را افزایش داده است.»

اتحاد اروپایی‌ها برای رقابت با استارلینک

جمعه, ۱۵ ارديبهشت ۱۴۰۲، ۰۱:۵۰ ب.ظ | ۰ نظر

نام‌های بزرگ عرصه فضا و ارتباطات قاره سبز گرد هم آمده‌اند تا رقیب منظومه ماهواره‌ای استارلینک شرکت اسپیس‌اکس را بسازند.
به گزارش خبر آنلاین استارلینک با بیش از ۳ هزار ماهواره در فاصله حدود ۵۰۰ کیلومتری زمین در تمام جهان اینترنت عرضه می‌کند اما اروپایی‌ها هم می‌خواهند منظومه ماهواره‌ای خودشان را داشته باشند و فقط به سرویس استارلینک متکی نمانند.

پروژه زیرساخت تاب‌آور، با ارتباط متقابل و امن ماهواره‌ای یا به اختصار IRIS2 پس از شروع جنگ اوکراین و نقش مهمی که استارلینک در آن بازی کرد، بیش از پیش برای اروپایی‌ها جدی شده است.

در همین زمینه فراخوان کمیسیون اروپا برای ساخت این صورت فلکی ماهواره‌ای توسط کنسرسیومی متشکل از بزرگترین نام‌های عرصه فضا و مخابرات اروپا پاسخ داده شد.

از ایرباس و یوتل‌ست گرفته تا دویچ‌تله‌کام و تالس نام‌های بزرگی پا به عرصه گذاشته‌اند.

کنسرسیوم اعلام کرده که صورت فلکی ماهواره بر اساس یک معماری چند مداری که با قابلیت تعامل اکوسیستم زمینی داشته باشد، ساخته خواهد شد.

آژانس فضایی اروپا (ESA) تجربه زیادی در ساخت منظومه ماهواره‌ای مانند گالیله و کوپرنیک دارد که اکنون در مدار هستند. با این حال عرضه اینترنت و رقابت با استارلینک که حالا محبوبیتش تثبیت شده و در حال گسترش منظومه ماهواره‌ای خود است، سرعت و انرژی بالایی نیاز دارد.

عوامل ریز و درشت بسیاری در راه موفقیت پروژه اروپایی رقیب استارلینک وجود دارد. استارلینک حداقل چند سال از همه رقبا جلوتر است و با استفاده از تکنولوژی بی‌همتای موشک‌ قابل استفاده مجدد فالکون هر لحظه فاصله‌اش را از دیگران بیشتر می‌کند. بنابراین برای رقابت با استارلینک باید بسیار سریع عمل کرد که این سرعت‌عمل در ذات خود با وجود چنین کنسرسیوم بزرگ و پیچیده‌ای امکان‌پذیر نمی‌نماید.

اروپایی‌ها قصد دارند تا سال ۲۰۲۷ پوشش جهانی اینترنت را با استفاده از منظومه ماهواره‌ای خود فراهم کنند. برای پی بردن به اینکه این کنسرسیوم با نام‌های بزرگش توان چنین کاری را دارد، باید منتظر ماند و نظاره کرد.

محدودیت‌های هوش مصنوعی مایکروسافت رفع شد

جمعه, ۱۵ ارديبهشت ۱۴۰۲، ۰۱:۴۹ ب.ظ | ۰ نظر

اکنون برای استفاده از چت‌بات هوش مصنوعی بینگ مبتنی‌بر GPT-4 فقط به حساب کاربری مایکروسافت نیاز دارید.
به گزارش خبر آنلاین مایکروسافت امروز چت‌بات بینگ مبتنی‌بر GPT-4 را دردسترس عموم کاربران قرار داد و برای استفاده از این هوش مصنوعی دیگر نیازی به ثبت‌نام در فهرست انتظار نیست. درواقع برای دسترسی به این ابزار فقط باید وارد حساب مایکروسافت خود شوید. درحال حاضر این چت‌بات به‌صورت پیش‌نمایش ارائه شده و غول فناوری اهل ردموند درحال اضافه کردن ویژگی‌های جدید و حتی پشتیبانی از افزونه است.

دسترسی عمومی به نسخه‌ی پیش‌نمایش بینگ مبتنی‌بر GPT-4 حدود دوماه پس‌از راه‌اندازی اولیه‌ی این به‌روزرسانی انجام می‌شود. هوش مصنوعی جدید بینگ ابتدا به‌صورت پیش‌نمایش خصوصی دردسترس قرار گرفت و مایکروسافت به‌تدریج امکان استفاده از آن را دراختیار تعداد بیشتری از کاربران قرار داد.

مایکروسافت اکنون قابلیت‌های هوشمند بیشتری را به چت‌بات بینگ اضافه کرده است که ازجمله می‌توان به نمایش تصاویر ویدیوها در نتایج جستجو اشاره کرد. علاوه‌براین پشتیبانی از افزونه‌ها به‌زودی در بینگ جدید فعال خواهد شد؛ قابلیتی که در تعیین موفقیت چت‌بات مایکروسافت در آینده، نقشی کلیدی دارد.

به‌نوشته‌ی ورج، مایکروسافت با همکاری OpenTable، افزونه‌ی رزرو رستوران را به چت‌بات بینگ اضافه خواهد کرد. این شرکت اواخر ماه جاری و در جریان کنفرانس بیلد خود، جزئیات بیشتری درمورد ویژگی‌های جدید بینگ ارائه خواهد داد. در این رویداد همچنین نگاهی جامع‌تر به روش توسعه‌ی افزونه‌های جدید برای چت‌بات بینگ خواهیم داشت.

قوانین جدید چین برای محدودسازی هوش مصنوعی

چهارشنبه, ۱۳ ارديبهشت ۱۴۰۲، ۱۰:۳۲ ب.ظ | ۰ نظر

به دنبال اعمال محدودیت به منظور مهار توسعه سریع ابزارهای هوش مصنوعی مولد در سراسر جهان، سازمان ناظر بر اینترنت چین نیز مجموعه قوانین جدیدی برای شرکت‌هایی که خدماتی مشابه ChatGPT ارائه می‌دهند را معرفی کرده است.

به گزارش خبرگزاری صدا و سیما؛  طبق مقررات پیشنهادی که توسط اداره فضای سایبری چین (CAC) منتشر شده است، شرکت‌هایی که خدمات مولد هوش مصنوعی در این کشور ارائه می‌کنند باید اقداماتی را به منظور جلوگیری از نشر محتوای تبعیض‌آمیز، اطلاعات نادرست و محتوایی که به حریم خصوصی شخصی یا مالکیت معنوی آسیب می‌زند، انجام دهند.

CAC در بیانیه‌ای اعلام کرد که کسب و کارها باید مطمئن شوند که خدماتشان به ارزش‌های سوسیالیستی چین احترام گذاشته و محتوایی تولید نکنند که حاکی از براندازی رژیم، ترویج خشونت و غیراخلاقی بوده یا نظم اقتصادی و اجتماعی را مختل کند. سازمان ناظر بر اینترنت چین معتقد است که طبق مقررات سال ۲۰۱۸ این کشور،‌ تمام محصولات مولد هوش مصنوعی باید قبل از ارائه به عموم، توسط CAC مورد ارزیابی امنیتی قرار بگیرد.

هوش مصنوعی مولد که محتوایی بر اساس پیام‌های متنی، تصویری یا صوتی ایجاد می‌کند، پس از راه‌اندازی ربات مکالمه ChatGPT توسط شرکت آمریکایی OpenAI، در چین توجهات را خود جلب کرده است، اما از آنجایی که در این کشور ChatGPT در دسترس قرار ندارد، شرکت‌های داخلی برای راه‌اندازی فناوری‌هایی مشابه آن به رقابت پرداخته‌اند. بیدو ماه گذشته از هوش مصنوعی Ernie Bot رونمایی کرد و علی‌بابا هم Tongyi Qianwen را به عنوان هوش مصنوعی مولد خود معرفی کرد. با این حال، افزایش علاقه به هوش مصنوعی مولد مقامات چینی را بر آن داشته که خطرات این حوزه را زیر نظر داشته باشند.

سایر کشورها نیز در حال بررسی مقررات مربوط به هوش مصنوعی مولد هستند. وزارت بازرگانی آمریکا و اتحادیه در حال ارزیابی چگونگی سیاست گذاری در این زمینه هستند و ایتالیا هم اولین کشور غربی بود کهChatGPT را به دلیل نگرانی‌هایی در خصوص حفظ حریم خصوصی ممنوع اعلام کرد. CAC در حال ارزیابی بازخوردها درمورد قوانین پیشنهادی خود در زمینه هوش مصنوعی مولد تا ۱۰ می (۲۰ اردیبهشت) است.

ترکیه، آلمان و هند در صدر متقاضیان سانسور در توییتر

چهارشنبه, ۱۳ ارديبهشت ۱۴۰۲، ۱۰:۳۰ ب.ظ | ۰ نظر

داده‌های توییتر نشان می‌دهد سه کشور ترکیه، آلمان و هند در صدر کشور‌هایی قرار دارند که از توییتر درخواست سانسور محتوا را می‌کنند.

به گزارش باشگاه خبرنگاران داده‌ها نشان می‌دهد که توییتر تحت مالکیت جدید با بیشتر درخواست‌های دولت‌های مختلف برای سانسور کاربران یا توییت‌هایشان موافقت کرده است.

به گزارش الجزیره، داده‌های گزارش‌شده توییتر نشان می‌دهد که پس از اینکه ایلان ماسک این پلتفرم را تصاحب کرد، توییتر با تقریباً تمام درخواست‌های دولت‌ها برای حذف محتوا موافقت کرده است.

این غول رسانه‌های اجتماعی به طور کامل یا جزئی با ۹۸.۸ درصد درخواست‌های حذفی که از ۲۷ اکتبر، تاریخ تصاحب ماسک، تا ۱۳ آوریل دریافت کرده بود، موافقت کرده است؛ از جمله صد‌ها درخواست از ترکیه و هند، که به دلیل ساکت کردن منتقدان با انتقاد مواجه هستند.

بر اساس داده‌های توییتر گردآوری شده توسط مرکز برکمن برای جامعه اینترنت در دانشکده حقوق هاروارد، توییتر یا به طور کامل با ۸۳ درصد از درخواست‌ها موافقت کرد و یا تا حدی با ۱۵۴ درصد این درخواست‌های سانسور را انجام داده است.

ترکیه مسئول نیمی از درخواست‌های حذف بود و پس از آن آلمان و هند به ترتیب ۲۶ و ۵ درصد بودند. این داده‌ها سوالاتی را در مورد تعهد اعلام شده ماسک به حفاظت از آزادی بیان ایجاد می‌کند. تحت مالکیت قبلی توییتر، این سایت رسانه اجتماعی با نرخ کمتری از درخواست‌های حذف توسط دولت پیروی می‌کرد./

آغاز اجرای قانون جدید اروپا برای غول‌های فناوری

چهارشنبه, ۱۳ ارديبهشت ۱۴۰۲، ۱۰:۲۹ ب.ظ | ۰ نظر


از امروز قانون بازارهای دیجیتال اتحادیه اروپا اجرا می شود و پلتفرم های دروازه بان اینترنت مشمول قانونی جدید می شوند که محدودیت ها و مسئولیت های مختلفی را برای آنها دارد.

به گزارش خبرگزاری مهر به نقل از تک کرانچ، شرکت های بزرگ فناوری باید امروز را در تقویم خود علامت بزنند زیرا قانون بازارهای دیجیتال(DMA) اکنون به طور فنی قابل اجرا است. این قانون در حقیقت برنامه اتحادیه اروپا برای کنترل قدرت شرکت های بزرگ فناوری است.

نقطه عطف مهم در این فرایند چندماه دیگر و در اوایل پاییز اتفاق می افتد. هنگامیکه کمیسیون اتحادیه اروپا تایید می کند کدامیک از شرکت های بزرگ فناوری باید از رژیم قانونی جدید اتحادیه پیروی کنند. اما شرکت های بزرگ فناوری تابستانی شلوغ را در پیش دارند و باید خود را برای ایجاد استراتژی پیروی از قوانین آماده کنند.

البته باید توجه داشت قانون بازارهای دیجیتال شامل مجموعه ای از وظایف است که برای دروازه بانان اینترنتی با مشخصات خاصی وضع شده است. نخست آنکه شرکت های مشمول این قانون باید حداقل یک پلتفرم خدمت رسانی مرکزی داشته باشند. این نوع شرکت ها شامل موتورجستجوهای آنلاین، شبکه های اجتماعی ، فروشگاه های اپ، برخی پیام رسان ها، دستیارهای هوش مصنوعی، مرورگرهای وب، سیستم های عامل و سرویس های واسطه گری آنلاین می شود.

در درجه دوم شرکت های مشمول DMA باید حجم وسیعی داشته باشند و موقعیت آنها در بازار تثبیت شده باشد. این بدان معناست که گزارش درآمد سالانه آنها در منطقه اقتصادی اروپا در سه ماهه مالی آخر هر سال بیش از ۷.۵ میلیارد یورو باشد یا میانگین ارزش بازاری آنها در یک سال مالی گذشته حداقل ۷۵ میلیون یورو باشد.

علاوه بر آن شرکت باید حداقل در ۳ کشور عضو اتحادیه اروپا پلتفرم سرویس های مرکزی خود را ارائه کند.

دروازه‌بانان اینترنت همچنین باید «دروازه مهمی برای کاربران تجاری به سوی مصرف‌کنندگان نهایی» باشند زیرا همانطور که کمیسیون اتحادیه اعلام کرده DMA مشمول شرکتهایی می شود که ماهانه بیش از ۴۵ میلیون کاربر فعال در اتحادیه اروپا داشته باشند. همچنین تعداد کاربران تجاری فعال آنها در سال گذشته باید بیش از ۱۰ هزار مورد باشد.

در آخر در صورتی که شرکت سایر معیارها را در هر یک از سه سال مالی گذشته رعایت کرده باشد، موقعیت آن تثبیت شده و بادوام به حساب می آید. اگرچه کمیسیون ممکن است زیرمجموعه ای از قوانین DMA را برای شرکت هایی اعمال کند که احتمالا به زودی دروازه بان اینترنت می شوند.

به طور حتم شرکت های بزرگی مانند اپل ، آمازون، گوگل، متا و مایکروسافت دروازه بان اینترنتی به حساب می آیند. اما باید چند ماه دیگر منتظر ماند تا فهرست کامل شرکت های مشمول قانون مشخص شود.

در بیانیه کمیسیون اتحادیه اروپا آمده است: اکنون که DMA اجرا می شود، دروازه بانان احتمالی اینترنت تا ۳ جولای فرصت دارند خدمات پلتفرم اصلی خود را به کمیسیون اطلاع دهند. پس از آن کمیسیون ۴۵ روز کاری (تا۶ سپتامبر ۲۰۲۳) فرصت خواهد داشت تا تصمیم بگیرد که آیا شرکت شامل قانون می شود یا خیر و در نهایت دروازه بانان اینترنتی را تعیین کند. پس از تعیین شرکت های مذکور، دروازه بانان شش ماه (یعنی تا ۶ مارس ۲۰۲۴) فرصت خواهند داشت تا از الزامات DMA پیروی کنند.

هوش مصنوعی نسل بشر را نابود می‌کند

چهارشنبه, ۱۳ ارديبهشت ۱۴۰۲، ۱۰:۱۰ ب.ظ | ۰ نظر

یک فیزیک دان در سال‌های پایانی زندگی خود هشدار داد که هوش مصنوعی می‌تواند به معنای پایان نسل بشر باشد.
به گزارش باشگاه خبرنگاران مدت‌ها قبل از اینکه ایلان ماسک و استیو وازنیک بنیانگذار اپل نامه‌ای در مورد خطرات عمیق هوش مصنوعی برای بشریت را امضا کنند، استیون هاوکینگ فیزیکدان، زنگ خطر را در مورد این فناوری به سرعت در حال تکامل به صدا درآورده بود.

هاوکینگ در مصاحبه‌ای در سال ۲۰۱۴ گفت: توسعه هوش مصنوعی کامل می‌تواند پایان نسل بشر باشد.

هاوکینگ که بیش از ۵۵ سال از بیماری اسکلروز جانبی آمیوتروفیک (ALS) رنج می‌برد، سال ۲۰۱۸ در سن ۷۶ سالگی درگذشت. اگرچه او اظهارات انتقادی در مورد هوش مصنوعی داشت، اما از شکل بسیار ابتدایی این فناوری برای برقراری ارتباط استفاده کرد. بیماری او، عضلات را ضعیف می‌کرد و هاوکینگ را مجبور به استفاده از ویلچر کرد. او در سال ۱۹۸۵ دیگر قادر به صحبت کردن نبود و به روش‌های مختلفی برای برقراری ارتباط متکی بود، از جمله دستگاه تولید کننده گفتار که توسط اینتل اداره می‌شد و به او اجازه می‌داد از حرکات صورت برای انتخاب کلمات یا حروفی که با گفتار ترکیب می‌شوند استفاده کند.

هاوکینگ گفت که اشکال بسیار ابتدایی هوش مصنوعی قبلاً قدرتمند بوده‌اند، اما ایجاد سیستم‌هایی که با هوش انسانی رقابت می‌کنند یا از آن پیشی می‌گیرند می‌تواند برای نسل بشر فاجعه‌بار باشد.

او در کتاب خود ذکر کرده که رایانه‌ها احتمالاً در عرض ۱۰۰ سال از انسان‌ها در هوش پیشی خواهند گرفت. او نوشت: ما ممکن است با یک انفجار اطلاعاتی مواجه شویم که در نهایت منجر به ماشین‌هایی می‌شود که هوش آن‌ها بیش از هوش ما است.

او استدلال کرد که کامپیوتر‌ها باید برای هماهنگی با اهداف انسانی آموزش ببینند و افزود که جدی نگرفتن خطرات مرتبط با هوش مصنوعی می‌تواند بدترین اشتباه ما باشد.

اظهارات هاوکینگ بازتاب نگرانی‌های امسال غول فناوری، ایلان ماسک و استیو وزنیاک، بنیانگذار اپل است. این دو رهبر فناوری، همراه با هزاران متخصص دیگر، نامه‌ای را امضا کردند و در آن خواستار توقف حداقل شش ماهه ساخت سیستم‌های هوش مصنوعی قدرتمندتر از ربات گفت و گوی چت‌جی‌پی‌تی شدند.

علی‌رغم درخواست‌ها برای توقف تحقیقات در آزمایشگاه‌های هوش مصنوعی که بر روی فناوری‌هایی که از GPT-۴ پیشی می‌گیرند، انتشار این سیستم نقطه عطفی بود و شرکت‌های مختلف را وادار کرد تا در ساخت سیستم‌های هوش مصنوعی با هم رقابت کنند.

دستگیری شاخ‌های مجازی عراق با اپلیکیشن بالغ

چهارشنبه, ۱۳ ارديبهشت ۱۴۰۲، ۱۰:۰۷ ب.ظ | ۰ نظر

در اوایل سال جاری، وزارت کشور عراق اپلیکیشنی به نام بالغ (Ballegh) را با سر و صدای زیادی راه اندازی کرد. دولت بغداد از آن به عنوان فرصتی برای هر کسی در عراق یاد کرد تا به دولت کمک کند تا پست های رسانه های اجتماعی را که "توهین آمیز" هستند شناسایی کند.
به گزارش سایبربان، مشکل این است که دولت «توهین آمیز» را تعریف نکرده است، که همین امر به بغداد اجازه داده است تقریباً هر کسی را پس از اینکه محتوای آنها را «ناشایست» تلقی کرد، سرکوب و دستگیر کند.
فعالان دیجیتال و حقوق بشر می گویند که موجودیت بالغ در برابر مفاد آزادی بیان که در قانون اساسی عراق پس از صدام حسین در 20 سال پیش درج شده بود، تضعیف می شود. ایاد راضی، مدیر فناوری اطلاعات در وزارت کشور که مسئول این اپلیکیشن است، در یک مصاحبه مکتوب می‌گوید که دولت فقط از «ارزش‌های خانوادگی» محافظت می‌کند.
به نظر می رسد که مردم عادی عراق از این تلاش استقبال می کنند. وزارت کشور نیز می گوید که از زمان معرفی این پلتفرم در ژانویه، بیش از 144 هزار گزارش دریافت کرده است. راضی، نحوه عملکرد آن را توضیح می دهد و نظرات او برای وضوح، ویرایش و فشرده شده است.

ایاد راضی: زمانی که یک شهروند گزارشی از «بالغ» می دهد، یک رکورد در پایگاه داده ایجاد می شود و به عنوان «مورد جدید» علامت گذاری می شود. تیمی از مدیران، پرونده‌های جدید را بررسی می‌کنند و تصمیم می‌گیرند که آیا یک پرونده حداقل مقدار اطلاعات را دارد تا آن را به بخش پلیسی منتقل کند، جایی که پرونده برای آنچه واجد شرایط بودن مدرک است تجزیه و تحلیل می‌شود، و اگر چنین است، به زنجیره بالا می‌رود.
خبرنگار: و چگونه تشخیص می دهید که چه چیزی ناشایست یا غیراخلاقی است؟
ایاد راضی: این به کمیته - که دارای یک افسر، یک قاضی، محققان اجتماعی و متخصصان جامعه است - واگذار می شود تا تصمیم بگیرد. بنابراین این هرگز یک نفر نیست که تصمیم می گیرد. کمیته یک جزء اصلی در زنجیره است، زیرا کمیته گزارش‌ها را روزانه پردازش می‌کند و در صورت داشتن شواهد مجرمانه، آن‌ها را به سطح بعدی ارتقا می‌دهد.
خبرنگار: شما ده ها هزار گزارش دریافت می کنید. چگونه اندازه تیمی که این گزارش ها را ارائه می دهد، تعیین می کنید؟
ایاد راضی: تیم انعطاف پذیر است. اعضای کارکنان بر حسب تقاضا و مطابق با تعداد گزارش‌های منحصر به فرد روزانه اضافه و حذف می‌شوند. ما الگوریتم های سفارشی سازی شده ای برای جمع آوری گزارش های مشابه داریم. وقتی حادثه/ویدیو/چیزی وایرال شود، هزاران گزارش خواهیم داشت که به همان محتوا اشاره دارند. بنابراین، ما چند الگوریتم داریم که اساساً گزارش های مشابه را گروه بندی می کنند تا بتوان آنها را تحت یک عنوان پردازش کرد.
خبرنگار: عراق آخرین نمونه کشوری در خاورمیانه است که از فناوری برای گزارش فعالیت های رسانه های اجتماعی استفاده می کند. مثلاً ما را به یاد کولانا امین در عربستان می اندازد. به نظر شما شبیه است؟
ایاد راضی: این یک مشاهده جالب است. صادقانه بگویم، ما آن را بر اساس نیاز خود توسعه دادیم، بنابراین آن را با هیچ راه حل دیگری مقایسه نکردیم. ما فقط لیستی از ویژگی های مورد نیاز خود را تهیه کردیم و به حالت ساختن رفتیم.
خبرنگار: برخی می گویند بالغ به مردم اجازه می دهد تا انتقام گیری های شخصی را حل و فصل کنند. چطور به آن پاسخ می دهید؟
ایاد راضی: خب، مردم می توانند چیزهای زیادی بگویند، اما آنچه مهم است نتایج واقعی است. همه افرادی که دستگیر شدند صدها (چند هزار) شکایت از آنها به دلیل فیلم های فحاشی/بزرگسالان وجود داشت. بگذارید این طور بگویم، موارد از منظر حقوقی روشن بود. به همین دلیل است که حتی یک مورد در دادگاه رد نشد.
خبرنگار: آیا در میان کسانی که از بالغ برای گزارش کاربران رسانه های اجتماعی استفاده می کنند، روندهای جمعیتی مشاهده می کنید؟
ایاد راضی: ما هیچ اطلاعاتی در مورد افرادی که گزارش را انجام می دهند جمع آوری نمی کنیم زیرا ناشناس است. با این حال، ما شاهد یک روند جالب بزرگ هستیم و آن این است که مردم بسیار به اخلاق و ارزش های خانواده اهمیت می دهند. بیشترین محتوای گزارش شده معمولاً ویدیویی است که اصول اصلی خانواده عراقی را نقض می کند. بگذارید این طور بگویم، مردم برای خانواده خود با چنگ و دندان می جنگند.
از نظر افرادی که گزارش می شوند، ما افراد 20 تا 30 ساله بدون مدرک دانشگاهی، بدون شغل/اشتغال رسمی را می بینیم.
خبرنگار: آیا شما یک نسخه دوم از بالغ در دست ساخت دارید؟ آیا ویژگی هایی وجود دارد که می خواهید اضافه کنید، که آرزو می کنید داشته باشید؟
ایاد راضی: بالغ به طور مداوم در حال توسعه است، یعنی پنل مدیریت به طور منظم به روز می شود. ما بسیاری از ویژگی‌ها را از تیم‌های مدیریت خود دریافت می‌کنیم که به آنها کمک می‌کند کار خود را به نحو احسن انجام دهند. ما همچنین در حال بهینه سازی الگوریتم های شباهت به طور منظم هستیم. بنابراین همانطور که ما آن را می بینیم، هیچ نسخه 2.0 وجود ندارد زیرا ما در حالت به روز رسانی چرخشی هستیم.
خبرنگار: ما توانستیم به بالغ در ایالات متحده دسترسی پیدا کنیم. آیا در خارج از عراق قابل دسترسی است؟
ایاد راضی: در دسترس بود اما ما هدف حملات انکار سرویس توزیع شده (DDoS)  قرار گرفتیم، بنابراین فعلاً آن را فقط به عراق محدود کرده ایم.
خبرنگار: اگر می‌توانستید یک کار برای بهبود برنامه انجام دهید، آن کار چه بود؟
ایاد راضی: ما به آنچه که هوش مصنوعی اوپن جی پی تی-4 (OpenAI's GPT-4) ارائه می دهد بسیار علاقه مندیم. بنابراین ما به دنبال راه هایی برای ادغام آن با پنل مدیریت برای بهبود شباهت و فرآیند پیش فیلتراسیون هستیم. هر چه بیشتر به آن فکر کنیم، بیشتر آن را به عنوان یک ویژگی ضروری می بینیم.
ما همچنین نوع دوم گزارش را اضافه کردیم که «فساد توسط یکی از اعضای نیروهای امنیتی» است. ما از مردم می‌خواهیم که هرگونه مورد فساد/اخاذی را گزارش کنند.

توقیف صرافی‌های ارز دیجیتال توسط FBI و اوکراین

چهارشنبه, ۱۳ ارديبهشت ۱۴۰۲، ۱۰:۰۵ ب.ظ | ۰ نظر

اف‌بی‌آی و پلیس اوکراین، 9 صرافی ارز دیجیتال را که گفته می‌شد به مجرمان سایبری ارائه خدمت می‌کردند، حذف کردند.
به گزارش سایبربان، بر اساس بیانیه اف بی آی که روز دوشنبه منتشر شد، دفتر دترویت و تیم پاسخگویی به ارز مجازی این آژانس، به همراه پلیس ملی اوکراین و دفتر دادستان کل، فعالیت هماهنگ و مجازی را طبق دستور دادگاه علیه 9 سرویس مبادله ارز مجازی انجام دادند.
دامنه های توقیف شده شامل uxbtc.com، trust-exchange.org، bitcoin24.exchange، paybtc.pro و owl.gold بودند که تبدیل ارزهای دیجیتال ناشناس را ارائه می کردند. اکنون همه سایت ها اعلامیه مصادره را نشان می دهند.
در اطلاعیه اف بی آی ادعا شده بود که صرافی‌ها، که از زبان‌های انگلیسی و روسی پشتیبانی می‌کردند، کنترل‌های ضعیفی برای مبارزه با پولشویی داشتند و اطلاعات حداقلی را در مورد مشتریان جمع‌آوری می‌کردند یا اصلاً هیچ اطلاعاتی را جمع‌آوری نمی‌کردند. این آژانس می نویسد که چنین مبادلاتی به عنوان قطب های مهم در اکوسیستم جرایم سایبری عمل می کنند.
در این بیانیه آمده است:

بسیاری از این خدمات در انجمن‌های آنلاین اختصاص داده شده به بحث درباره فعالیت‌های مجرمانه تبلیغ می‌شوند. بسیاری از فعالیت‌های مجرمانه که در صرافی‌های آسیب‌دیده رخ می‌دهد، شامل عوامل سایبری مسئول باج‌افزار، و همچنین سایر کلاهبرداران و مجرمان سایبری می‌شود.

اف‌بی‌آی و پلیس های بین‌المللی به طور فزاینده‌ای زیرساخت‌هایی را که مجرمان سایبری برای شستشو و جابجایی عواید حاصل از فعالیت‌هایشان به آن متکی هستند، هدف قرار می دهند. در ماه مارس، مقامات ایالات متحده و اروپا، صرافی ارزهای دیجیتال چیپ میکسر (ChipMixer) را تعطیل کردند، که به ادعای آنها 3 میلیارد دلار سود مجرمانه از جمله از جایزه سرقت شده توسط هکرهای کره شمالی از شرکت بازی اکسی اینفینیتی (Axie Infinity) و پلتفرم بلاک چین هاریزون بریج (Horizon Bridge)، به دست آورده بود.