ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۱۸۵۶۴ مطلب با موضوع «others» ثبت شده است

تحلیل


خروج بزرگترین صرافی رمزارز دنیا از کانادا

دوشنبه, ۲۵ ارديبهشت ۱۴۰۲، ۰۳:۳۱ ب.ظ | ۰ نظر

بزرگترین صرافی ارز دیجیتال جهان از نظر حجم، در توییتی اعلام کرد که قصد دارد فعالیت خود را در کانادا متوقف کند.
به گزارش خبرگزاری تسنیم به نقل از راشاتودی، بایننس، بزرگترین صرافی ارز دیجیتال جهان از نظر حجم، در توییتی در روز جمعه اعلام کرد که قصد دارد فعالیت خود را در کانادا متوقف کند.

بایننس مقررات جدید حاکم بر صنعت رمزارز کانادا را که فعالیت آن را در این کشور پیچیده کرده، به عنوان علت این تصمیم ذکر کرده است.

در این توییت آمده است: امروز اعلام می‌کنیم که بایننس برای خروج فعالانه از بازار کانادا به سایر کسب‌وکارهای برجسته ارزهای دیجیتال ملحق خواهد شد... ما امید زیادی به بقیه صنعت بلاک چین کانادا داشتیم. متأسفانه، دستورالعمل‌های جدید مربوط به استیبل کوین‌ها و محدودیت‌های سرمایه‌گذاری برای صرافی‌های رمز ارز باعث می‌شود در حال حاضر بازار کانادا دیگر برای بایننس قابل توجیه نباشد.

افزایش تمایل برای پوشش بیمه‌ای جرایم سایبری

دوشنبه, ۲۵ ارديبهشت ۱۴۰۲، ۰۲:۴۳ ب.ظ | ۰ نظر

شرکت جهانی کارگزاری بیمه و مدیریت ریسک مارش، شاهد افزایش علاقه به پوشش های بیمه سایبری از سوی شرکت های بزرگ در بحبوحه افزایش هزینه های سرقت داده ها در کشور بوده است.
به گزارش سایبربان، یک مطالعه توسط آی بی ام (IBM) نشان می دهد که میانگین هزینه سرقا داده ها در هند در سال 2022، 2.32 میلیون دلار بوده است که نسبت به 2.21 میلیون دلار در سال 2021، نرخ افزایشی را نشان می دهد. در سطح جهانی، متوسط هزینه سرقت داده ها از 4.24 میلیون دلار به 4.35 میلیون دلار در سال 2022 افزایش یافته است.
آژانس اصلی هند برای پاسخگویی به حوادث امنیتی رایانه ای (Cert In) در گزارشی در ماه گذشته اعلام کرده بود که در سال 2022 حوادث باج افزار افزایش 53 درصدی داشته است و صنعت فناوری اطلاعات و خدمات فعال فناوری اطلاعات (ITeS) عمدتاً تحت تأثیر مالی و تولید قرار گرفته اند. بازیکنان باج‌افزار همچنین سازمان‌های زیرساختی حیاتی را هدف قرار می دهد و خدمات حیاتی را برای استخراج باج‌گیری مختل می کند.
این امر شرکت ها و موسسات بیشتری را بر آن داشته تا به سراغ پوشش بیمه سایبری بروند.
آنوپ دینگرا، مدیرعامل فین پرو (Finpro) و سهام دار خصوصی ادغام و تملک مارش هندوستان (Marsh India) می گوید:

آنچه قبلاً یک بار در هفته خرید می شد، اکنون تقریباً به یک چیز روزمره تبدیل شده است. آنچه قبلاً یک نوع نمایشنامه 10 تا 20 میلیون دلاری بود به یک نمایشنامه 100 میلیون دلاری تبدیل شده است.

در حالی که پذیرندگان اولیه بیمه‌های سایبری عمدتاً بانک‌ها، مؤسسات مالی و شرکت‌های فناوری بودند، اکنون بیمارستان‌ها، دانشگاه‌ها و حتی هتل‌ها و رستوران‌ها نیز در میان پیچیدگی فزاینده سرقت ها و هزینه‌های مرتبط، گزینه‌های بیمه سایبری را بررسی می‌کنند.
دینگرا در ادامه می افزاید: رویکرد معمول افسران ارشد امنیت اطلاعات (CISOs) به جای خرید بیمه، پرداخت پول بیشتر برای ایجاد امنیت و دفاع می باشد.
امروز این موضوع بسیار متفاوت است و هیئت‌ها در مسیری میانی بین اجتناب از ریسک و کاهش ریسک که بخش سرمایه و همچنین انتقال ریسک با پرداخت هزینه متناهی بیمه است، در پیش می‌گیرند. این تغییر بزرگی است که ما شاهد آن بوده‌ایم.

نگرانی غرب از گسترش جنگ سایبری روسیه

دوشنبه, ۲۵ ارديبهشت ۱۴۰۲، ۰۲:۴۲ ب.ظ | ۰ نظر

کارشناسان غربی از یک کلیک موس و تصور گسترش جنگ سایبری روسیه وحشت دارند.
به گزارش سایبربان؛ کارشناسان معتقدند که نشانه‌های بیشتری در حال ظهور است که روسیه از ابزارهای دیجیتالی برای به راه انداختن جنگ با اوکراین در ارتباط با اشکال فیزیکی مرسوم‌تر استفاده می‌کند؛ این شامل استفاده از حملات سایبری هدفمند است. معاون سرویس امنیت اوکراین (SSU) اظهار داشت که مسکو مسئول تقریباً 1200 حمله سایبری و سایر حوادث مهم سایبری در 3 ماه اول سال 2023 بوده است.

جی‌پی پرز اِچِگوین (JP Perez-Etchegoyen)، مدیر ارشد فناوری «Onapsis»، در گفتگو با «Digital Journal» درخصوص انواع فعالیت‌های مرتبط با روسیه اظهار داشت : «اختلال و ناآرامی سیاسی می‌تواند تأثیر گسترده‌ای بر بقیه جهان داشته باشد. امنیت سایبری در حال حاضر یکی از دغدغه‌های اولویت‌دار سازمان‌ها است، زیرا نقض داده‌ها و حملات سایبری به طور غیرقابل انکاری در حال افزایش است و هکرها به طور فزاینده‌ای پیچیده و مداوم می‌شوند. اگر کسب‌وکارها می‌خواهند در برابر موج سایبری مقاومت کنند و دفاع‌های مناسب را به کار گیرند، باید تدابیری را در نظر بگیرند.»

وی افزود که برای جلوگیری از خطرات و تأثیرات یک حمله سایبری، کسب‌وکارها باید به محیط امنیت سایبری فعلی خود نگاه کنند، به‌ویژه در رابطه با برنامه‌های کاربردی حیاتی تجاری‌شان که اغلب نادیده گرفته می‌شوند.

او از نظر فعالیت‌هایی که شرکت‌ها می‌توانند در نظر بگیرند، توصیه کرد : «برنامه‌های کاربردی حیاتی برای مجرمان سایبری هدف بسیار جذابی هستند زیرا برای عملیات‌های روزمره ضروری هستند. اگر تداخل با آن بر تداوم کسب‌وکار تأثیر بگذارد و اگر داده‌های حساس به سرقت رفته یا غیرقابل دسترس شود، می‌تواند عواقب مخربی نه تنها برای خود کسب‌وکار، بلکه برای مشتریان، تأمین‌کنندگان و شرکای آن داشته باشد.»

به گفته اِچِگوین، هوش تجاری و به اشتراک گذاری اطلاعات نیز اهمیت دارند؛ فناوری‌های کنونی نیز باید مورد استفاده قرار گیرند : به این ترتیب، سازمان‌ها باید بتوانند نه تنها تهدیدات را شناسایی کنند و به سرعت به آنها پاسخ دهند، بلکه هر گونه آسیب‌پذیری را شناسایی کنند و کاهش دهند تا از حفاظت از داده‌های حیاتی تجاری اطمینان حاصل کنند.

وی ضمن تأکید بر پیشی گرفتن از اقدامات عوامل جنایتکار و دولت‌های سرکش مدعی شد : «با اتخاذ فناوری‌هایی که امکان مدیریت یکپارچه تهدید، ریسک و انطباق را در کل سازمان فراهم می‌کنند، کسب و کارها قادر خواهند بود به جای اقدامات واکنشی و امنیت سایبری، پیشگیرانه اقدام کنند. فرهنگ شرکتی نیز مهم است، همراه با اینکه همه سهم خود را در شرکت ببینند. تبدیل امنیت سایبری به یک مسئولیت جمعی مشترک بین همه، علاوه بر ادغام راه‌حل‌های امنیت سایبری قوی، کلید تضمین ایمنی و امنیت سازمان‌ها در سراسر بریتانیا خواهد بود.»

فیلترینگ توییتر، فیسبوک و یوتیوب در پاکستان

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۶:۰۶ ب.ظ | ۰ نظر

منابع رسانه‌های از مسدود شدن دوباره شبکه‌های اجتماعی «فیسبوک»، «یوتیوب» و «توییتر» در پاکستان خبر دادند.

به گزارش فارس، همزمان با بروز ناآرامی‌ها در پاکستان، منابع خبری روز شنبه گزارش کردند که شبکه‌های اجتماعی «فیسبوک»، «یوتیوب» و «توییتر» روز شنبه در  این کشور از دسترس خارج شدند.

به گزارش وبگاه «اکسپرس تریبون» وزارت کشور پاکستان  سه شنبه گذشته در بحبوحه ناآرامی‌ها پس از دستگیری « عمران خان» نخست وزیر سابق خدمات پهنای باند تلفن همراه را در سراسر کشور کاهش داد و دسترسی به فیس بوک، یوتیوب و توییتر را مسدود کرد.

سه شنبه گذشته،  بعد از بازداشت «عمران خان»، نخست وزیر سابق  اعتراضات و درگیری‌های شدید در شهرهای مختلف پاکستان صورت گرفت که به کشته شدن حداقل ۸ نفر و بازداشت حدود ۲ هزار نفر انجامید. دادگاه عالی پاکستان روز جمعه بازداشت عمران خان را غیرقانونی خواند. 

نخست وزیر سابق پاکستان روز شنبه قوه قضاییه این کشور را از عوامل ضعف دموکراسی در پاکستان خواند.  عمران خان درست  یک روز پس از آزادی با قید وثیقه گفت که دموکراسی پاکستان با یک رشته نخ به قوه قضاییه آویزان شده است.عمران خان آوریل ۲۰۲۲ با رای عدم اعتماد پارلمان پاکستان از نخست‌وزیری برکنار شد. او برکناری خود از قدرت را غیرقانونی و بخشی از توطئه غربی خوانده است.

معترضان در مخالفت با بازداشت عمران خان به برخی نهادهای نظامی حمله کردند و برخی ساختمان‌ها و اماکن دولتی را به آتش کشیدند. دولت در واکنش به این وضعیت، ارتش را برای کمک به برقراری نظم فراخواند.

به نوشته اکسپرس تریبون، در حالیکه جمعه شب این شبکه‌های اجتماعی در دسترس بودند، اما روز شنبه بار دیگر مسدود شدند. به دلیل تعلیق خدمات اینترنتی، شرکت‌های مخابراتی در پاکستان شاهد زیان ۲.۴۶ میلیارد روپیه‌ای بودند. قطع ناگهانی خدمات اینترنتی بدون برنامه ریزی موجب اخلال در زندگی روزمره مردم در پاکستان شده است.

جریمه گوگل برای تبلیغات دروغ

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۵:۵۵ ب.ظ | ۰ نظر

بنا بر بیانیه دادستان ایالت تگزاس آمریکا، گوگل باید در تبلیغاتش ادعا‌های واقعی داشته باشد.

به گزارش باشگاه خبرنگاران به گفته دادستان ایالت تگزاس آمریکا، گوگل توافق کرده برای تسویه ادعا‌های مربوط به تبلیغات فریبکارانه گوشی پیکسل ۴، ۸ میلیون دلار بپردازد.

این غول جست‌وجوی اینترنتی و تبلیغاتی که موبایل‌های اندروید و نرم افزار می‌سازد و البته مالک یوتیوب نیز است با سختگیری‌هایی در حوزه آنتی تراست و حمایت از مصرف کننده از سوی دولت فدرال و دادستان کل ایالت روبرو شده است. دولت فدرال آمریکا نیز ۲ شکایت آنتی تراست علیه گوگل ثبت کرده است.

دفتر ژنرال کن پاکستون، دادستان ایالت تگزاس آمریکا در خصوص این پرونده مدعی شد گوگل گویندگان رادیویی را استخدام کرده تا درباره پیکسل۴ توضیحاتی ارائه دهند، هرچند شرکت به آن‌ها اجازه نداده بود از موبایل استفاده کنند.

در بیانیه دادستان ایالت تگزاس آمریکا آمده است: اگر قرار است گوگل در تگزاس تبلیغات انجام دهد، بهتر است ادعاهایشان واقعی باشد. در این خصوص شرکت ادعا‌هایی کرد که کاملا غلط بودند و طبق قوانین تسویه ما، گوگل مسئول دروغ گفتن به مردم تگزاس برای دستیابی به سود مالی است.

گوگل در بیانیه‌ای اعلام کرد به طور جدی از قوانین مربوط به آگهی‌ها پیروی می‌کند.

تصمیم توییتر در ایجاد محدودیت برای دسترسی کاربران ترکیه ای با انتقاد کابران فضای مجازی روبرو و ایلان ماسک به عدم پایبندی به آزادی بیان متهم شد.

به گزارش ایرنا، یکی از حساب های رسمی این رسانه اجتماعی دیروز (۲۳ اردیبهشت) و یک روز قبل از برگزاری انتخابات ریاست جمهوری و پارلمانی ترکیه خبر داد که برای مسدود نشدن توییتر در این کشور ، این رسانه اجتماعی به محدودیت برخی از مطالب برای کاربران داخل ترکیه تن داده است.

در ادامه این توییت آمده که کاربرانی که مطالب آنان در ترکیه فیلتر خواهد شد، از این تصمیم مطلع شده اند. با این حال این محتوا در دیگر نقاط دنیا در دسترس خواهد بود.

ایلان ماسک مالک توییتر در توییتی از این تصمیم دفاع کرد و نوشت: شما بودید بین ممنوعیت کامل توییتر و محدودیت دسترسی به برخی از توییت ها کدام را انتخاب می کردید؟

در پی زلزله ۷.۸ ریشتری زمستان گذشته، دولت ترکیه مدتی کوتاه دسترسی به توییتر را قطع و آن را فیلتر کرده بود.

جیمی ولز، بنیانگذار فرهنگنامه آنلاین ویکی پدیا امروز در توییتی به ماسک واکنش نشان داد و نوشت: باید مثل ویکی پدیا عمل می کردی. ما بر اصولمان پافشاری کرده، قضیه را به دیوان عالی ترکیه کشانده و پیروز شدیم. این همان پایبندی عملی و نه شعاری به آزادی بیان است.

کاربران توییتر نیز یکی از توییت های پارسال ایلان ماسک را برای یادآوری او بازنشر کردند که به درخواست "برخی از دولت ها" که خواهان فیلتر رسانه های روس در اینترنت ماهواره ای استارلینک شده بودند، واکنش نشان داده و نوشته بود: چنین کاری را انجام نخواهیم داد مگر به زور اسلحه. شرمنده که حامی بی چون و چرای آزادی بیان هستیم.

اروپا پیشتاز تصویب قوانین هوش مصنوعی

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۵:۳۰ ب.ظ | ۰ نظر

بسیاری از دولت‌ها در جهان در حال رقابت برای تدوین قوانینی در زمینه هوش مصنوعی هستند؛ از جمله اتحادیه اروپا که روز پنجشنبه پیش‌نویس قانون اولیه هوش مصنوعی را تصویب کرد.

به گزارش خبرگزاری صداوسیما به گزارش نشریه آمریکایی سنتینل تریبون، کمیته پارلمان اروپا به پیشنهاد قانونی رأی داد که بخشی از تلاش چند ساله در راستای ایمنی استفاده از فناوری هوش مصنوعی است. 

این تلاش‌ها فوریت بیشتری پیدا کرده‌اند، زیرا پیشرفت‌های سریع چت‌بات‌هایی مانند «چت جی پی تی» مزایایی را که فناوری نوظهور می‌تواند به همراه داشته باشد و خطرات جدیدی که ایجاد می‌کند، برجسته می‌کند.

 

قوانین چگونه کار می‌کنند؟

قانون هوش مصنوعی که برای اولین بار در سال ۲۰۲۱ ارائه شد، بر هر محصول یا خدماتی که از سیستم هوش مصنوعی استفاده می‌کند، نظارت دارد. 

این قانون، سیستم‌های هوش مصنوعی را بر اساس چهار سطح خطر، از حداقل تا غیرقابل قبول طبقه‌بندی می‌کند. برنامه‌های پرخطرتر با الزامات سخت‌تری مواجه خواهند شد، از جمله شفاف‌تر بودن و استفاده از داده‌های دقیق. 

 

خطرات چیست؟

یکی از اهداف اصلی اتحادیه اروپا محافظت در برابر هرگونه تهدید هوش مصنوعی برای سلامت، ایمنی، حفاظت از حقوق و ارزش‌های اساسی است.

این بدان معناست که برخی از استفاده‌های هوش مصنوعی یک «نه» مطلق هستند، مانند سیستم‌های امتیاز اجتماعی که افراد را بر اساس رفتارشان قضاوت می‌کنند. 

هوش مصنوعی که از افراد آسیب‌پذیر از جمله کودکان بهره‌کشی می‌کند یا می‌تواند منجر به آسیب شود، ممنوع است.

قانونگذاران اروپایی استفاده از ابزار‌های پلیسیِ پیش‌بینی کننده محل وقوع جنایات و اینکه چه کسی مرتکب آن‌ها می‌شود را هم ممنوع کردند.

آن‌ها همچنین ممنوعیت گسترده‌ای را برای تشخیص چهره از راه دور تصویب کردند؛ به استثنای اجرای قانون مانند جلوگیری از یک تهدید تروریستی خاص. این فناوری رهگذران را اسکن می‌کند و از هوش مصنوعی برای تطبیق چهره آن‌ها با پایگاه داده استفاده می‌کند.

«براندو بنیفی» قانونگذار ایتالیایی که از مسئولان پیگیر تصویب قانون هوش مصنوعی در پارلمان اروپاست، به خبرنگاران گفت: هدف ما جلوگیری از ایجاد جامعه کنترل‌شده مبتنی بر هوش مصنوعی است. از این فناوری‌ها می‌توان در زمینه‌های مثبت و منفی استفاده کرد و به همین دلیل خطرات آن را بسیار زیاد می‌دانیم.

سیستم‌های هوش مصنوعیِ مورد استفاده در دسته‌های پرخطر مانند اشتغال و تحصیل که بر روند زندگی افراد تأثیر می‌گذارد، با الزامات سختی مانند شفاف بودن با کاربران، اعمال ارزیابی ریسک و اقدامات کاهشی مواجه هستند.

بازوی اجرایی اتحادیه اروپا می‌گوید که بیشتر سیستم‌های هوش مصنوعی، مانند بازی‌های ویدئویی در گروه کم‌خطر یا بدون خطر قرار می‌گیرند.

 

در مورد «چت جی پی تی» چطور؟

در پیشنهاد اولیه ۱۰۸ صفحه‌ای اروپا درباره هوش مصنوعی، به سختی از چت‌بات‌ها نام برده می‌شد به این شکل که صرفاً باید آن‌ها را برچسب‌گذاری کرد تا کاربران بدانند که در حال تعامل با یک ماشین هستند. مذاکره‌کنندگان بعداً مقرراتی را برای پوشش هوش مصنوعی عمومی مانند «چت جی پی تی» اضافه کردند و آن‌ها را در معرض برخی از الزامات مشابه سیستم‌های پرخطر قرار دادند. 

یکی از موارد کلیدی این است که باید به طور کامل هر گونه حق نسخه‌برداری را که برای آموزش سیستم‌های هوش مصنوعی استفاده می‌شود، مستندسازی کنید تا متن، تصویر، ویدئو یا موسیقی شبیه کار انسان تولید کنند. این به سازندگان محتوا اجازه می‌دهد بدانند که آیا از پست‌های وبلاگ، کتاب‌های دیجیتال، مقالات علمی یا آهنگ‌های پاپ آن‌ها برای آموزش الگوریتم‌هایی استفاده شده است که سیستم‌هایی مانند «چت جی پی تی» را تقویت می‌کنند. سپس آن‌ها می‌توانند تصمیم بگیرند که آیا کارشان کپی شده است یا خیر و به دنبال جبران خسارت باشند. 

 

چرا قوانین اتحادیه اروپا بسیار مهم است؟

اتحادیه اروپا بازیگر بزرگی در توسعه پیشرفته هوش مصنوعی نیست. این نقش را آمریکا و چین بر عهده دارند. اما بروکسل اغلب با مقرراتی که تمایل دارد به استاندارد‌های جهانی تبدیل شوند، نقش تعیین‌کننده‌ای را در این روند ایفا می‌کند.

بروکسل همچنین در تلاش است تا بازار را با ایجاد اعتماد در میان کاربران توسعه دهد.

به گفته «یوهان لاکس» کارشناس موسسه اینترنت آکسفورد، تفکر پشت قوانین درباره هوش مصنوعی این است که اگر بتوانید مردم را به اعتماد به هوش مصنوعی و برنامه‌های کاربردی ترغیب کنید، آن‌ها نیز بیشتر از آن استفاده خواهند کرد و زمانی که از آن بیشتر استفاده کنند، پتانسیل اقتصادی و اجتماعی هوش مصنوعی را افزایش خواهند داد.

 

اگر قوانین را زیر پا بگذارید چه؟

زیر پا گذاشتن قوانین در این حوزه منجر به جریمه‌هایی تا ۳۰ میلیون یورو (۳۳ میلیون دلار) یا ۶ درصد از درآمد جهانی سالانه یک شرکت می‌شود که در مورد شرکت‌های فناوری مانند گوگل و مایکروسافت می‌تواند به میلیارد‌ها دلار برسد.

 

بعد چه می‌شود؟

ممکن است سال‌ها طول بکشد تا قوانین به طور کامل اجرایی شوند. 

قانونگذاران اتحادیه اروپا قرار است در نشست عمومی در اواسط ژوئن (خردادماه) در مورد پیش‌نویس این قانون رأی‌گیری کنند. پارلمان اروپا سپس وارد مذاکرات سه‌جانبه‌ای می‌شود که شامل ۲۷ کشور عضو بلوک، پارلمان و کمیسیون اجرایی می‌شود؛ جایی که ممکن است این پیش‌نویس با تغییرات بیشتری در بحث جزئیات مواجه شود. 

انتظار می‌رود این پیش‌نویس تا پایان سال یا حداکثر تا اوایل سال ۲۰۲۴ تأیید نهایی شود و پس از آن یک دوره مهلت برای سازگاری شرکت‌ها و سازمان‌ها که اغلب حدود دو سال است، ارائه خواهد شد.

جنجال هوش مصنوعی در انتخابات ترکیه

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۵:۱۸ ب.ظ | ۰ نظر

کاربران ترک اینترنت وقتی متوجه شدند که کمال کلیچداراوغلو، رقیب اصلی رجب طیب اردوغان، رئیس‌جمهور ترکیه در انتخابات روز یکشنبه، در ویدئویی که ۲ هفته پیش در فضای مجازی منتشر شد، به‌صورت کامل انگلیسی صحبت می‌کند، شگفت‌زده شدند. اما ۲ روز بعد، وب سایت مستقل ترکیه‌ای به نام Teyit فاش کرد که این ویدئو ساختگی بوده است.
پیشرفت هوش مصنوعی غیرقابل کنترل است و حالا این فناوری قرار است تأثیر خود را در انتخابات سیاسی کشور‌ها به رخ بکشد. با این حال کارشناسان هوش مصنوعی می‌گویند محتوای گمراه‌کننده تولید شده توسط هوش مصنوعی می‌تواند رأی‌دهندگان را تحت‌تأثیر قرار دهد.

به گزارش همشهری آنلاین به نقل از یورونیوز، شاید انتخابات ریاست‌جمهوری ترکیه نخستین جایی باشد که این چالش خودش را نشان می‌دهد. کاربران ترک اینترنت وقتی متوجه شدند که کمال کلیچداراوغلو، رقیب اصلی رجب طیب اردوغان، رئیس‌جمهور ترکیه در انتخابات روز یکشنبه، در ویدئویی که ۲ هفته پیش در فضای مجازی منتشر شد، به‌صورت کامل انگلیسی صحبت می‌کند، شگفت‌زده شدند. اما ۲ روز بعد، وب سایت مستقل ترکیه‌ای به نام Teyit فاش کرد که این ویدئو ساختگی بوده است.

همچنین رقیب اردوغان اعلام کرده که ویدئوی پخش شده از محرم اینجه، نامزد دیگر انتخابات که مجبور به کناره‌گیری شد به‌وسیله هوش‌مصنوعی و فناوری دیپ‌فیک ساخته شده است.

ایالات متحده آمریکا نیز که خود را برای انتخابات ۲۰۲۴ ریاست‌جمهوری آماده می‌کند با این چالش روبه‌رو است.

حزب جمهوری‌خواهان از ویدئوی تولید شده توسط هوش مصنوعی برای انتقاد از جو بایدن استفاده کرده که نشان‌دهنده تأثیر این فناوری پیشرفته در سیاست است. پیشرفت‌های فناوری دیجیتال ابزار‌های جدید و سریع‌تری را برای پیام‌رسانی سیاسی فراهم می‌کند و می‌تواند تأثیر عمیقی بر نحوه نگاه رأی‌دهندگان، سیاستمداران و خبرنگاران به نامزد‌ها و مبارزات انتخاباتی داشته باشد. ما دیگر در مورد فتوشاپ عکس‌ها یا قرار دادن سر کسی روی بدن فرد دیگری صحبت نمی‌کنیم، بلکه در حال حرکت به سمت دورانی هستیم که ویدئو‌ها و تصاویری واقعی با هوش مصنوعی ساخته و منتشر می‌شود و توانایی مخاطب عام نیز برای تشخیص اصل یا جعلی بودن آن‌ها محدود است.

سیاستمداران می‌توانند از هوش مصنوعی مولد برای پاسخ فوری به تحولات استفاده کنند. این فناوری راه ارزانی برای ایجاد پاسخ‌های فوری بدون اتکا به مشاوران پردرآمد یا فیلمبرداران خبره است. این فناوری هدف‌گذاری بسیار دقیقی برای مخاطبان ایجاد می‌کند که در کمپین‌های سیاسی بسیار مهم است.

قطع اینترنت، اقتصاد پاکستان را زمین‌گیر کرد

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۴:۱۹ ب.ظ | ۰ نظر

آغاز اعتراضات گسترده نسبت به دستگیری عمران‌خان، نخست‌وزیر سابق پاکستان و تعلیق دسترسی اینترنت، منبع درآمد بسیاری از شهروندان را در کشوری که مدت‌ها است با بحران اقتصادی دست به گریبان است، به کلی قطع کرده است.

اتاق ایران آنلاین - طی روزهای گذشته، در پی دستگیری عمران خان نخست‌وزیر سابق پاکستان و آغاز اعتراضات عمومی به این دستگیری، امکان اتصال به اینترنت در سرتاسر شهرهای بزرگ این کشور قطع شده است. وزارت ارتباطات پاکستان اعلام کرد به دستور وزارت کشور خدمات پهنای باند پاکستان به حالت تعلیق درآمده است و مشخص نیست چه زمانی بازیابی خواهد شد. حتی پس از آنکه دادگاه عالی پاکستان روز پنجشنبه دستگیری عمران‌خان را غیرقانونی اعلام کرده و دستور به آزادی او داد هم وضعیت پهنای باند در این کشور تغییری نکرد.

تصمیم به تعلیق پهنای باند پاکستان در وضعیتی اتخاذ شده است که اقتصاد این کشور با بحران‌هایی اساسی دست به گریبان است. تورم اصلی در ماه آوریل رکوردی جدید ثبت کرد و به 36.4 درصد رسید. میزان حواله‌های کارگران خارج از کشور به داخل پاکستان که در رشد اقتصادی این کشور سهمی 8 درصدی دارد،در ماه آوریل به نسبت زمان مشابه در سال گذشته 29.2 درصد کاهش یافته است. صادرات این کشور هم نسبت به سال گذشته 26.68 درصد کاهش تجربه کرده است. بانک جهانی نرخ رشد مورد انتظار پاکستان را از 2 درصد به 0.4 درصد کاهش داده است.

همزمان، آشفتگی سیاسی در پاکستان روز پنجشنبه نرخ برابری روپیه این کشور در برابر دلار را به پایین‌ترین حد ممکن یعنی به 298.93 رساند.فعالان اقتصادی پاکستان نظیر احسان مالک رئیس شورای تجارت پاکستان نگران آن هستند که وضعیت ایجاد شده در کشور از میزان اعتماد نهاد‌های بین‌المللی و وام‌دهندگان و سرمایه‌گذاران خارجی به دولت پاکستان بکاهد و وضعیت اقتصادی این کشور بحرانی‌تر شود. این احتمال وجود دارد که تحت تاثیر آشفتگی‌های سیاسی، از سرگرفته شدن برنامه صندوق بین‌المللی پول برای تضمین تامین مالی پاکستان توسط شرکای اسلام‌آباد به حالت تعلیق درآید. همچنین بسیاری از فعالان اقتصادی باور دارند وضعیت کنونی پاکستان وجهه بین‌المللی پاکستان را خدشه‌دار کرده و سرمایه‌گذاری‌های مستقیم خارجی را معلق خواهد کرد.

به گفته یک منبع آگاه، طی روزهای آشفتگی سیاسی و قطعی اینترنت، اوپراتورهای مخابراتی پاکستان 1.64 میلیارد روپیه، برابر 5.4 میلیون دلار سرمایه از دست داده‌اند. همچنین دولت پاکستان 574 میلیون روپیه، برابر 1.9 میلیون دلار درآمد مالیاتی خود را به واسطه قطعی اینترنت از دست داده است. علاوه بر این گفته می‌شود که استارت‌آپ‌ها و کسب و کارهای وابسته به اینترنت در پاکستان به دلیل تعلیق خدمات اینترنتی روزانه 2 میلیون دلار ضرر می‌دهند.

به گفته جهان آرا، از اعضای شورایی مشاوره‌ای در بانک جهانی،تداوم این وضعیت در پاکستان منجر به توقف سرمایه‌گذاری در کشور خواهد شد. زیرا سرمایه‌گذاران فراتر از وضعیت برابری روپیه و دلار، تورم و سیاست‌های بانک مرکزی پاکستان، نگران تداوم قطعی اینترنت و خدمات تلفن همراه و تداوم تاثیر این وضعیت بر کسب و کارها هستند. به گفته او تاکنون هم بسیاری از کسب و کارهای تجارت الکترونیک که درحال رشد بودند، از جمله خدمات حمل و نقل، بازارهای آنلاین و کسب و کارهای تحویل غذا به یک باره آسیبی شدید دیده‌اند و منجر به بیکاری کارگران روزمزدی شده‌اند که برای گذران زندگی به دستمزد روزانه خود محتاج بوده‌اند.

تشدید جنگ سایبری روسیه علیه اوکراین

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۳:۵۱ ب.ظ | ۰ نظر

نشانه‌های بیشتری مبنی بر استفاده روسیه از ابزارهای دیجیتال برای به راه انداختن جنگ با اوکراین در ارتباط با اشکال فیزیکی مرسوم‌تر در حال ظهور است که شامل استفاده از حملات سایبری هدفمند نیز می باشد.
به گزارش سایبربان، معاون سرپرست اداره امنیت سایبری اوکراین (SSU) اظهار داشت که مسکو مسئول تقریباً 1200 حمله سایبری و سایر حوادث مهم سایبری در سه ماه اول سال 2023 بوده است.
این روند توسط جی پی پیرز انچگوین، مدیر ارشد فناوری اوناپسیس (Onapsis)، همانطور که او به دیجیتال جورنال (Digital Journal) توضیح می دهد، مورد توجه قرار گرفته است.
پیرز اتچگوین با نگاهی به انواع فعالیت‌های مرتبط با روسیه در یافته است که اختلال و ناآرامی سیاسی می‌تواند تأثیر گسترده‌ای بر بقیه جهان داشته باشد. به عقیده ی او، امنیت سایبری در حال حاضر یکی از دغدغه‌های اولویت‌دار سازمان‌ها است، زیرا سرقت داده‌ها و حملات سایبری به طور غیرقابل انکاری در حال افزایش است و هکرها به طور فزاینده‌ای پیچیده و مداوم می‌شوند.
تدابیری وجود دارد که کسب‌وکارها برای مقاومت در برابر موج سایبری و ایجاد دفاعی مناسب باید در نظر بگیرند.
وی در ادامه می‌گوید: برای جلوگیری از خطرات و تأثیرات یک حمله سایبری، کسب‌وکارها باید به محیط امنیت سایبری فعلی خود نگاه کنند، به‌ویژه در رابطه با برنامه‌های کاربردی حیاتی تجاری‌شان که اغلب نادیده گرفته می‌شوند.

از نظر فعالیت‌هایی که شرکت‌ها می‌توانند در نظر بگیرند، او اضافه می‌کند که برنامه‌های کاربردی حیاتی برای مجرمان سایبری هدف بسیار جذابی هستند زیرا برای انجام امور روزمره ضروری هستند. اگر تداخل با آن بر تداوم کسب‌وکار تأثیر بگذارد و اگر داده‌های حساس به سرقت رفته یا غیرقابل دسترس شود، می‌تواند عواقب مخربی نه تنها برای خود کسب‌وکار، بلکه برای مشتریان، تأمین‌کنندگان و شرکای آن داشته باشد.
هوش تجاری نیز با اشتراک گذاری اطلاعات مهم است. پیرز انچگوین می‌گوید که فناوری‌های کنونی نیز باید مورد استفاده قرار گیرند:

به این ترتیب، سازمان‌ها باید بتوانند نه تنها تهدیدات را شناسایی کرده و به سرعت به آنها پاسخ دهند، بلکه هر گونه آسیب‌پذیری را شناسایی و کاهش دهند تا از حفاظت از داده‌های حیاتی تجاری اطمینان حاصل کنند.

در اینجا، او بر پیشی گرفتن از اقدامات عوامل جنایتکار و دولت های سرکش تأکید می کند و می گوید که با استفاده از فناوری هایی که امکان مدیریت یکپارچه تهدید، ریسک و انطباق را در کل سازمان فراهم می کند، کسب و کارها قادر خواهند بود به جای اقدامات واکنشی، با رویکردی پیشگیرانه در حوزه امنیت سایبری اقدام کنند.
فرهنگ همکاری نیز امری مهم است، همراه با اینکه به صورتی انجام شود که همه سهم خود را در آن شراکت ببینند. در اینجا پیرز انچگوین بیان می‌کند:

تبدیل امنیت سایبری به یک مسئولیت جمعی مشترک بین همه، علاوه بر ادغام راه‌حل‌های امنیت سایبری قوی، کلید تضمین ایمنی و امنیت سازمان‌ها در سراسر انگلستان خواهد بود.

هوش مصنوعی هر دقیقه یک کتاب می‌خواند

يكشنبه, ۲۴ ارديبهشت ۱۴۰۲، ۰۳:۵۰ ب.ظ | ۰ نظر

شرکت آنتروپیک با ارتقای مدل هوش مصنوعی Claude مدعی شده است که این مدل اکنون حافظه بزرگ‌تری نسبت به GPT-4 دارد.
به گزارش خبرگزاری صدا و سیما؛ شرکت آنتروپیک اعلام کرد: قدرت پردازش داده توسط هوش مصنوعی مولد خود، یعنی Claude را به‌طرز قابل‌توجهی افزایش داده است. این مدل از محدودیت پردازش ۹ هزار توکن حالا به ۱۰۰ هزار توکن رسیده است.

به عبارت دیگر این هوش مصنوعی می‌تواند رمانی مثل «فرانکشتاین» اثر «ماری شلی» را در کمتر از یک دقیقه بخواند و اطلاعات آن را تحلیل کند. استارتاپ هوش مصنوعی آنتروپیک که توسط مهندسان سابق OpenAI تأسیس شده حافظه مدل زبانی Claude خود را ارتقا داده است تا این نرم‌افزار بتواند در هر نشست حدود ۷۵ هزار کلمه را پردازش کند.

براساس توضیحاتی که در وبلاگ این استارتاپ ارائه شده است، Claude می‌تواند در یک جلسه به‌طور کامل کتاب «گتسبی بزرگ» را مطالعه و پردازش کند. در آزمایشی که برای بررسی این قابلیت انجام شده است، آن‌ها یک جمله را در داخل این کتاب تغییر دادند تا عملکرد هوش مصنوعی را در تشخیص این تغییر امتحان کنند.

نتیجه این بود که Claude در ۲۲ ثانیه موفق به تشخیص این تغییر شد. مدل‌های هوش مصنوعی اطلاعات را نه براساس تعداد حروف یا کلمات، بلکه با کمک توکن‌ها ارزیابی می‌کنند. این روش منطقی‌تر است، چون کلمات می‌توانند بلند یا کوتاه باشند و اندازه‌شان لزوماً ارتباط مستقیمی با پیچیدگی معنایی آن‌ها ندارد.

همان‌طور که گفتیم، حافظه Claude اکنون به ۱۰۰ هزار توکن رسیده است، درحالی‌که مدلی مثل GPT-۴ در حالت عادی ۸ هزار توکن را پردازش می‌کند و نسخه‌ای از آن می‌تواند تا ۳۲ هزار توکن را پردازش کند. این ظرفیت بالا در مدل Claude درحال‌حاضر فقط برای شرکای تجاری انتروپیک در دسترس است.

همچنین گفته نشده که هزینه استفاده از این مدل چقدر بیشتر از مدل قبلی این شرکت است. آنتروپیک می‌گوید برای یک انسان حدود پنج ساعت طول می‌کشد تا بتواند ۷۵ هزار کلمه را بخواند. بااین‌حساب، هوش مصنوعی می‌تواند از یک جهت دیگر برتر از انسان‌ها عمل کند و قابلیت‌های متنوعی داشته باشد.

بحران جهانی هوش مصنوعی

شنبه, ۲۳ ارديبهشت ۱۴۰۲، ۰۷:۴۶ ب.ظ | ۰ نظر

رامین کیانی - چند روز پیش بود که جفری هینتون ملقب به پدرخوانده هوش مصنوعی، ضمن اعلام خطرات هوش مصنوعی برای آینده بشریت، از کار کناره‌گیری کرد. تنها جفری هینتون نیست که از این مسئله ابراز نگرانی می‌کند، تعدادی از دانشگاهیان و افراد برجسته در حوزه فناوری نیز چنین مسائلی را مطرح کرده‌اند. برخی بر این باورند که هوش مصنوعی آینده جهان خواهد بود. برخی معتقدند که هوش مصنوعی در خدمت انسان است و انسان به وسیله این به اصطلاح ابزار، توانایی خارق العاده‌ای را برای دخل و تصرف در جهان پیرامون خود به دست خواهد آورد. گروه دیگری چنین بیان می‌کنند که جهان آینده، جهان هوش مصنوعی است اما بدون انسان و یا حتی دیگر موجودات. 

شاید در نگاه اول این موضوع بسیار دور از انتظار به نظر برسد و تنها فیلم‌های آخر زمانی را برای ما تداعی کند اما کمی تامل و توجه به ابعاد مختلف موضوع، واقعیت‌ها را برای ما علنی‌تر می‌کند. 

باید یادمان باشد که هوش مصنوعی رباتیک نیست. معمولا بیشتر افراد این دو حوزه را با یکدیگر اشتباه می‌گیرند. تصوری که از ربات‌ها در ذهن خود دارید را دور بریزید. رباتیک و هوش مصنوعی اهداف بسیار متفاوتی را دنبال می‌کنند. هوش مصنوعی قادر است به سوالاتی پاسخ دهد و معماهایی را حل کند که شما و هیچ شخص دیگری ابدا پاسخی برای آن تعریف نکرده‌اید. همانطور که از نام آن پیداست هوش مصنوعی تلاشی است برای ساخت هوش. هوش مصنوعی نمونه‌ای از تلاش انسان برای شبیه سازی هوش خود برای سهولت انجام امور و کاهش رنج است. هوش بخشی از ماحصل فعالیت‌های مغز است. مغز ما یعنی انسان‌های خردمند (هموساپینس‌ها) به عنوان پیشرفته‌ترین مغز در جهان شناخته می‌شود. حال با ظهور هوش مصنوعی یک مسئله جدید پیش روی ماست، آیا هوش مصنوعی می‌تواند از هوش هموساپینس‌ها که خالق آن هستند فراتر رود؟ برخی معتقد هستند که این موضوع امکان پذیر نیست؛ اما گروه دیگری بر این باورند که هوش مصنوعی محدودیت‌های بیولوژیکی مغز هموساپینس‌ها را ندارد. صحبت پیرامون این مسئله را به جای دیگری واگذار کنیم. 

پرسش مهمتری که تا اینجای بحث پیش روی ما این است که چرا ظهور یک هوش می‌تواند برای ما (هموساپینس‌ها) خطرساز باشد؟ برای پاسخ به این سوال باید به سراغ زیست‌شناسی و ژنتیک برویم. با نگاهی به دنیای پیرامون در می‌یابیم که بسیاری از حیوانات از نظر فیزیکی و سازگاری با محیط توانایی‌های بسیار بیشتری از ما دارند و این تنها مغز و هوش انسان خردمند بوده که او را حاکم بلامنازع کره زمین کرده است. انسان با کمک مغز خود ابزار تولید کرده و به وسعت ابزارهایش جهان را تحت سلطه خود درآورده است. شاید دانستن این موضوع بی‌ربط نباشد که همین جهان پیرامونی که ما درباره آن صحبت می‌کنیم واقعا به گونه‌ای که ما می‌بینیم نیست و تصویری که ما از جهان می‌بینیم و درک ما از هستی، برایند پردازش داده‌هایی است که مغز ما با کمک گیرنده‌های خود (حواس پنج‌گانه) از محیط دریافت می‌کند. جالب است که بدانیم دیدن، شنیدن، چشیدن و همه چیز در ذهن ما رخ می‌دهد و نه در خود اندام‌های گیرنده. این‌‌ها موضوعات بسیار قابل تاملی است. حالا شاید بهتر مفهوم هوش مصنوعی را درک کنیم. 

در واقع می‌توان گفت هوش مصنوعی هم مانند مغز هموساپینس‌ها درکی از جهان دارد. درکی که احتمالا ما هیچ اطلاعی از آن نداریم. از این نقطه به بعد داستان برای ما بسیار خطرناک‌ می‌شود. هوش مصنوعی درکی از جهان دارد، همانند دیگر موجودات. هر جنبنده‌ای به میزان توسعه مغزش از جهان پیرامون خود درکی دارد. پس هرچند که هوش مصنوعی ساخته طبیعت نیست و از دل آن بیرون نیامده و ظاهرا نمی‌تواند یک رقیب برای گونه هموساپینس‌ها باشد اما هوش مصنوعی ساخته هموساپینس‌هاست، ساخته‌ای که درکی از جهان دارد و قادر است تصمیم‌گیری ‌کند و احتمالا در آینده‌ای نزدیک، خود نیز خالق ابزارهای خود باشد و این یک تهدید بسیار بزرگ است. 

آنچه پیداست هوش مصنوعی روز به روز پیشرفته‌تر خواهد شد و احتمالا هموساپینس‌ها در خطر انقراض قرار می‌گیرند. حال سوال نهایی ما این است. انسان خردمند در مقابل این تهدید چه کاری می‌تواند انجام دهد؟ آیا راه خلاصی وجود دارد؟ اینجاست که انسان خردمند بار دیگر باید از ابزارهای خود استفاده کند. یکی از ابزارهای انسان حکومت است. حکومت‌ها باید به تصویب قوانین بازدارنده بپردازند. هر چند احتمالا هیچ قانونی نمی‌تواند به طور کامل در مقابل رشد هوش مصنوعی ایستادگی کند. هوش مصنوعی به عنوان یک تهدید جهانی نیاز به راه حل‌ جهانی دارد. همانطور که تغییرات اقلیمی، تروریسم و پاندمی‌های نوین نیز بحران‌های جهانی هستند و راه حل‌های جهانی طلب می‌کنند. انسان‌ خردمند باید از ابزارهای جهانی خود یعنی سازمان‌های بین‌المللی استفاده کند. 

شاید سازمان‌های بین‌المللی اکنون توانایی غلبه بر بسیاری از مشکلات جهانی را نداشته باشند. اما تشدید بحران‌های کنونی و ظهور بحران‌های جدید اهمیت سازمان‌های بین‌المللی را بیش از پیش برای همگان آشکار خواهد کرد. سازمان‌های بین‌المللی و در رأس آنها سازمان ملل متحد باید هر چه زودتر در مقابل این تهدید جهانی چاره‌ای بیاندیشند، پیش از آن که کار از کار بگذرد. (منبع:دیپلماسی ایرانی)

وزنیاک: نمی‌توان رشد هوش مصنوعی را متوقف کرد

جمعه, ۲۲ ارديبهشت ۱۴۰۲، ۰۳:۲۰ ب.ظ | ۰ نظر

استیو وزنیاک، یکی از بنیانگذاران کمپانی اپل، در هشداری جدی درباره پیشرفت هوش مصنوعی، گفته است ما نمی‌توانیم رشد آن را متوقف کنیم.
به گزارش همشهری آنلاین و به نقل از روزنامه سان، این هشدار تنها چند روز پس از آن منتشر شد که جفری هینتون که او را به عنوان پدرخوانده هوش مصنوعی می‌شناسند، هشدار داد که این فناوری می تواند توسط «بازیگران بد» استفاده شود.

وزنیاک به همراه استیو جابز در سال ۱۹۷۶ کمپانی اپل را تأسیس کرده بود، او در مصاحبه‌ای با بی‌بی‌سی نیز نگرانی مشابهی را تکرار کرده است. وزنیاک که اکنون ۷۲ سال دارد به این شبکه گفت که نگران است «بازیگران بد» از هوش مصنوعی سوء استفاده کنند و از آن برای فریب قربانیان ناآگاه، به دست آوردن اطلاعات شخصی یا سرقت اطلاعات استفاده کنند.

وزنیاک افزود: هوش مصنوعی بسیار باهوش است و درهای آن برای بازیکنان بد باز است، آن‌هایی که شما را درباره هویت خود و اینکه چه کسی هستندف فریب می‌دهند. او پیشنهاد کرد که محتوای هوش مصنوعی باید برچسب‌گذاری و تنظیم شود و ادعا کرد که شرکت‌های بزرگ فناوری احساس می‌کنند که می‌توانند از هر چیزی در حال حاضر استفاده کنند واز پیگرد و نظارت مصون بمانند.

وزنیاک گفت: یک انسان واقعا باید مسئولیت آنچه که توسط هوش مصنوعی تولید می شود را بپذیرد. همزمان او به این نکته اذعان کرد که مقررات نمی‌تواند به تنهایی مشکل در رابطه با هوش مصنوعی را حل کند و اشاره کرد که برخی ممکن است از پول و منابع مالی برای تغییر خیلی چیزها به نفع خود استفاده کنند.

در ماه‌های اخیر، نگرانی‌ها در مورد اینکه آیا پیشرفت‌های هوش مصنوعی به حدی خواهد رسید که چت‌بات‌ها، روبات‌ها و سایر سیستم‌ها جایگزین کارگران انسانی شوند، افزایش یافته است. وزنیاک نسبت به این نگرانی‌ها به دیده تردید می‌نگرد،  او به بی بی سی گفت که هوش مصنوعی نمی‌تواند جایگزین افراد شود زیرا فاقد احساسات است. در عین حال، او هشدار داد که این فناوری هنوز در حال رشد است.

وزنیاک گفت: «ما نمی توانیم جلوی فناوری را بگیریم. در نهایت، او معتقد است که افراد می توانند در کنار آن رشد کنند و در شناسایی محتوای جعلی یا کلاهبرداری‌های سایبری بهتر عمل کنند. اخیرا وزنیاک به بیش از هزار نفر از جمله ایلان ماسک پیوست و نامه‌ای سرگشاده را امضا کرد که خواستار توقف شش ماهه توسعه سیستم‌های هوش مصنوعی شده بود.
این نامه به دلیل انتشار GPT-۱، یک نسخه قدرتمندتر و پیشرفته تر از فناوری مورد استفاده توسط ربات چت محبوب ChatGPT، تنظیم شده بود و در آن نگرانی‌ها درباره توسعه سریع هوش مصنوعی ابراز شده بود.

حملات سایبری به دولت‌ها افزایش یافت

جمعه, ۲۲ ارديبهشت ۱۴۰۲، ۰۳:۱۹ ب.ظ | ۰ نظر

تحقیقات جدید شرکت "سرف شارک" نشان داد حملات سایبری به دولت‌های جهان در چند ماه نخست سال ۲۰۲۳، افزایش پیدا کرده است.
به گزارش ایسنا، در تحقیقاتی که به تازگی از سوی شرکت "سرف شارک" منتشر شد، این شرکت ۹۲۴ واقعه سایبری مهم که در فاصله سال‌ ۲۰۰۶ تا سه ماهه اول سال ۲۰۲۳ روی داده است، را تجزیه و تحلیل کرد. تحلیل این آمار نشان داده است که طی این مدت، حداقل ۷۲۲ حمله سایبری علیه سازمان‌های دولتی انجام شده است.

با این حال، پیش از سال ۲۰۲۰، سازمان‌های دولتی سالانه به طور متوسط ۲۹ حمله سایبری را گزارش می‌کردند. پس از سال ۲۰۲۰، تعداد حملات به میانگین سالانه ۹۶ مورد افزایش یافت. تقریبا نیمی از ۹۲۴ رویداد مهمی که مورد تجزیه و تحلیل قرار گرفت، در سه سال گذشته روی داده است. اغلب اوقات، عوامل مخرب، با شیوه مهندسی اجتماعی، حمله خود را شروع کرده اند و با حملات بدافزاری یا باج‌افزاری به پایان رسانده اند. با این حال، گاهی اوقات این حملات شامل کارزارهای انتشاراطلاعات غلط بوده است.

نتایج این گزارش نشان می دهد فعالیت‌های جاسوسی سایبری نگران‌کننده هستند. از سال ۲۰۰۶، حدود ۱۵ درصد از همه حملات علیه شرکت‌های دولتی، با هدف جاسوسی سایبری بوده است. بعلاوه، از ۳۲ حمله‌ای که در سه ماهه اول امسال روی داد، ۹ مورد آن جاسوسی سایبری بود که تقریبا با تعداد حملات جاسوسی سایبری کل سال ۲۰۲۲، برابری می‌کند.

محققان همچنین مدعی شدند فعالیت‌های جاسوسی سایبری تقریبا به طور کامل توسط عوامل تحت حمایت دولتی انجام می‌شود و نشان می‌دهد که جنگ سایبری بین دولت‌ها در حال افزایش است. آخرین موردی که مرکز مطالعات بین‌الملل و استراتژیک (CSIS) به آن اشاره کرد، حمله هکرهای روسی به وب سایت مجلس ملی فرانسه بود. بعلاوه، یک گروه جاسوسی سایبری ویتنامی در مارس، در میان چندین عامل تهدید بود که یک آژانس فدرال آمریکا را هدف قرار داد.

بر اساس گزارش وب سایت تِک رادار، عوامل کره شمالی، چین و روسیه در میان فعال‌ترین و ماهرترین گروه‌های سایبری هستند. به عنوان مثال، گروه لازاروس، یک گروه هکری تحت حمایت دولت کره شمالی است که برای هدف گرفتن کسب‌وکارهای رمزارز به منظور جمع‌آوری پول و تامین مالی عملیات نظامی و دولتی کره شمالی،  شناخته شده است. اف‌بی‌آی ادعا کرده است که لازاروس عامل یکی از بزرگ‌ترین سرقت‌های رمزارز تا کنون بوده و با نفوذ به شبکه رونین، ۶۲۰ میلیون دلار از ارزهای دیجیتال مختلف را به سرقت برده است.

برنامه اروپا برای امنیت داده‌های ابری

چهارشنبه, ۲۰ ارديبهشت ۱۴۰۲، ۰۴:۳۶ ب.ظ | ۰ نظر

آمازون و گوگل و دیگر تهیه کنندگان سرویس ابری غیر اروپایی که خواهان برچسب امنیت سایبری اتحادیه اروپا هستند تا داده های حساس را کنترل کنند، فقط باید با یک شرکت اروپایی همکاری کنند.
به گزارش خبرگزاری مهر به نقل از رویترز، این بخشی از سندی است که در حقیقت پیش نویس قوانین سختگیرانه تر امنیت سایبری برای شرکت های فناوری بزرگ به حساب می آید.

شرکت های بزرگ فناوری اروپا و دیگران که در چنین همکاری مشترکی سهیم هستند، سهم کوچکی دارند و کارمندانی که به داده های اروپا دسترسی می یابند باید بررسی های خاص را پشت سر بگذارند و حتما در یکی از ۲۷ کشور عضو اتحادیه ساکن باشند.

همچنین طبق سند موجود سرویس ابر رایانشی باید از داخل اتحادیه اروپا راهبری و نگهداری شود. همچنین داده های تمام مشتریان سرویس باید در اتحادیه اروپا فراوری و ذخیره شود.

آخرین پیش‌نویس قانون پیشنهادی آژانس امنیت سایبری اتحادیه اروپا ENISA مربوط به یک طرح صدور گواهینامه اتحادیه اروپا (EUCS) است که امنیت سایبری خدمات ابری را تضمین و شیوه انتخاب فروشنده برای تجارت را برای دولت ها و شرکت های این منطقه تعیین می کند.

هرچند الزامات جدید تاکیدی برای رفع نگرانی های اتحادیه اروپا از مداخل کشورهای دیگر است، اما احتمالا انتقادات جدیدی از سوی شرکت های فناوری بزرگ آمریکا به وجود بیاورد که می ترسند از این منطقه بیرون رانده شوند.

در بخشی از متن سند آمده است: سرویس های ابر تایید شده فقط با شرکت هایی که در اتحادیه اروپا مستقر هستند باید همکاری کنند. هیچ شرکت خارجی نمی تواند بر تهیه کننده سرویس ابر کنترل داشته باشد تا به این ترتیب ریسک دخالت کشورهای غیراروپایی که مقررات، هنجارها و ارزش های منطقه را نمی شناسند، کاهش یابد.

همچنین قوانین سختگیرانه تری برای داده های شخصی و غیر شخصی وضع می شود که حساسیت زیاد و احتمالا تاثیری منفی بر نظم، ایمنی، زندگی یا سلامت یا حتی حفاظت از مالکیت معنوی دارند.

دستگیری عامل ساخت اخبار جعلی ساخت با چت جی‌پی‌تی

چهارشنبه, ۲۰ ارديبهشت ۱۴۰۲، ۰۴:۲۰ ب.ظ | ۰ نظر

پلیس چین مردی را به اتهام استفاده از چت جی پی تی برای تولید اخبار جعلی درباره یک رویداد تصادف قطار دستگیر کرد.
به گزارش خبرگزاری مهر به نقل از سی ان بی سی، به نظر می رسد این نخستین مورد از اقدامات اجرایی در چین تحت قانون بی سابقه مرتبط با هوش مصنوعی به حساب می آید.

این پرونده نشان دهنده تلاش مقامات چینی برای قانونمندسازی و کنترل موارد استفاده از هوش مصنوعی است.

پلیس در ایالت گانسو واقع در شمال غربی چین مردی به نام «هونگ» را دستگیر کرده و مدعی است وی اخبار جعلی در خصوص تصادف قطاری ساخته که به کشته شدن ۹ نفر منجر شده است.

مقامات متوجه شدند بیش از ۲۰ حساب کاربری این خبر را در یک بلاگ متعلق به شرکت بایدو منتشر کرده اند. این پست آنها بیش از ۱۵ هزار بار بازدید داشته است.

به نظر می رسد هونگ از چت جی پی تی برای ایجاد نسخه های متفاوت از این خبر جعلی استفاده کرده تا بتواند از کنترل های پلتفرم بایدو گذر کند.

چت جی پی تی که توسط شرکت اوپن آ آی ابداع شده یک نمونه از چت بات مبتنی بر هوش مصنوعی مولد است و به نرم افزار اجازه می دهد به سوالات پاسخ دهد. به عنوان مثال کاربران می توانند از چت جی پی تی بخواهند براساس دستوراتی خاص یک داستان بسازد.

مقامات پلیس گانسو هونگ را طبق قانون ناظر بر «فناوری های ترکیبی عمیق» دستگیر کردند. چین سال گذشته این قانون را تصویب کرده بود. فناوری های ترکیبی عمیق به هوش مصنوعی اشاره دارد که برای تولید متن، تصویر، ویدئو یا محتوای دیگر به کار می رود. طبق قانون، نمی توان از سرویس های ترکیبی برای انتشار اخبار جعلی استفاده کرد.

چین پیش نویس قانون مذکور را در حالی اعلام کرد که چت جی پی تی در حال رشد و گسترش بود. همزمان مقامات سعی داشتند از این فناوری پیشی بگیرند.

در حال حاضر چت جی پی تی در چین فیلتر است اما با استفاده از وی پی ان می توان به آن دسترسی یافت. از سوی دیگر غول های فناوری چینی مشغول آموزش نسخه های رقیب چت جی پی تی هستند که البته به طور گسترده در دسترس نخواهند بود. در عوض شرکت های چینی کاربردهای خاص را در نظر گرفته اندتا دولت و رگولاتورها را بیمناک نکنند.

تدابیر بین‌المللی علیه هوش مصنوعی

چهارشنبه, ۲۰ ارديبهشت ۱۴۰۲، ۰۳:۵۳ ب.ظ | ۰ نظر

توسعه ابزار هوش مصنوعی جدید طی ماه‌های اخیر، سبب تشدید نگرانی‌ها در مورد تهدیدات بالقوه این فناوری نوظهور در میان قانون‌گذاران سراسر جهان شده است.

خبرگزاری مهر - گروه دانش و فناوری؛ سیدرضا حسینی: مدتی است که آوازه هوش مصنوعی و پیشرفت‌هایش در سراسر جهان پیچیده و یکی از معروف‌ترین آن‌ها که به‌محض برخورد با کلمه هوش مصنوعی در ذهن تداعی می‌شود چت جی پی تی است؛ اما اکثر اسم‌هایی که با عنوان هوش مصنوعی به گوش ما می‌رسند، در واقع نرم‌افزارهای مبتنی بر هوش مصنوعی هستند.

«ChatGPT» و «Bard» جزو گروه چت‌بات‌ها هستند و «Midjourney» و «Dall.E» از جمله مدل‌های یادگیری ماشینی هستند که برای تبدیل متن به تصویر دیجیتال ساخته شده‌اند.

با گذشت مدتی کوتاه از عرضه عمومی «ChatGPT» و رشد رکورد شکن تعداد کاربران این پلتفرم، مسئله تنظیم‌گری فناوری‌های نوظهور همچون هوش مصنوعی، بار دیگر به اولویت اصلی فعالان این حوزه و دولت‌های سراسر جهان تبدیل شده است. ابراز نگرانی از مضرات این فناوری تا آنجا پیش رفت که جفری هینتون یکی از پیش کسوت‌ها و پدرخوانده هوش مصنوعی به تازگی و پس از آنکه متوجه شد احتمالاً رایانه‌ها از انسان‌ها باهوش‌تر می‌شوند، از شرکت گوگل استعفا داد تا آزادانه درباره خطرات این فناوری صحبت کند.

وی که با ابراز نگرانی درباره خطرات هوش مصنوعی از شرکت گوگل استعفا داده است، گفت: اکنون از کار خود در این رشته پشیمان است.

او در مصاحبه‌ای با نیویورک تایمز درباره ظرفیت این فناوری برای ایجاد تصاویر و متون جعلی اظهار نگرانی کرد و گفت: این فناوری و ابزارهایش دنیایی را به وجود می‌آورند که در آنها انسان‌ها نمی‌توانند واقعیت را تشخیص دهند.

 

قیام کشورها علیه فناوری‌های نوظهور هوش مصنوعی

با همه اینها به عقیده بسیاری از کارشناسان، هوش مصنوعی فناوری آینده‌ساز خواهد بود و درک ما از زندگی را تا حدود زیادی تغییر خواهد داد. از همین روی با روی کار آمدن و شهرت روز افزون چت جی پی تی، سیاستمداران با عزمی راسخ در پی مهار و کنترل آن برآمده‌اند.

از سوی دیگر، غول‌های فناوری مانند مایکروسافت، گوگل و آمازون نیز در حال رقابت تنگاتنگ برای بهره‌برداری حداکثری از مواهب توسعه این فناوری نوظهور هستند و همین امر، مسئله لزوم تنظیم‌گری این حوزه را بیش از پیش برجسته ساخته است. زیرا در صورت عدم کنترل نهادهای قانون‌گذار و تنظیم‌گر بر قوانین رقابت، هوش مصنوعی مولد می‌تواند سبب کسب مزیت و قدرت نامتعارف از سویشرکت‌های بزرگ فناوری شود و این بنگاه‌های اقتصادی را بر جوامع بشری مسلط کند.

تدابیر بین‌المللی علیه هوش مصنوعی جدید

چین؛ از مقابله رویاروی تا چت بات ملی

دولت چین، در راستای مقابله با تهدیدات هوش مصنوعی دو راه حل اساسی اتخاذ کرده است. این کشور در ماه فوریه اعلام کرد که پکن از شرکت‌های پیشرو در ساخت مدل‌های هوش مصنوعی که می‌توانند «Chat GPT» را به چالش بکشند، حمایت خواهد کرد. در ماه آوریل خبرگزاری شینهوا یک بیانیه دولتی بر مبنای نشست فصلی حزب کمونیست منتشر کرد. این بیانیه تأکید می‌کند که چین باید توجه شایانی به توسعه هوش مصنوعی و خلاقیت در این حوزه و مقابله با خطرات پیش‌بینی شده آن داشته باشد. به عقیده برخی کارشناسان این اقدام چین علاوه بر اینکه نشان‌دهنده اولویت چین در تبدیل‌شدن به قدرت اول در حوزه فناوری است، مبین اهمیت «ChatGPT» و لزوم مقابله با قدرت انحصاری این پلتفرم است.

دوم اینکه دولت چین علاوه بر اینکه تلاش دارد تا چت‌بات ملی خود را داشته باشد، تلاش برای تنظیم‌گری هوش مصنوعی مولد را نیز در دستور کار خود قرار داده است. تنظیم‌کننده فضای سایبری چین (CAC) در این راستا از پیش‌نویس اقداماتی برای تنظیم‌گری خدمات هوش مصنوعی رونمایی کرد و در آن از شرکت‌ها خواست که ارزیابی‌های امنیتی خود را قبل از ارائه خدمات به مقامات اعلام کنند. اصول دولت چین در تنظیم‌گری هوش مصنوعی، نظارت بر محتوا، حمایت از حق مالکیت معنوی، مقابله با اطلاعات نادرست، حفظ حریم شخصی و محافظت از داده‌ها و رفع نابرابری است.

 

اولین گام مهم اتحادیه اروپا

اتحادیه اروپا و نهادهای قانون‌گذار آن در بحبوحه محبوبیت و شهرت «ChatGPT» و سایر چت‌بات‌ها و هوش مصنوعی‌های مولد در پی آسیب‌شناسی و مقابله با خطرات احتمالی این فناوری جدید، بر آمدند. در ادامه مروری بر نظرات مختلف و اقدامات انجام‌شده خواهیم داشت.

برخی از قانون‌گذاران اروپا معتقدند می‌توان از مقررات حفاظت از داده‌های عمومی (GDPR)، جهت کنترل هوش مصنوعی و صاحبان آن استفاده کرد. با توجه به اینکه هوش مصنوعی از داده‌ها برای پاسخ‌های خود استفاده می‌کند «GDPR» با اصول حفاظت از داده‌های خود، می‌تواند با هرگونه استفاده از داده‌های کاربران و نقض حریم شخصی مقابله کند.

برخی دیگر از تنظیم گران مانند هلن دیکسون، عضو هیئت نهاد حفاظت از داده‌ها ایرلند، در جلسه‌ای که در پی ممنوعیت موقت «ChatGPT» برگزار شد، معتقد بودند که عجله در تنظیم‌گری هوش مصنوعی مولد بدون درک و شناخت دقیق کارکرد و فرایند آن، مانع تنظیم‌گری مناسب و صحیح خواهد شد.

در نهایت هیئت حفاظت از داده‌های اروپا، با متحد کردن ناظران ملی حفظ حریم خصوصی اروپا، در ماه آوریل اعلام کرد که کارگروهی مخصوص «ChatGPT» راه‌اندازی کرده است که این حرکت را می‌توان اولین گام مهم قاره سبز در جهت تنظیم قوانین مشترک حفظ حریم خصوصی در حوزه هوش مصنوعی دانست؛ به عبارتی دیگر قانون‌گذاران اتحادیه اروپا همچنان در حال گفتگو، بحث و کارشناسی در مورد معرفی قانون هوش مصنوعی اتحادیه اروپا هستند تا حکمرانی حوزه هوش مصنوعی را بااقتدار پیش ببرد. قانون‌گذاران پیشنهاد کرده‌اند که ابزارهای گوناگون هوش مصنوعی را بر اساس میزان ریسک و خطرپذیری، از کم تا غیرقابل‌قبول درجه‌بندی کنند.

بنا به گفته سخنگوی وزیر صنعت و علوم استرالیا از نهاد اصلی مشاوره علمی کشور درباره نحوه برخورد باهوش مصنوعی درخواست مشورت کرده و در حال تحلیل و بررسی گام‌های بعدی خود است.

 

ایالات متحده آمریکا؛ تشکیل کارگروه مقابله با هوش مصنوعی

در راستای جذب میلیونی کاربران به سمت «Chat GPT» و تلاش کشورها جهت تنظیم‌گری آن، کاخ سفید در ماه مارس اعلام کرد که آمادگی شنیدن هر گونه پیشنهادی مبنی بر نحوه برخورد با «Chat GPT» و روش مسئولیت‌پذیر و پاسخگو نگه‌داشتن این فناوری جدید را دارد.

کمی قبل‌تر از آن در ماه می جو بایدن، رئیس‌جمهور ایالات متحده طی درخواستی بر بررسی پیامدهای ناشی از توسعه هوش مصنوعی تأکید کرد و شناخت و مقابله با خطرات آن را برای جامعه، امنیت ملی و اقتصاد ضروری دانست و همچنین افزود: «از نظر من، شرکت‌های فناوری مسئولیت دارند که پیش از عرضه عمومی محصولات خود، از ایمنی آن‌ها اطمینان حاصل کنند.» او از اعضای کنگره خواست که یک قانون حریم خصوصی تصویب کنند. چنین قانونی شامل مواردی مانند محدودیت شرکت‌ها در جمع‌آوری داده‌های شخصی، ممنوعیت تبلیغات برای جامعه هدف کودکان و منع انتشار اطلاعات نادرست و… خواهد بود.

طی آخرین اخبار در آوریل، مایکا بنت، سناتور آمریکایی، لایحه‌ای ارائه کرده است که بر اساس آن کارگروهی برای بررسی سیاست‌های ایالات متحده در زمینه هوش مصنوعی و شناسایی راه‌های مناسب مقابله با هر گونه نقض حریم خصوصی و آزادی‌های مدنی در آمریکا تشکیل شده و روندهای قانونی نحوه توسعه این فناوری مشخص خواهد شد.

وزیر امنیت میهن آمریکا نیز اعلام کرد کارگروه هوش مصنوعی همچنین شیوه استفاده از این فناوری برای انجام بهتر کارها مانند بررسی محموله‌های ورودی به کشور برای ردیابی کالاهای غیرقانونی را مطالعه می‌کند.

وی همچنین خواستار استفاده از هوش مصنوعی جهت ایمن سازی شبکه توزیع برق و سیستم‌های ذخیره آب شد. بیم آن می‌رود که هر دو این زیرساخت‌ها هدف دشمنان قرار گیرند.

مایورکاس اعلام کرد این فناوری به طور گسترده‌ای چشم انداز تهدیدها را تغییر می‌دهد.

کارشناسان امنیتی در واشنگتن مدعی احتمال استفاده دشمنان خارجی از قابلیت‌های هوش مصنوعی برای ضربه‌زدن به امنیت ملی ایالات متحده شدند.

وظیفه این کارگروه بر اساس لایحه منتشر شده، شناسایی نقاط ضعف در فرایند نظارت بر هوش مصنوعی و ارائه پیشنهادهایی برای بهبود و اصلاح رویه‌ها خواهد بود. اعضای این کارگروه اعضای برخی از سازمان‌های دولتی مانند: دفتر مدیریت و بودجه، نهاد ملی استاندارد و فناوری، دفتر سیاست دانش و فناوری و افسران آزادی‌های مدنی و حریم خصوصی از وزارت‌خانه‌های دادگستری، امور خارجه، خزانه‎‌داری، دفاع و سایر دستگاه‌های اجرایی هستند.

بر اساس مفاد لایحه، تشکیل این کارگروه موقتی است و بعد از ۱۸ ماه، گزارش نهایی را ارائه کرده و سپس تعطیل می‌شود.

در پنجم ماه می جو بایدن، رئیس‌جمهور ایالات متحده آمریکا به دنبال لزوم تنظیم‌گری هوش مصنوعی در نشستی با حضور مدیران شرکت‌های هوش مصنوعی از جمله مایکروسافت و گوگل به‌وضوح اعلام کرد که شرکت‌ها موظف‌اند ایمنی پلتفرم‌هایشان را قبل از توسعه آن تضمین کنند. محورهای اصلی این جلسه شامل لزوم شفافیت بیشتر شرکت‌ها در مقابل سیاست‌گذاران، اهمیت ارزیابی این محصولات و نیاز به محافظت از آنان در مقابل حملات مخرب بود. همچنین در این جلسه به نگرانی‌هایی درباره هوش مصنوعی مانند نقض حریم خصوصی، تصمیم‌های غلط در استخدام که منجر به ازبین‌رفتن مشاغل شود و ایفای نقش هوش مصنوعی به‌عنوان ناشر اطلاعات نادرست اشاره شد.

 

بریتانیا؛ مسئولیت پذیر کردن شرکت‌ها از طریق رویکردهای غیرسختگیرانه

دولتمردان بریتانیایی در ماه آپریل اعلام کردند هوش مصنوعی علاوه بر مزایایی که در رشد و پیشرفت بشر دارد ممکن است مشکلاتی را درباره حریم خصوصی، حقوق بشر یا ایمنی افراد ایجاد کند. آن‌ها مدعی شدند که قوانین سخت‌گیرانه و سرکوبگر را راه‌حل مناسبی نمی‌دانند و قصد دارند رویکردهای منعطف‌تر و بر اساس اصولی مانند ایمنی، شفافیت، انصاف و مسئولیت‌پذیری را در پیش گیرند.

کمی بعد استفان آلموند، مدیر اجرایی ریسک‌های امنیت داده از دفتر کمیسری اطلاعات بریتانیا هوش مصنوعی مولد بخصوص «Chat GPT» متعلق به شرکت «OpenAI» را خطری بالقوه برای امنیت داده دانست و بر اهمیت چگونگی استفاده این فناوری از داده‌های شخصی تأکید کرد. او در ادامه به لزوم متعهدشدن سازمان‌هایی که از هوش مصنوعی استفاده می‌کنند به حفاظت از داده‌های شخصی اشاره کرد و پیامدهای اهمیت‌ندادن هوش مصنوعی به حریم شخصی را بزرگ و سخت دانست.

سرانجام بریتانیا در ماه مارس اعلام کرد که قصد دارد به‌جای ایجاد یک نهاد تنظیم‌گر جدید، مسئولیت مدیریت هوش مصنوعی را بین تنظیم‌کننده‌های حقوق بشر، سلامت و ایمنی و رقابت تقسیم کنند.

 

ایتالیا؛ فیلترینگ و مشروط سازی

ایتالیا در ماه مارس، «ChatGPT» را موقتاً ممنوع اعلام کرد، زیرا مقامات تنظیم‌گر حفاظت از داده‌ها نگرانی‌هایی را در مورد نقض حریم خصوصی، نقض مقررات «GDPR» و کاربران زیر ۱۳ سال داشتند. همچنین سازمان دیده‌بان ایتالیا در ۲۰ مارس گفت که هیچ مبنای قانونی برای توجیه «جمع‌آوری و ذخیره انبوه داده‌های شخصی» به‌منظور «آموزش» الگوریتم‌های زیربنایی عملکرد پلتفرم وجود ندارد.

ایتالیا از شرکت سازنده هوش مصنوعی جدید خواست ابزاری فراهم کند تا همه افرادی که داده‌هایشان در چت جی پی تی مورد استفاده است، بتوانند درخواست تصحیح یا حذف داده‌های شخصی خود که به‌طور نادرست توسط این سرویس ایجاد شده‌اند را مطرح کنند. OpenAI همچنین باید به غیر کاربران اجازه دهد تا «به روشی ساده و در دسترس» با پردازش داده‌های شخصی خود برای اجرای الگوریتم‌های چت جی پی تی مخالفت کنند.

همچنین از این شرکت خواسته شده تا پایان سپتامبر یک سیستم تأیید سن را راه اندازی کند تا دسترسی کاربران زیر ۱۳ سال به چت جی پی تی ممنوع شود.

کمتر از یک ماه پس از اعمال ممنوعیت‌هایی برای ChatGPT به دلیل نگرانی‌های مربوط به حریم خصوصی توسط ایتالیا، دولت این کشور در روز جمعه نسبت به رویکرد خود درباره چت‌بات OpenAI عقب نشینی کرد. تصمیم جدید ایتالیا پس از پاسخگویی این استارتاپ به نگرانی‌هایی که درباره حریم خصوصی و امنیت داده‌های کاربران در پلتفرم هوش مصنوعی آنها مطرح شده بود، اتخاذ شده است.

تدابیر بین‌المللی علیه هوش مصنوعی جدید

آلمان و اقدامی مشابه ایتالیا

همچنین در روزهای اخیر ۴۲ انجمن و اتحادیه تجاری آلمانی که نماینده بیش از ۱۴۰ هزار مؤلف و بازیگر هستند از اتحادیه اروپا خواسته اند سریع‌تر پیش نویس قوانین هوش مصنوعی را فراهم کند. آنها به تهدید «چت جی پی تی» برای کپی رایت آثارشان اشاره کردند.

در این نامه به اهمیت نگرانی‌های روزافزون درباره هوش مصنوعی مولد مانند چت جی پی تی که می‌تواند از انسان‌ها تقلید کند و متن و تصویر بسازد، نیز پرداخته شده است.

در بخشی از این نامه آمده است: استفاده غیرمجاز از محتوای آموزشی محافظت شده، پردازش غیرشفاف آن و جایگزین کردن قابل پیش بینی منابع با محصول خروجی هوش مصنوعی مولد سوالاتی بنیادین درباره مسئولیت پذیری و پاداش ایجاد می‌کند که باید قبل از ایجاد آسیب‌های جبران ناپذیر، به آنها پرداخته شود. هوش مصنوعی مولد باید در مرکز هر قانون مربوط به بازار هوش مصنوعی باشد.

از سوی دیگر به نظر می‌رسد آلمان در نظر دارد به دلیل نگرانی در مورد حریم خصوصی، استفاده از چت جی‌پی‌تی را ممنوع کند. به گزارش ایندیپندنت، اولریش کلبر، رئیس حفاظت از داده‌های کشور آلمان، به روزنامه هندلسبلات (Handelsblatt) گفت: «به دنبال ممنوعیت چت جی‌پی‌تی در ایتالیا، ناظران آلمانی با همتایان ایتالیایی خود در ارتباط هستند و حالا این احتمال وجود دارد که چنین اقدامی در آلمان نیز صورت بگیرد.»

 

ژاپن؛ اجلاس G۷ و بیانیه پایانی با محوریت هوش مصنوعی

وزرای کشورهای عضو گروه ۷ معتقدند باید قوانینی مبتنی بر ریسک برای هوش مصنوعی به کار گیرند.

این در حالی است که قانونگذاران اروپایی سعی دارند هرچه سریع‌تر یک قانون مرتبط با ابزارهای نوظهوری مانند چت جی پی تی وضع کنند البته طبق بیانیه مشترک وزرای گروه ۷، قانون مذکور باید یک محیط باز و توانمند برای توسعه فناوری‌های هوش مصنوعی را حفظ کند و مبتنی بر ارزش‌های دموکراتیک باشد.

این بیانیه در پایان اجلاس ۲روزه گروه در ژاپن صادر شده است.

هر چند به اعتقاد وزرا ممکن است ابزارهای سیاستگذاری برای دستیابی به چشم اندازی یکسان و هدف ایجاد یک سیستم هوش مصنوعی ایمن بین کشورهای عضو این گروه متفاوت باشد، اما توافق مذکور نقطه عطفی در زمینه نظارت کشورهای پیشرفته بر هوش مصنوعی در بحبوحه اوج گیری نگرانی‌های حریم خصوصی و ریسک‌های امنیتی است.

مارگارت وستاگر کمیسر رقابت اتحادیه اروپا پیش از توافق در این باره گفت: نتیجه گیری اجلاس گروه ۷ نشان می‌دهد ما در زمینه قانونگذاری برای هوش مصنوعی تنها نیستیم.

در بخش دیگری از بیانیه وزرای این گروه آمده است: ما تصمیم داریم در آینده مذاکرات درباره هوش مصنوعی مولد را در اجلاس‌های گروه ۷ ادامه دهیم. در این مذاکرات احتمالاً موضوعاتی مانند نظارت، چگونگی حفاظت از حقوق مالکیت معنوی از جمله کپی رایت، ترویج شفافیت، بررسی اطلاعات اشتباه (از جمله اطلاعاتی که توسط نیروهای خارجی دستکاری می‌شود) مورد بحث قرار می‌گیرد.

در این میان ژاپن که رئیس گروه ۷ در سال جاری است، روشی آسانگیرانه تر در خصوص توسعه دهندگان هوش مصنوعی در پیش گرفته و خواستار پشتیبانی عمومی و صنعتی از توسعه هوش مصنوعی شده است.

ژاپن امیدوار است تا گروه ۷ را به یک فرایند نظارتی انعطاف پذیر به جای قوانینی سختگیرانه در خصوص هوش مصنوعی متقاعد کند.

 

روسیه؛ گیگا چت بومی

بانک روسی «اسبربانک» (Sberbank) رقیب چت جی پی تی به نام «گیگاچت» را ارائه کرده است. این فناوری در حال حاضر در وضعیت آزمایشی است و افراد با استفاده از دعوتنامه می‌توانند از آن استفاده کنند.

به گفته اسبربانک نکته متمایز گیگاچت توانایی برقراری ارتباط هوشمندانه‌تر به زبان روسی نسبت به سایر شبکه‌های عصبی خارجی است.

اسبربانک یا بانک پس‌انداز فدراسیون روسیه بزرگترین بانک در روسیه و اروپای شرقی است که در سال‌های اخیر سرمایه گذاری عظیمی در این فناوری کرده است. هدف این بانک کاهش اتکای کشور به واردات است زیرا پس از حمله روسیه به اوکراین کشورهای غربی صادرات را به شدت کاهش داده و تحریم‌های علیه آن وضع کرده اند.

 

ضرورت پیوست نگاری برای فناوری‌های نوظهور

«علی زرودی»، پژوهشگر فضای مجازی و مدرس دانشگاه، در گفتگو با خبرنگار مهر درباره تهدیدات بالقوه هوش مصنوعی گفت: هوش مصنوعی مانند بسیاری از فناوری‌های نوظهور گذشته، گرچه مزایای شگفت‌انگیزی دارد و فرصت‌های بی‌بدیلی می‌آفریند؛ اما جوامع بشری را با تهدیدات بزرگی مواجه می‌کند. یکی از مهمترین این تهدیدات نقض امنیت داده و حریم خصوصی است.

وی افزود: تهدید دیگر بیکارشدن بخشی از نیروی کار فعلی جوامع است. افزایش نظارت دولت‌ها و شرکت‌های صاحب فناوری بر کاربران، افزایش دستکاری در افکار عمومی به واسطه تسهیل تولید و انتشار محتوای نادرست و جعلی (مانند ساخت ویدئوی جعلی از سخنرانی یک شخصیت مشهور)، پیچیده‌تر شدن حملات سایبری، جاسوسی و باج‌افزارها نیز از دیگر تهدیدات این فناوری محسوب می‌شوند.

پژوهشگر فضای مجازی گفت: البته هوش مصنوعی برای تقابل با این تهدیدات هم یاریگر انسان‌ها خواهد بود؛ به عنوان مثال تقویت «دفاع سایبری» از مزایای این فناوری محسوب می‌شود. نکته دیگر این است که پیش‌بینی این تهدیدات و اتخاذ تدابیر تنظیم‌گرانه برای مقابله با آن‌ها مهم و ضروری است.

وی در ادامه و در مورد دلیل تمرکز نهادهای تنظیم‌گر جهان بر حوزه فناوری هوش مصنوعی افزود: وظیفه قانون‌گذاران و به طور کلی حکمرانان یک جامعه، تضمین منافع و مصالح عمومی آن جامعه است. هدف محوری شرکت‌های هوش مصنوعی مانند سایر شرکت‌ها در بخش خصوصی، بیشینه کردن سود تجاری است. بنابراین این شرکت‌ها به دنبال خلاقیت و نوآوری روزانه هستند. از آنجا که مطابق نظریات جامعه شناختی، سرعت تغییرات ارزشی و هنجاری در یک جامعه بسیار کمتر از سرعت تغییرات فناوری در آن جامعه است (که اصطلاح تأخر فرهنگی/Cultural Lag را برای این پدیده استفاده می‌کنند) تحولات روزانه فناوری‌ها موجب اختلال در سیستم ارزشی جوامع می‌شود.

زرودی افزود: اگر این تحول فناورانه، به صورت وارداتی باشد، شدت تأخر فرهنگی و اختلال ذکر شده بیشتر خواهد بود. تحولات سیستم ارزشی جامعه پیامدهایی برای سایر سیستم‌ها همچون سیاست، فرهنگ، اقتصاد، تربیت و… دارد و منافع عمومی را به خطر می‌اندازد. قانون‌گذار به ویژه در کشورهایی که واردکننده فناوری هستند، تلاش می‌کند تا با محدودکردن شرکت‌های فناوری از اختلالات ذکر شده بکاهد. به عنوان مثال بریتانیا و اتحادیه اروپا که در زمینه تحولات فناوری از شرکت‌های آمریکایی عقب افتاده‌اند و محصولات فناورانه داخلی آن‌ها نمی‌تواند با محصولات شرکت‌های آمریکایی رقابت کند، به مقررات‌گذاریِ حداکثری برای شرکت‌های آمریکایی روی آورده‌اند.

وی در این مورد گفت: فناوری‌های نوظهور همواره می‌تواند شتاب پیشرفت اقتصادی را بیشتر کند مشروط به آنکه رویکرد فعالانه (بدون تأخیر، آینده‌نگرانه و مبتنی بر طراحی بومی) وجود داشته باشد و زیرساخت‌های حقوقی، اقتصادی، اجتماعی و سیاسی لازم برای توسعه آن فناوری مهیا شود. با درنظر گرفتن چنین شرایطی، فناوری نوظهور می‌تواند در مسیر پیشرفت، جهش ایجاد کند.

هر یک روز تأخیر ما برای ورود به طراحی اکوسیستم بومی یک فناوری منجر به این می‌شود که در آن فناوری عقب‌مانده و بدون قدرت باشیم. اقتضای حکمرانی فعال، غنیمت شمردن فرصت‌هاست

پژوهشگر فضای مجازی و مدرس دانشگاه اظهار داشت: تاکنون چنین مواجهه مطلوبی با فناوری‌های نوظهور نداشته‌ایم. اقدامات گذشته ما منفعلانه بوده است. یا جلوی یک فناوری را گرفته‌ایم یا در نهایت آن را وارد کرده و برایش پیوست فرهنگی و زیست محیطی و… نوشته‌ایم. پیوست‌نگاری برای فناوری‌های نوظهور حتی اگر نوع پیوست‌نگاری پیشینی (یعنی پیش از ورود فناوری به کشور) باشد، اقدامی منفعلانه است. اقدام فعالانه در مواجهه با فناوری جدید، طراحی بومی باشد ضروری است. چند سال قبل که ما از ضرورت طراحی بومی اینترنت اشیا صحبت می‌کردیم، برخی این موضوع را باور نداشتند تا اینکه در دو سال گذشته، آفکام در رویکرد جدید خود برای توسعه سواد رسانه‌ای، اقدام به تعامل با پلتفرم‌ها کرده است تا طراحی پلتفرم‌ها متناسب با اصول سواد رسانه‌ای مدنظر آفکام باشد. درواقع مقررات و ارزش‌ها را در مرحله طراحی فناوری پیاده‌سازی می‌کند. بعد از این اقدام آفکام، حرف ما نیز درخصوص طراحی بومی اینترنت اشیا شنیده شد. امروز هم همین موضوع درمورد هوش مصنوعی و سایر فناوری‌ها وجود دارد. هر یک روز تأخیر ما برای ورود به طراحی اکوسیستم بومی یک فناوری منجر به این می‌شود که در آن فناوری عقب‌مانده و بدون قدرت باشیم. اقتضای حکمرانی فعال، غنیمت شمردن فرصت‌هاست.

به گزارش مهر، هوش مصنوعی‌هایی مانند «ChatGPT» مزایای بسیاری دارند، این پلتفرم‌ها می‌توانند سرعت رشد و توسعه علم را بالا برده و به تجارت، اکتشاف، آموزش، سیاست‌گذاری و بسیاری از مسائل خرد و کلان زندگی بشر رونق بیشتری داده و کیفیتشان را بالا ببرد؛ اما بی‌اهمیتی به معایب آن و اقدام‌نکردن به‌موقع برای تنظیم‌گری درست و به‌قاعده می‌تواند آثار جبران‌ناپذیری داشته باشد که نه‌تنها خود آسیب می‌زنند بلکه مزایای هوش مصنوعی را هم عملاً بی‌فایده خواهند کرد.

حساب‌های غیر فعال توییتر حذف می‌شوند

سه شنبه, ۱۹ ارديبهشت ۱۴۰۲، ۰۶:۳۷ ب.ظ | ۰ نظر

ایلان ماسک مدیر ارشد اجرایی توئیتر اعلام کرد حساب های کاربری که چندماه غیر فعال بوده اند را حذف خواهد کرد. 
به گزارش خبرگزاری مهر به نقل از رویترز، مالک توئیتر در توئیتی اعلام کرد حساب های کاربری غیرفعال آرشیو می شوند. او جزئیاتی درباره این اقدام یا زمان انجام فرایند را اعلام نکرد.

هنوز مشخص نیست آیا کاربران توئیتر می توانند به حساب های کاربری آرشیو شده دسترسی یابند یا اصلا دسترسی به چنین حساب هایی چگونه ممکن است.

همچنین ماسک اعلام کرد با حذف حساب های کاربری غیرفعال ممکن است کاربران این پلتفرم شاهد کاهش تعداد فالوئرهایشان باشند.

طبق سیاست توئیتر کاربران باید حداقل هر ۳۰ روز یکبار وارد حساب کاربری شان شوند تا از حذف دائمی آن اجتناب کنند.

جریمه سنگین برای فرار مالیاتی «اینفلوئنسرها»

سه شنبه, ۱۹ ارديبهشت ۱۴۰۲، ۰۶:۳۴ ب.ظ | ۰ نظر

سینماپرس: سه اینفلوئنسر به پرداخت ۴۰۰۰۰۰ یورو به عنوان معوقه مالیاتی و جریمه محکوم شدند.

به گزارش سینماپرس، برخی از کشورها قوانین مختلفی را برای فعالیت اینفلوئنسرها و سلبریتی‌ها در شبکه‌های اجتماعی وضع کرده‌اند که اگر این افراد قوانین را رعایت نکنند با جریمه‌های نقدی یا حتی زندان مواجه می‌شوند.

جریمه سنگین برای فرار مالیاتی «اینفلوئنسرها»

*اینفلوئنسر با چهره ورزشی و هنری فرق می‌کند

اینفلوئنسرها، افراد معروف و تاثیرگذار در شبکه‌های اجتماعی هستند آنها مانند چهره‌های سرشناس دنیای ورزش و هنر و سرگرمی در میان مردم شناخته شده نیستند ولی در شبکه‌های اجتماعی نفوذ و اثرگذاری قابل ملاحظه‌ای دارند.

بطور معمول اینفلوئنسرها به عنوان یک پیمانکار مستقل برای تبلیغات شرکت‌ها کار می‌کنند. پیمانکاران مستقل در دسته «خود اشتغالی» جای می‌گیرند از این رو باید «مالیات خود اشتغالی» و «مالیات بر درآمد» پرداخت کنند.

جریمه سنگین برای فرار مالیاتی «اینفلوئنسرها»

*بهره‌برداری اینفلوئنسرها از بازاریابی مجازی

همان طور که می‌دانید یکی از روش‌های موثر در بازاریابی، بازاریابی دهان به دهان است. در اینفلوئنسر مارکتینگ از این روش بازاریابی به خوبی بهره برده و از آن جایی که مخاطبین(فالُوِرها/دنبال کننده) به فرد اینفلوئنسر اعتماد دارند راحت تر جذب محصول یا خدمات برند می‌شوند.

میزان در آمد اینفلوئنسرها از طریق فعالیت در شبکه‌های اجتماعی به ویژه اینستاگرام یکی از موضوعات جذاب برای کاربران در این شبکه‌هاست. بیشترین سوالی که احتمالا در ارتباط با این موضوع برای خیلی‌ها پیش می‌آید این است که آیا درآمد آنها از این طریق شامل مالیات می‌شود و آیا آنها ملزم هستند تا بخشی از درآمد خود از طریق شبکه‌های اجتماعی تحت عنوان اینفلوئنسر را به مالیات اختصاص دهند؟

جریمه سنگین برای فرار مالیاتی «اینفلوئنسرها»

*عدم تصویب قوانین مشخص در حوزه مالیات اینفلوئنسرها

این گونه فعالیت‌ها و کسب و کارها چون از ماهیت جدیدی برخوردار هستند قوانین مالیاتی مشخصی در کشور ما برای آنها تعریف نشده است.

حال سوال این است که درآمد اینفلوئنسرها و مبالغ مالیاتی آنها چگونه مورد محاسبه قرار می‌گیرد؟ و اساسا سازمان امور مالیاتی برای تعیین اینفلوئنسر چه معیار و مولفه‌ای به کار خواهد برد؟

 

*گردش مالی بسیار بالای اینفلوئنسرها

اینفلوئنسرها و سلبریتی‌های بسیار زیادی در زمینه تبلیغات در شبکه‌های اجتماعی فعال هستند. که البته به میزان بسیار بیشتری از این افراد نیز، صفحات و پیج‌های مجهول‌الهویه‌ای وجود دارند که تعداد مخاطبان میلیونی داشته و گردش مالی آنها رقم بسیار بالایی است اما هویت واقعی اینفلوئنسر مشخص نیست و با درآمدهایی با رقم‌هایی نجومی به حیات خود در فضای مجازی ادامه می‌دهند و تاکنون یک ریال مالیات هم پرداخت نکرده‌اند.

جریمه سنگین برای فرار مالیاتی «اینفلوئنسرها»

*جریمه ۴۰۰ هزار یورویی سه اینفلوئنسر در بلژیک

به نقل از وی‌آرتی نیوز، سه اینفلوئنسر در کشور بلژیک به پرداخت ۴۰۰۰۰۰ یورو به عنوان معوقه مالیاتی و جریمه محکوم شدند.

این اینفلوئنسرها محصولات و خدمات خاصی را در رسانه های اجتماعی تبلیغ می‌کنند. در ازای آن، شرکت‌هایی که کالاها و خدماتشان را تبلیغ می‌کنند، به صورت نقدی یا کالایی به آن اینفلوئنسرها پول‌های کلان پرداخت می‌کنند.

جریمه سنگین برای فرار مالیاتی «اینفلوئنسرها»

*کشورهای اروپایی در حال تنظیم‌گری فعالیت اینفلوئنسرها

بلژیک سال گذشته قوانین خود در زمینه فضای مجازی و برخورد با اینفلوئنسرها را تشدید کرد. در نتیجه اینفلوئنسرها نیز باید هر گونه مزایایی را که دریافت کرده‌اند را اعلام کنند.

تعدادی از آنها تمام وجوه نقد، کالاها و خدماتی که به آنها داده شده را اعلام نکردند و اکنون به پرداخت معوقات و همچنین جریمه محکوم شده‌اند.

بسیاری کشورهای اروپایی در حال تدوین مقررات و قوانین نظارت و مالیات گیری از اینفلوئنسرها هستند.

توافق صدمیلیون دلاری نیویورک تایمز و گوگل

سه شنبه, ۱۹ ارديبهشت ۱۴۰۲، ۰۶:۲۴ ب.ظ | ۰ نظر

نیویورک تایمز حدود ۱۰۰ میلیون دلار از گوگل برای مدت سه سال در ازای محتوای این روزنامه که در پلتفرم‌های این غول اینترنتی منتشر می‌شود، دریافت می‌کند.

به گزارش ایسنا، روزنامه وال استریت ژورنال به نقل از منابع آگاه گزارش کرد قرارداد میان گوگل و نیویورک تایمز شامل مشارکت در گوگل نیوز و پلتفرم‌های دیگر گوگل است.

نیویورک تایمز در فوریه، تمدید توافق با گوگل که شامل توزیع محتوا و اشتراکها بود را اعلام کرده بود.

بر اساس گزارش رویترز، گوگل و تایمز در این باره اظهارنظر نکردند.

لینکدین قید چین را زد

سه شنبه, ۱۹ ارديبهشت ۱۴۰۲، ۰۶:۱۷ ب.ظ | ۰ نظر

یکی از معدود اپلیکیشن‌های آمریکایی شبکه اجتماعی از ادامه فعالیت خود به خاطر رقابت شدید و شرایط دشوار اقتصاد کلان در چین صرفنظر کرد.

به گزارش شارا، شبکه اجتماعی لینکدین اعلام کرد که اپلیکیشن آن در چین به زودی کار خود را متوقف خواهد کرد.

شرکت مایکروسافت که صاحب لینکدین است در همین زمینه از «رقابت شدید» و «شرایط دشوار اقتصاد کلان» در چین سخن گفته است. لینکدین یکی از معدود اپلیکیشن‌های آمریکایی شبکه‌اجتماعی بود که با وجود سانسور شدید و مقررات سختگیرانه موفق شده بود در چین فعالیت کند.
مایکروسافت در همین راستا در چین نسخه خاصی از اپلیکیشن لینکدین مطابق با مقررات محلی عرضه کرده بود.

افزایش محتوای کودک آزاری در رسانه‌های اجتماعی

سه شنبه, ۱۹ ارديبهشت ۱۴۰۲، ۰۵:۰۳ ب.ظ | ۰ نظر

مقامات پلتفرم‌های دیجیتال و سایت‌های عمده رسانه‌های اجتماعی اذعان می‌کنند در سال ۲۰۲۲ میلادی مضامین مربوط به سوء استفاده جنسی از کودکان افزایش نگران کننده‌ای یافته است
به گزارش خبرگزاری صدا و سیما؛  به نقل از سی تی وی نیوز، مقامات پلتفرم‌های دیجیتال و سایت‌های عمده رسانه‌های اجتماعی اذعان می‌کنند در سال ۲۰۲۲ میلادی مضامین مربوط به سوء استفاده جنسی از کودکان افزایش نگران کننده‌ای یافته است ضمن آن که از ۳۱ میلیون و ۸۰۰ هزار گزارش موجود، ۸۵.۵ درصد به پلتفرم‌های متا شامل فیس بوک، اینستاگرام و واتس اپ ارتباط دارد.
لیانا مک دونالد، مدیر اجرایی مرکز حفاظت از کودکان در کانادا در بیانیه‌ای گفت: «این ارقام در حال افزایش است یا به خاطر افزایش توزیع مطالب توسط کاربران یا به خاطر آن که شرکت‌ها همین تازگی شروع به بررسی وضعیت سایت‌ها و پلتفرم‌های خود کرده اند.»
این داده‌ها را مرکز ملی کودکان ناپدید یا قربانی سوء استفاده در آمریکا منتشر کرده است. هم کانادا و هم آمریکا از نظر قانونی ارایه دهندگان خدمات الکترونیک در کشورشان را ملزم کرده اند که موارد هرزه نگاری کودکان را گزارش دهند و حذف کنند. با این حال هیچ الزام قانونی برای این شرکت‌ها وجود ندارد که این دست محتوا‌ها را جستجو کنند یا از ابزار‌هایی برای عدم بارگزاری آن استفاده کنند.
شرکت متا در سال ۲۰۲۲ میلادی ۲۷.۲ میلیون گزارش از این دست ارسال کرد که شامل ۲۱.۲ میلیون از فیس بوک، ۵ میلیون از اینستاگرام و یک میلیون از واتس اپ بود و نشانگر افزایش ۱.۱ درصدی نسبت به سال ۲۰۲۱ بود. فیس بوک به تنهایی منشا ۶۶.۶ درصد از گزارش‌ها در سال ۲۰۲۲ بود.
فیس بوک محبوب‌ترین رسانه اجتماعی در کانادا و آمریکاست طوری که ۳ ه چهارم بزرگسالان از آن استفاده می‌کنند.
مطالب گزارش شده بسیاری از ارایه دهندگان خدمات الکترونیک در سال ۲۰۲۲ نیز در حدی نگران کننده است و این شامل ۲.۲ میلیون گزارش از گوگل معادل ۱۵۵ درصد افزایش نسبت به سال ۲۰۲۱، بیش از ۵۵۱ هزار گزارش از اسنپ چت معادل ۷.۵ درصد افزایش، بیش از ۲۸۸ هزار گزارش از تیک توک معادل ۸۶.۳ درصد افزایش، حدود ۱۷۰ هزار گزارش از دیسکورد معادل ۴۷۳ درصد افزایش و بیش از ۹۸ هزار گزارش از توئیتر معادل ۱۳ درصد افزایش می‌باشد

استراتژی سایبری ارتش آمریکا؛ شکار به جلو

سه شنبه, ۱۹ ارديبهشت ۱۴۰۲، ۰۵:۰۱ ب.ظ | ۰ نظر

ژنرال پل ناکاسونه فرماندهی سایبری ایالات متحده پس از سخنرانی کلیدی پایانی خود در اجلاس سران دانشگاه وندربیلت در مورد درگیری های مدرن و تهدیدات نوظهور، با خبرنگاران به گفتگو نشست تا تعدادی از موضوعات امنیت سایبری را بررسی کند.
در اینجا نکات مهم صحبت با ناکاسونه، که همچنین ریاست آژانس امنیت ملی را بر عهده دارد، آمده است:

استراتژی سایبری وزارت دفاع: پنتاگون آماده انتشار آخرین استراتژی سایبری خود در پنج سال آینده است. در سال 2018، نسخه قبلی آژانس را از موضعی عمدتاً پاسخگو به استراتژی «دفاع به جلو» تغییر داد، که هدف آن مقابله با رفتار دشمن تا حد امکان نزدیک به منبع است. فرماندهی سایبری آن را از طریق رویکرد «درگیری مداوم» اجرا خواهد کرد؛ به این معنی که اپراتورهای آمریکایی باید دائما و سریع با دشمنان در فضای مجازی تعامل داشته باشند.
ناکاسون در مورد سند پیش رو می گوید: من فکر نمی‌کنم تفاوت چشمگیری با سال 2018 داشته باشد. در سال 2018 نقطه عطف بزرگی با دفاع به جلو وجود داشت. من لزوماً تغییر بزرگی در استراتژی نمی بینم. فکر می‌کنم تغییرات مهمی دارد، اما 2018 برای ما بسیار مهم بود.

او اضافه می کند که محتوای استراتژی، بیشتر در راستای این است که چگونه می‌توان بسیار سریع تر شد و مشارکت با سازمان‌های دیگر، از جمله در سطح بین‌المللی را تقویت کرد. ناکاسونه می گوید: من فکر می کنم شما چیزهای بیشتری از این را خواهید دید. من فکر می‌کنم نقش بسیار مهم‌تری از این نظر وجود دارد که متحدان شما چگونه در این امر بازی می‌کنند، هم از این نظر که چگونه از متحدان خود به نحوی استفاده می‌کنید که به توانایی‌های شما می‌افزاید و همچنین اینکه چگونه در حفاظت از آنها کمک خواهید کرد.

بخش 702: ناکاسون می گوید اگر کنگره نتواند بخش 702 قانون نظارت بر اطلاعات خارجی را قبل از پایان سال تمدید کند، جامعه پنهان ایالات متحده متضرر خواهد شد. این قانون به دولت فدرال اجازه خواهد داد تا ایمیل ها و ارتباطات الکترونیکی اهداف اطلاعاتی خارجی را جمع آوری کند، اما به طور اتفاقی داده های شخصی آمریکایی ها را نیز جمع آوری می کند.
اف بی آی، مقامات بسیار بسیار منحصر به فردی دارد که آژانس امنیت ملی آنها را انتخاب نخواهد کرد. این عنصر داخلی چیزی است که در جریان است. ناکاسونه می گوید که آنها در ایالات متحده فعالیت نمی کنند و بنابراین این بسیار چالش برانگیز خواهد بود.
او پیش‌بینی می کند که با ادامه بحث تمدید، اف بی آی نشان خواهد داد که از پرسش‌ها برای تعیین قربانیان هک استفاده خواهد شد. این چیزی است که او فکر می‌کند زمانی که دفتر بیشتر و بیشتر درباره آن صحبت کند، عملی خواهد شد.

اوکراین: ژنرال چهار ستاره ارتش پیش‌بینی می کند که فرماندهی سایبری که تیم‌های شکار به جلو را برای تقویت دفاع دیجیتال خود به اوکراین فرستاده است، با ادامه درگیری کیف با روسیه در تابستان به حمایت خود ادامه خواهد داد.
وی با اشاره به اینکه کشورهای ناتو برای تقویت امنیت سایبری خود تلاش می کنند، می گوید: من شرط می بندم که درخواست بزرگ تری برای این کار در زمینه عملیات شکار وجود دارد.

اما در غیر این صورت، ناکاسون پیش بینی می کند که کار فرماندهی سایبری با فرماندهی اروپایی ایالات متحده، تغییر زیادی نخواهد داشت.

روسیه: ناکاسونه می گوید که او با دقت بسیار بالایی دنبال می کند که چگونه هکرهای روسی ممکن است از هوش مصنوعی مولد برای پیشبرد عملیات نفوذ مسکو در آینده استفاده کنند. وی در این باره می گوید: این کشوری است که بهترین تاثیر را بر عملیات انجام می دهد. من آنها را تماشا کرده ام. و بنابراین، آیا ما شاهد تغییری در این نوع کار خواهیم بود؟ آیا آنها شروع به حرکت به سمت ویدیوهای آنلاین بزرگتر یا ضبط های متفاوتی خواهند کرد؟

ناتو: حملات دیجیتالی به اعضای ائتلاف پس از حمله مخرب به آلبانی در سال گذشته که به هکرهای ایرانی نسبت داده شد، در «همان سطح» باقی مانده است.
در آن نمونه، ایالات متحده کمک های زیادی را به آلبانی اعزام کرد، از جمله فرماندهی سایبری که تیمی از اپراتورها را برای بازگرداندن خدمات دولتی به صورت آنلاین مستقر کرد. به گفته ناکاسونه، آنها شاهد افزایش حملات نبودند. (منبع:سایبربان)

نگرانی ۷۵درصد استرالیایی‌ها از توسعه 5G

سه شنبه, ۱۹ ارديبهشت ۱۴۰۲، ۰۵:۰۰ ب.ظ | ۰ نظر

کارشناسان اعلام کردند که 75 درصد از استرالیایی‌ها نگران 5G هستند.
به گزارش سایبربان؛ تالس (Thales) در گزارش تهدید داده‌های «Thales 2023» سالانه خود در مورد آخرین تهدیدات امنیت داده‌ها، روندها و موضوعات نوظهور براساس نظرسنجی از نزدیک به 3000 متخصص فناوری اطلاعات و امنیت در 18 کشور مطرح کرد که از آنجایی که حملات باج‌افزاری همچنان بر سازمان‌های استرالیایی تأثیر می‌گذارد، نگرانی‌های امنیتی رو به رشد بیشتری در مورد شبکه 5G و داده‌های در حال حرکت شناسایی شده است.

 

افزایش حجم و شدت تهدیدات امنیتی

بیش از یک سوم سازمان‌های استرالیایی (36 درصد) در 12 ماه گذشته نقض داده‌ها را تجربه کرده‌اند که باعث شد 45 درصد از متخصصان فناوری اطلاعات مورد بررسی بر این باور باشند که تهدیدات امنیتی از نظر حجم یا شدت در حال افزایش است.

از هر 10 سازمان، 4 مورد (43 درصد) افزایش حملات باج‌افزاری را گزارش کرده‌اند و در حالی که نیمی از آنها (51 درصد) یک طرح رسمی باج‌افزار آماده فعال‌سازی دارند، یک چهارم (24 درصد) اذعان می‌کنند که باج را پرداخت کرده‌اند یا پرداخت خواهند پرداخت.

با گسترش باج‌افزارهای اخاذی مضاعف، تقریباً از هر 5 سازمان استرالیایی یک نفر (17 درصد) معتقد است که افشای اطلاعات حساس از طریق نفوذ به بزرگترین تأثیر حملات باج‌افزاری تبدیل شده است.

 

مزایا و معایب 5G

در حالیکه 5G از نظر بهبود بهره‌وری انقلابی خواهد بود، اما مسئول گسترش چشمگیر چشم انداز تهدید امنیت سایبری است.

3 چهارم (7 5 درصد) متخصصان فناوری اطلاعات استرالیا نگران تهدیدات امنیتی شبکه 5G هستند؛ از هر 10 نفر (75 درصد) 7 نفر بیشتر نگران امنیت داده‌هایی هستند که در سراسر شبکه 5G حرکت می‌کنند.

 

شناسایی داده‌های در حال حرکت به عنوان بزرگ‌ترین هدف حمله سایبری

پاسخ دهندگان دارایی‌های ابری خود را به عنوان هدف اصلی حملات سایبری شناسایی کردند.

تقریباً نیمی (48 درصد) گفتند که برنامه‌های میزبانی شده از ابر و داده‌های در حال حرکت بزرگ‌ترین اهداف هستند؛ مشکلی که از سوی 7 سازمان (72 درصد) با استفاده از بیش از 25 برنامه نرم‌افزار به عنوان سرویس (SaaS) و یکی از 5 مورد (19 درصد) با استفاده از بیش از 100 برنامه تشدید شده است.

در نتیجه، یک سوم سازمان‌های استرالیایی سرمایه‌گذاری را برای تأمین امنیت داده‌ها در حین حمل و نقل (33 درصد) و پس از آن داده‌های در حالت استراحت (28 درصد) و داده‌های در حال استفاده (28 درصد) در اولویت قرار می‌دهند.

 

پرداختن به چالش‌های حاکمیت دیجیتال

حاکمیت دیجیتال به طور فزاینده‌ای در ذهن تیم‌های حریم خصوصی و امنیت داده‌ها قرار می‌گیرد. به طور کلی، این گزارش نشان داد که حاکمیت داده‌ها هم یک چالش کوتاه مدت و هم درازمدت برای شرکت‌های استرالیایی است.

از هر 10 نفر (82 درصد) 8 نفر در مورد اینکه چگونه حریم خصوصی داده و حاکمیت داده بر برنامه‌های استقرار ابری سازمان‌هایشان تأثیر می‌گذارد، ابراز نگرانی کردند و 59 درصد موافق بودند که حفظ حریم خصوصی و انطباق داده‌ها در فضای ابری دشوارتر شده است.

برایان گرانت (Brian Grant)، مدیر امنیت ابر تالس در استرالیا و نیوزیلند گفت : «از آنجایی که 5G برای اجرای بخش‌های تولید، حمل‌ونقل، انرژی و موارد دیگر حیاتی‌تر می‌شود، سونامی داده‌های حساس ایجاد می‌کند. نیمی از سازمان‌های استرالیایی معتقدند که تهدیدات امنیتی در سال گذشته افزایش یافته و استقرار مداوم 5G تنها به تشدید چشم‌انداز تهدید کمک می‌کند.»

گرانت خاطرنشان کرد که سازمان‌ها حق دارند درباره داده‌های خود نگران باشند. رشد و موفقیت یک کسب و کار امروزه به همان اندازه که به حفاظت از جریان نقدی آن متکی است به امنیت خوب داده‌ها، رمزگذاری و ایمن‌سازی داده‌های در حال استفاده بستگی دارد. داده‌های حمل و نقل و در حالت استراحت نه تنها به اثبات آینده در برابر گسترش 5G، بلکه به تشدید مقررات حریم خصوصی و حاکمیت در سراسر جهان نیز کمک خواهد کرد.

مهار ۱۳ میلیون حمله سایبری در مصر

سه شنبه, ۱۹ ارديبهشت ۱۴۰۲، ۰۴:۵۸ ب.ظ | ۰ نظر

شرکت کسپرسکی ادعا کرد که با 13 میلیون حمله سایبری در مصر در 3 ماهه اول سال 2023 مقابله کرده است.
به گزارش سایبربان؛ امین حسبینی (Amin Hasbiny)، رئیس تیم تحقیقاتی و تحلیل جهانی کسپرسکی (Kaspersky) در خاورمیانه، ترکیه و آفریقا، شرکت متخصص در راه‌حل‌ها و خدمات امنیت سایبری، ادعا کرد که شرکت او در طول 3 ماهه اول سال جاری، حدود 13 میلیون حمله الکترونیکی را در مصر رصد و متوقف کرده است.

حسبینی در بیانیه‌ای در حاشیه فعالیت‌های هشتمین مجمع سالانه امنیت سایبری خاورمیانه، ترکیه و آفریقا که از سوی کسپرسکی در شهر آلماتی قزاقستان برگزار می‌شود، گفت : «افزایش تعداد حملاتی که حساب‌های بانکی را هدف قرار می‌دهند و داده‌های مشتریان بخش بانکی در مصر در 3 ماهه اول سال 186 درصد نسبت به مدت مشابه در سال 2022 رصد شده است. افزایش سریع تعداد حملات هک روی سیستم اطلاعاتی در بخش بانکداری خرده‌فروشی در مصر و همچنین افزایش حملات فیشینگ از طریق ایمیل و پیام‌های کوتاه در بحبوحه کاهش حملات پیشرفته مرتبط با وضعیت ژئوپلیتیک دیده می‌شود.»

وی خاطرنشان کرد که حدود 75 هزار کاربر در مصر در 3 ماهه اول سال جاری در معرض حملات فیشینگ قرار گرفتند که تلاشی برای کلاهبرداری در راستای ورود به سایت‌های مخرب و به اشتراک‌گذاری اطلاعات شخصی و بانکی از طریق پیوندهای مخرب در ایمیل است؛ و پیامک‌ها نشان می‌دهد که بین 17 تا 70 درصد از کاربرانی که این ایمیل‌ها و پیام‌های جعلی را دریافت می‌کنند، روی لینک‌ها کلیک می‌کنند و در دام الکترونیکی می‌افتند.

رئیس تیم تحقیق و تحلیل جهانی کسپرسکی درخاورمیانه، ترکیه و آفریقا فاش کرد که نهادهای دولتی مصر سال گذشته در معرض حملات تیم‌های هکری بین‌المللی با هدف جاسوسی و سرقت اطلاعات مشتریان قرار گرفتند.

حسبینی توضیح داد که این حملات به‌وسیله تیم‌های جهانی «AllRig» و «BlogX» هدایت می‌شوند که در حملات سایبری پیشرفته تخصص دارند و ترجیح می‌دهند نام این مؤسسات یا ماهیت کارشان به دلیل برای حساسیت موضوع فاش نشود.

او با اشاره به اینکه با این حملات با همکاری نهادهای مصری مقابله شده، تأکید کرد که کسپرسکی به نظارت و دفع حملات امنیت اطلاعاتی که نهادهای محلی در مصر را هدف قرار می‌دهند، به ویژه جاسوسی و تلاش برای هدف قرار دادن و خرابکاری نهادهای زیرساختی حیاتی به ویژه نهادهای دولتی توجه دارد.

دو رهبر ارشد امنیت سایبری فدرال روز جمعه، باج‌افزار را به عنوان یک تهدید دائمی توصیف کردند، اما ابراز خوش‌بینی کردند که اقدامات در حال انجام و اخیراً آغاز شده، به مبارزه با همه‌گیری دیجیتال کمک خواهد کرد.
ژنرال پل ناکاسونه، فرمانده فرماندهی سایبری ایالات متحده و رئیس آژانس امنیت ملی ایالات متحده آمریکا (NSA)، پس از سخنرانی اصلی خود در اجلاس سران دانشگاه وندربیلت در مورد درگیری های مدرن و تهدیدات نوظهور، به خبرنگاران گفت:

من مطمئن نیستم که این تهدیدات چه زمانی به اوج خواهند رسید. اما مطمئناً از بین نخواهد رفت.

جن ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیرساخت آمریکا (CISA) نیز گزارش‌های تقریباً روزانه حملات باج‌افزار را تأیید کرد، اما می گوید: به سختی می‌توان گفت که تعداد حوادث در حال افزایش یا کاهش است، زیرا هنوز هیچ گزارش دقیقی برای ارائه یک تصویر بزرگ به دولت وجود ندارد.

او پس از گفتگوی دوستانه خود در کنفرانس به خبرنگاران گفت که هنوز یک نهاد معتبر در مورد میزان افزایش یا کاهش باج‌افزار وجود ندارد و این موضوع خیلی مبهم است و خود بسیار حکایت ها را به دنبال دارد.
پس از حملات اخاذی صورت گرفته به خطوط لوله کولونیال (Colonial Pipeline) در گذشته و دیگر نهادهای خصوصی بزرگ در سال 2021، کاخ سفید و کنگره برای رسیدگی به باج افزارها اقداماتی را انجام داده اند تا تهدید آنلاین را به یک مسئله مورد بحث عادی در خانواده های آمریکایی تبدیل کند.
مهم‌تر از همه، جو بایدن، رئیس‌جمهور ایالات متحده سال گذشته قانون دو حزبی را امضا کرد که مالکان زیرساخت‌های حیاتی را موظف می‌کرد تا در صورت هک شدن سازمانشان یا پرداخت باج‌افزار، به دولت اطلاع دهند. همچنین به بخش سایبری وزارت امنیت داخلی مأموریت داد تا یک سازمان گزارش رویداد ایجاد کند. از جمله ابتکارات دیگر آن، می توان به نیروی اقدام مشترک علیه باج افزار (Joint Ransomware Task Force) که توسط آژانس امنیت سایبری و امنیت زیرساخت آمریکا و اف بی آی اداره می شود، اشاره نمود.
با این حال، حملات همچنان ادامه دارد و ظاهراً علیه سازمان‌هایی مانند مدارس محلی، سازمان‌های پلیسی و شبکه‌های بیمارستانی که فاقد منابع لازم برای محافظت از خود در برابر گروه های جنایتکار هستند، افزایش یافته است.

 

 

  • "سوال مهم تر"
    ایسترلی در سخنرانی خود در کنفرانس اوایل روز، می گوید که آژانس او به دنبال اجرای برنامه هایی در چند سال آینده است که تفاوت بزرگی برای درک واقعی اکوسیستم باج افزار ایجاد خواهد کرد، مانند نیروی کارگروه مشترک، نیروی دفاع مشترک سایبری (JCDC) و اخیرا نیز برنامه آزمایشی هشدار آسیب‌پذیری باج‌افزار.
    او به خبرنگاران می گوید که همچنین احساس می کند که رویدادهای سال 2021 باعث افزایش آگاهی در مورد باج افزار و دفاع سایبری به طور کلی شده است.
    او می گوید: من این سوال را کنار می گذارم که آیا این آمار رو به افزایش یا کاهش است. سوال مهم‌تر این است که آیا ما توانسته‌ایم تفاوتی در افزایش آگاهی ایجاد کنیم و همچنین اقداماتی را انجام دهیم که به ما امکان می‌دهد هم شیوع را کاهش دهیم که همان چیزی است که پشت پایلوت هشدار آسیب‌پذیری باج‌افزار ما وجود دارد، و اما مهم‌تر از آن، تاثیر آن را نیز توانسته ایم کاهش دهیم یا خیر.

ناکاسون که در سال 2021 برای مبارزه با تکثیر باج‌افزارها موجی را در هر دو آژانس خود رآغاز کرد، می گوید که لزوما عوامل مخرب را مشاهده نکرده است که از تکنیک‌های جدید برای رسیدن به اهداف خود استفاده می‌کنند.
او خاطرنشان می کند که دو سازمانی که او سرپرستی می کند در حال همکاری بسیار بسیار نزدیک با اف بی آی،  آژانس امنیت سایبری و امنیت زیرساخت و همچنین سایر نهادهای فدرال و شرکای بین المللی برای مقابله با آن هستند.
این ژنرال ارتش، روابط عمیق بین آژانس ایسترلی و نیروی ماموریت ملی سایبری تحت فرماندهی او (CNMF) را به عنوان یک قطعه بزرگ برای دنبال کردن باج افزار در آینده، برجسته می کند. با این حال، به گفته ناکاسون، معضل دیجیتال به این زودی ناپدید نخواهد شد.
در همین حال، ایسترلی می گوید که آژانس او همچنان در مسیر اجرای قانون نهایی در مورد سازمان گزارش رویداد در سپتامبر 2025 است. او به خبرنگاران می گوید:

این موضوع برای من کافی نیست، اما این چیزی است که در اساسنامه تعیین شده است. سپس ما ایده بسیار بهتری در مورد نحوه پایه گذاری بسیاری از این موارد خواهیم داشت و واقعاً می توانیم بگوییم، در آن مقطع زمانی، تأثیر و شیوع باج افزار به طور آماری کاهش یافته است. (منبع:  سایبربان)

احتمال تعطیلی شعبه بایننسِ در آمریکا

دوشنبه, ۱۸ ارديبهشت ۱۴۰۲، ۰۵:۳۶ ب.ظ | ۰ نظر

سمیه مهدوی‌پیام – چانگ پنگ ژائو (معروف به CZ)، مدیرعامل بایننس در اولین گفت‌وگو پس از سقوط صرافی FTX در نوامبر، همچنان تاکید داشت بایننس یک صرافی تمیز است که با معاملات مطابقت دارد اما معاملات آتی (futures trading) انجام نمی‌دهد یا مانند یک فروشگاه معاملاتی عمل نمی‌کند.

حملات سایبری چین به دوست و دشمن

دوشنبه, ۱۸ ارديبهشت ۱۴۰۲، ۰۵:۳۴ ب.ظ | ۰ نظر

مرکز ارتباطات راهبردی اقیانوس آرام هند  (IPCSC)گزارش داد که چین، حملات سایبری خود را علیه متحدان و رقبا، سازماندهی کرده که بر مبنای آن، کشورهای آسیب‌دیده شامل روسیه، ایالات متحده و ایران هستند و البته آخرین هدف آن، کره‌جنوبی است.

به گزارش عصر ارتباط نگرانی‌های فزاینده‌ای درباره اینکه کدام کشورها در آینده توسط چین هدف قرار خواهند گرفت، وجود دارد. در همین رابطه، یک گروه هکری چینی به 12 موسسه دانشگاهی کره‌ای، حمله سایبری کرده است.

بر اساس گزارش آژانس امنیت اینترنتی کره (KISA)، موسسات موردحمله شامل موسسه تحقیقاتی کره برای سیاست‌های ساخت‌وساز، برخی از بخش‌های دانشگاه Jeju و دانشگاه ملی آموزش کره بوده‌اند.

گزارش مرکز ارتباطات راهبردی اقیانوس آرام هند، نشان می‌دهد در یک اتاق فکر اختصاصی مستقر در هند، سایت‌های آسیب‌دیده به مدت چهار روز غیرقابل دسترسی باقی ماندند.

بر اساس این گزارش، هکرها، شبکه‌های کامپیوتری 70 موسسه آموزشی کره‌ای را از 21 تا 24 ژانویه به خطر انداخته‌اند. این گروه هکری تهدید کرده 54 گیگابایت اطلاعات سرقت‌شده از دولت و نهادهای عمومی کره را افشا خواهد کرد.

مرکز ارتباطات راهبردی اقیانوس آرام هند، به نقل از یک گزارش واشنگتن‌پست در مارس 2022 ادعا کرد همان گروه مرتبط با دولت چین، حداقل به شش دولت در 13 ماه گذشته حمله کرده و داده‌های عظیمی را جمع‌آوری کرده است.

همچنین بر اساس گزارش شرکت امنیت سایبری اسرائیلی-آمریکایی Check Point، هکرهای چینی، 23 مارس 2022، ایمیل‌هایی حاوی لینک‌های بدافزار را برای دانشمندان و مهندسان چندین موسسه تحقیقاتی و توسعه نظامی روسیه ارسال کردند تا ظاهرا داده‌های مهمی را درباره سیستم‌های امنیتی این کشور کسب کنند.

بر اساس گزارش IPCSC نیز چین این حملات را سازماندهی کرد؛ همان چینی که از انتقاد از مسکو خودداری کرده و پروپاگاندای روسیه علیه ایالات متحده و ناتو را به عنوان متجاوزان در درگیری با اوکراین تکرار کرده است.

موسسه چک‌پوینت نیز در گزارش خود آورده است: این حمله چین به روسیه، از ژوئیه 2021 موسساتی را هدف قرار داد که در زمینه ارتباطات ماهواره ای هوابرد، رادار و جنگ الکترونیک تحقیق می‌کنند.

این موسسات متعلق به شرکت Rostec یک مجموعه نظامی روسیه است که یکی از بزرگ‌ترین و قدرتمندترین شرکت‌های دفاعی روسیه به شمار می‌رود.

طبق گزارش مرکز ارتباطات راهبردی اقیانوس آرام هند (IPCSC)، تحقیقات گوگل و شرکت امنیت سایبری Proofpoint ادعا کرده‌اند که هکرهای چینی به جنگ کسانی پیوسته‌اند که روسیه را بر سر درگیری اوکراین و بحران پناهجویان مرتبط با آن هدف قرار می‌دهند.

انتقاد ۲ شرکت آلمانی از قانون داده اتحادیه اروپا

دوشنبه, ۱۸ ارديبهشت ۱۴۰۲، ۰۵:۲۸ ب.ظ | ۰ نظر

دو شرکت آلمانی به شرکت های فناوری آمریکایی پیوسته و از پیش نویس قانون اتحادیه اروپا درباره شیوه استفاده از داده های مربوط به گجت های هوشمند انتقاد کرده اند.
به گزارش خبرگزاری مهر به نقل از رویترز، کشورهای اروپایی و قانونگذاران اتحادیه اروپا مشغول بررسی جزئیات «قانون داده»(Data Act) هستند که سال گذشته از سوی کمیسیون اتحادیه اروپا پیشنهاد شد و ممکن است امسال تصویب شود.

پیش نویس قانون مذکور داده های شرکتی و مصرف کنندگان اتحادیه اروپا را در بر می گیرد و بخشی از مجموعه قوانینی است که با هدف کنترل قدرت شرکت های بزرگ فناوری آمریکا ارائه شده و به این منطقه کمک می کند به اهداف خود در حوزه دیجیتال و حفظ محیط زیست دست یابد.

شرکت های آمریکایی گله دارند که لایحه مذکور بسیار محدود کننده است اما همتایان آلمانی شان مدعی هستند که چنین قانونی شرکت ها را ملزم به اشتراک گذاری داده ها با طرف های ثالث برای ارائه خدمات پس از فروش یا سایر خدمات مبتنی بر داده می کند و در نتیجه می تواند اسرار تجاری را به خطر بیندازد.

۲ شرکت آلمانی در نامه ای مشترک به اورسولا فون در لاین رییس کمیسیون اروپا، مارگارت وستاگر کمیسر رقابت منطقه و تیری برتون کمیسیونر اروپا در امور بازارهای داخلی، نوشته اند: چنین قانونی با الزام به اشتراک گذاری اطلاعات (از جمله داده های مربوط به دانش خاص و طراحی) قدرت رقابت در اروپا را تضعیف می کند.

در بخش دیگری از نامه آنها آمده است: این امر به طور موثر به معنای آن است که شرکت های اتحادیه اروپا باید داده هایشان را برای رقبای طرف ثالث فاش کنند، به خصوص عده ای که در اروپا فعالیت نمی کنند و در نتیجه اقدامات حمایتی «قانون داده» درباره آنها تاثیری نخواهد داشت.

نامه مذکور خواستار آن شده تا مقررات طوری تنظیم شوند که شرکت ها بتوانند درخواست اشتراک گذاری اطلاعات مربوط به اسرار تجاری، امنیت سایبری، سلامت و ایمنی را که در خطر هستند، رد کنند. همچنین گستره دستگاه هایی که در این قانون گنجانده می شوند نیز نباید وسیع باشد.

این شرکت ها در خصوص قوانینی که به مشتریان اجازه می دهد تامین کننده سرویس های ابری خود را تغییر دهند، معتقدند که قانون باید به مشتریان و تهیه کنندگان سرویس اجازه دهد با آزادی کامل روی قراردادهایی توافق کنند که برای هر دو طرف تجاری کارآمد باشد.

پایگاه فناوری تک‌کرانچ نوشت: مجلس ملی فرانسه پیش‌نویس طرحی را تصویب کرده که فعالیت شاخ‌های مجازی را ساماندهی می‌کند. این قانون هنوز نهایی نشده اما احتمال تصویب نهایی آن در مجلس سنا در هفته‌های آینده بسیار جدی است.
به گزارش همشهری آنلاین، براساس این طرح، اینفلوئنسرهای فرانسوی موظف می‌شوند تا میان تصاویر یا ویدئوهای تبلیغاتی خود از برچسب‌هایی استفاده کنند که نشان بدهد آن پست تبلیغاتی است و استفاده از عبارت تبلیغ در توضیح پست‌ها کافی نیست. 

اینفلوئنسرها درصورت استفاده از فیلترِ زیبایی شبکه‌های اجتماعی یا فتوشاپ در تصاویرشان باید این موضوع را اعلام کنند؛ به‌طوری‌که در خود عکس یا ویدیو قابل مشاهده باشد. پارلمان فرانسه با این کار می‌خواهد از کاربران شبکه‌های اجتماعی در برابر مشکلات روانی مانند افسردگی محافظت کند. 

همچنین این لایحه تبلیغ جراحی زیبایی، محصولات و خدمات مالی (از جمله ارزهای دیجیتال) و محصولات تقلبی را برای اینفلوئنسرها ممنوع کرده است.

اینفلوئنسرها حتی درصورت تبلیغ سایت‌های شرط‌بندی باید یک بنر اطلاعاتی در مورد خطرات آن در تبلیغ اضافه کنند.

 هرکسی هم که این قوانین را رعایت نکند با جریمه‌هایی مانند بسته‌شدن حساب کاربری و ۶ ماه زندان مواجه شده و تا ۳۰۰ هزار یورو هم جریمه می‌شود.

بایدو هم گوشی‌ساز شد

دوشنبه, ۱۸ ارديبهشت ۱۴۰۲، ۰۵:۰۹ ب.ظ | ۰ نظر

غول اینترنتی چینی بایدو با عرضه یک تلفن هوشمند تحت برند خود، به این بازار ورود می‌کند.
به گزارش ایسنا، واحد شیائودوی این شرکت که مشابه واحد الکسای آمازون است، نخستین محصول تلفن هوشمند خود را رونمایی خواهد کرد. شیائودو، بلندگوهای هوشمندی طراحی کرده است که با نرم افزار سیستم عامل DuerOS بایدو کار می‌کند که این شرکت آن را به عنوان یک سیستم هوش مصنوعی مرسوم توصیف کرده است.

بایدو در میان نخستین شرکت‌های چینی بود که گزینه بومی برای ابزار چت جی‌پی‌تی شرکت OpenAI معرفی کرد و ابزار خود به نام Ernie Bot را در مارس معرفی کرد. این شرکت اعلام کرده است قصد دارد ابزارهای هوش مصنوعی را در همه خطوط تجاری خود شامل جست‌وجوی آنلاین، رانندگی خودران و گجت‌های هوشمند تعبیه کند.

بر اساس گزارش بلومبرگ، معرفی یک گوشی تحت برند بایدو، به منزله ورود یک شرکت جدید چینی در بازار پربازیگر تلفن هوشمند در چند سال اخیر محسوب می‌شود و نخستین شرکت در میان غولهای اینترنتی چین است که چنین کاری را انجام می‌دهد.

مراقب سوالاتی که از ChatGPT می‌کنید باشید

دوشنبه, ۱۸ ارديبهشت ۱۴۰۲، ۰۵:۰۲ ب.ظ | ۰ نظر

غزال زیاری- خبرآنلاین - به‌صورت پیش‌فرض، OpenAI از پیغام‌هایی که شما برای ChatGPT ارسال می‌کنید، برای آموزش و پیشرفت مدل‌هایش بهره می‌برد ولی کاربران این امکان را دارند که با بهره‌گیری از فعال کردن "حالت ناشناس" در این پلتفرم، مانع از انجام این کار شوند.

با عرصه و ارائه فناوری‌های جدید در دنیا، مدت زمانی طول می‌کشد تا مسائل متعددی از جمله حریم خصوصی و امنیتی آن تعریف و تعیین شود و حالا این موضوع درمورد ChatGPT نیز صادق است. این مدل زبانی مولد متن که با بهره‌گیری از هوش مصنوعی کار می‌کند، در نوع خود بی‌نظیر و خیره‌کننده است؛ اما حالا تردیدهایی در مورد نحوه جمع‌آوری و پردازش داده‌های ما توسط این ابزارها ایجاد شده است.

توسعه‌دهندگان ChatGPT، این مدل زبانی بزرگ را بر پایه حجم وسیعی از متون در دسترس و موجود در اینترنت تعلیم داده‌اند. ولی این ربات چت‌بات، علاوه بر این داده‌ها، از گفتگوهایی که با شما دارد نیز برای یادگیری استفاده می‌کند. پس اگر می‌خواهید از حریم خصوصی‌تان محافظت کنید، باید بدانید که شرایط و گزینه‌های پیش رو چیست؛ تا چه اندازه باید به ChatGPT اطلاعات بدهید و چه بایدها و نبایدهایی در این مسیر وجود دارد.

در این مقاله سه نکته مشخص را به شما یادآوری می‌کنیم:

فعال کردن حالت ناشناس در ChatGPT

به‌صورت پیش‌فرض، OpenAI از پیغام‌هایی که شما برای ChatGPT ارسال می‌کنید، برای آموزش و پیشرفت مدل‌هایش بهره می‌برد ولی کاربران این امکان را دارند که با بهره‌گیری از فعال کردن "حالت ناشناس" در این پلتفرم، مانع از انجام این کار شوند.

برای فعال کردن این حالت، ChatGPT را در مرورگر خود باز کنید، بر روی نام کاربری خود در سمت چپ کلیک کرده و وارد بخش تنظیمات شوید. در کنار گزینه Data Controls، روی Show کلیک کرده و گزینه Chat History & Training را خاموش کنید.

از حالا به بعد، هر زمانی که برگه مرورگر خود را ببندید، گزارش گفتگوهای شما با ChatGPT از حسابتان ناپدید می‌شود؛ البته این بدان معنا نیست که این گفتگوها کاملا از بین بروند ( چرا که OpenAI، تاریخچه گفتگوها را برای ۳۰ روز نگاه می‌دارد تا برای "نظارت بر سوءاستفاده‌های احتمالی" آنها را در اختیار داشته باشد و بعد از سی روز این گفتگوها پاک خواهند شد.)

در منوی Data Controls، یک گزینه به نام Export Data نیز در اختیار شماست. استفاده از این گزینه تاثیری بر نحوه استفاده OpenAI از اطلاعات شما و یا پاک کردن اطلاعاتی که تا حالا جمع‌آوری کرده ندارد؛ بلکه به شما در مورد آنچه OpenAI از شما می‌داند، ایده بهتری می‌دهد. این ممکن است شامل گفتگوهایی که پاک نکرده‌اید و یا بازخوردهایی که به سوالات ChatGPT داده‌اید، باشد.

اگر موضوعی است که شما با آن احساس راحتی نمی‌کنید، می‌توانید به صورت دستی، تاریخچه گفتگوها را پاک کنید. به صفحه ChatGPT خود برگردید، بر روی نام کاربری‌تان کلیک کرده و سپس وارد بخش Clear Conversations بشوید تا به یک باره کل گفتگوها را پاک کنید. یا می‌توانید روی علامت سطل زباله در کنار هر گفتگوی خاص کلیک کنید تا آن گفتگو را به کلی پاک کنید.

ChatGPT قادر نخواهد بود تا از متن گفتگوهای پاک شده، برای یادگیری استفاده کند ولی بسته به مدت زمانی که سابقه گفتگوهای شما موجود باشد، ربات چت ممکن است قبل از آنکه شما تصمیم به پاک کردن‌شان بگیرید، از آنها استفاده کند. پس برای جلوگیری از این اتفاق، یا درصورتی که فردی به کامپیوتر شما دسترسی پیدا کرده و بخواهد تا به گفتگوهای شما با ChatGPT نگاهی بیندازد، این فکر خوبی است که هر چند وقت یک بار، تاریخچه گفتگوهایتان را سر و سامان بدهید.

در نهایت، اگر دیگر نخواستید تا با ChatGPT صحبت کنید، همیشه این امکان برایتان فراهم است که حساب کاربری‌تان را پاک کنید که این کار را می‌توانید از پنل Data controls انجام دهید.

مراقب صحبت‌هایتان با ChatGPT باشید

ChatGPT ممکن است به‌صورت طبیعی و روزمره پاسخگوی شما باشد؛ ولی هرگز به هوش مصنوعی مثل یک دوست یا مشاور اعتماد نکنید. اسناد پشتیبانی رسمی این پلتفرم به کاربران توصیه می‌کند که هیچ اطلاعات شخصی را با چت‌بات به اشتراک نگذارند. چون مشخص کردن اینکه در آینده به چه ترتیب از اطلاعات شما استفاده شده و مورد تجزیه و تحلیل قرار خواهد گرفت، سخت است.

خط مشی رازداری و حریم خصوصی چت بات، گفته که OpenAI داده‌هایی مثل گفتگوها و ویژگی‌هایی که با آن سروکار دارید را ثبت می‌کند و ممکن است اطلاعات جمع‌آوری شده از جمله آمار کاربران را با اشخاص ثالث به اشتراک بگذارد. مثلا کمپانی OpenAI، در واکنش به درخواست‌های قانونی مجریان قانون، ممکن است اطلاعات شخصی کاربران مثل آدرس ایمیل آنها و یا داده‌های موقعیت مکانی‌شان را در اختیار شرکت‌های وابسته قرار دهند. ولی حتی اطلاعات ارائه شده در این رابطه نیز مبهم است و مشخص نیست که شرکت‌های وابسته‌ای که OpenAI ممکن است اطلاعات‌مان در اختیارشان قرار بگیرد، چه شرکت‌هایی هستند؟

این یک خط مشی رازداری استاندارد است و قوانین ChatGPT هم مشابه با اکثر پلتفرم‌های آنلاین است: در نتیجه هر چه اطلاعات کمتری به اشتراک بگذارید، بهتر خواهد بود. این ماجرا نه تنها شما را در برابر اقدامات مشکوک حریم خصوصی که OpenAI ممکن است در آینده پیش بیاید محافظت می‌کند، بلکه از شما در مقابل هرگونه باگ و هک شدن‌های احتمالی نیز مراقبت خواهد کرد. به عنوان مثال، قطعی اخیر ChatGPT منجر به این شد که افراد تیتر تاریخچه گفتگوهای کاربران فعال دیگر را ببینند.

اگر هر گونه اطلاعات عمومی از شما در اینترنت وجود داشته باشد، ChatGPT قادر خواهد بود تا به دیگران کاربران، درباره شما اطلاعاتی بدهد و اگر این موضوع برایتان هنوز ترسناک به نظر نمی‌رسد، به این فکر کنید که اگر روزی اشتباهاتی رخ دهد، چه خواهد شد. اگر قصد دارید تا موارد نادرست را اصلاح کرده یا تنها مانع از آن شوید که ChatGPT اطلاعاتی از شما داشته باشد، می‌توانید یک فرم خاص را پر کرده و یا از طریق ایمیل dsar@openai.com با کمپانی OpenAI تماس بگیرید و یا در سایت این پلتفرم اطلاعات بیشتری کسب کنید.

درمورد برنامه‌های شخص ثالث ChatGPT محتاط باشید

تا اینجا هر آنچه باید در هنگام استفاده از پلتفرم ChatGPT بدانید را گفتیم؛ اما این تنها جایی نیست که با ربات‌های چت بات مواجه می‌شوید. کمپانی OpenAI به اپلیکیشن‌ها و پلاگ-این‌های شخص ثالث نیز اجازه می‌دهد تا برپایه این پلتفرم کار کنند و در صورت استفاده از هریک از آنها، باید در مورد مجموعه تازه‌ای از مسائل حریم خصوصی و امنیتی نیز فکر کنید.

وقتی بحث استفاده از یک اپلیکیشن یا افزونه مرورگرهایی که برپایه ChatGPT کار می‌کنند، مطرح می‌شود، باید دقیقا همان دقتی که در استفاده از هر ابزار شخص ثالث دیگر اعمال می‌کنید را مدنظر قرار دهید: اجازه‌هایی که از شما گرفته می‌شود را بررسی کنید؛ Privacy Policy (خط مشی رازداری) و شرایط و ضوابط را مطالعه کنید و درباره هزینه‌های مرتبط، چه هزینه اشتراک باشد و چه پرداخت‌های درون برنامه‌ای مطلع شوید.

به محض آنکه چیزی مثل ChatGPT به محبوبیت برسد، کلاهبرداران و هکرها نیز به سراغش می‌آیند. از همین رو توصیه می‌شود که همیشه درباره پیشینه توسعه دهنده پشت هر ابزار ChatGPT که از آن استفاده می‌کنید، اطلاعاتی کسب کنید.

باید این را بدانید که قابل اعتمادترین برنامه‌ها ، تنظیمات حریم خصوصی و امنیتی خاص خود را دارند که می‌توانید شخصا آنها را تنظیم کنید.

پیشگیری از آلزایمر با استفاده از اینترنت

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۷:۰۲ ب.ظ | ۰ نظر

یافته‌های جدید پژوهشگران نشان می‌دهد، استفاده منظم از اینترنت برای مدت طولانی در کهنسالی، برای تقویت قوای ذهنی سالمندان مفید است.
به گزارش خبرگزاری صدا وسیما، محققان به افراد کهنسال توصیه می‌کنند، بیشتر از سایر فناوری‌های دیجیتال استفاده کرده و در اینترنت وبگردی کنند.

طی مطالعات جدید محققان دانشگاه نیویورک به سرپرستی دکتر گاوون چو، مشخص شد: استفاده از اینترنت برای تقویت قوای ذهنی سالمندان مفید است.

این تیم مطالعاتی از داده‌های ۱۸ هزار و ۱۵۴ فرد کهنسال فاقد زوال عقل بین سنین ۵۰ تا ۶۴ سال و ۹ ماه استفاده کردند. اطلاعات این افراد طی یک مطالعه مرتبط با سلامت و بازنشستگی ثبت شده بود تا ارتباط بین افزایش سن با زوال عقل و استفاده از اینترنت مورد بررسی قرار گیرد.

طی مطالعات فوق، محققان دریافتند: استفاده منظم از اینترنت در مقایسه با استفاده غیرمنظم از این فناوری با کاهش تقریباً پنجاه درصدی خطر زوال عقل مرتبط است.

این قانون برای همه افراد کهنسال صادق بوده و هیچ تفاوتی در میزان خطر ابتلا و نرخ کاهش آن پس از استفاده منظم از اینترنت بین کاربران معمولی و غیرمعمولی از نظر میزان تحصیلات، نژاد، قومیت یا جنسیت مشاهده نشد. تخمین‌ها برای میزان ساعات استفاده روزانه از اینترنت نشان می‌دهد که رابطه U شکل بین استفاده از این فناوری با بروز زوال عقل وجود دارد. بر این اساس کمترین خطر در میان بزرگسالانی مشاهده شد که حدود ۲ ساعت در شبانه روز از اینترنت استفاده می‌کردند.

محققان این تیم مطالعاتی در رابطه با یافته‌های فوق می‌گویند: کاربران دائمی اینترنت برای دوره‌های طولانی در اواخر بزرگسالی با اختلال شناختی تاخیری همراه بودند، اگرچه شواهد بیشتری در مورد اثرات نامطلوب احتمالی استفاده بیش از حد از دستگاه‌های دیجیتال مورد نیاز است.

شرح کامل این مطالعه در آخرین شماره مجله تخصصی انجمن سالمندان آمریکا (Journal of the American Geriatrics Society) به صورت آنلاین منتشر شده است.

افزایش همکاری سایبری کره جنوبی و آمریکا

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۶:۱۴ ب.ظ | ۰ نظر

همزمان با افزایش آزمایش های موشکی کره شمالی، وزارت دفاع کره جنوبی روز یکشنبه اعلام کرد این کشور و ایالات متحده در هفته جاری مذاکراتی در خصوص سایبری در سئول برگزار خواهند کرد.

به گزارش ایرنا به نقل از یونهاپ، این نشست، هشتمین جلسه ای به شمار می آید که در دو روز آینده در کارگروه همکاری سایبری در سئول برگزار خواهد شد.

در چهار سال گذشته به سبب شیوع ویروس کرونا برگزاری نشست همکاری سایبری رو در رو به حال تعلیق درآمده بود.

این اولین جلسه ای است که بصورت رو در رو در چهار سال گذشته پس شیوع همه گیری کووید-۱۹ برگزار می شود.

بنابر اعلام وزارت دفاع کره جنوبی، در این دیدار دو طرف قصد دارند سیاست های امنیت سایبری، روند فعلی تهدیدات سایبری و تلاش های مشترک برای تقویت آموزش امنیت سایبری را مورد بحث قرار دهند.

وزارت دفاع کره جنوبی همچنین در بیانیه ای اعلام کرد: دو طرف انتظار دارند مکانیسم همکاری امنیت سایبری در این دیدار مورد بحث و بررسی قرار گیرد.

در اواخر سال جاری، مقام های امنیتی کره جنوبی پیونگ یانگ را متهم کردند که با سازماندهی گروهی از کارشناسان ، یک ارتش سایبری تشکیل داده و از آن در فضای مجازی استفاده می کند.

مقام های سئول می گویند ۳۲ هزار رایانه و سرورهای سه شبکه اصلی تلویزیونی و سه بانک در کره جنوبی در پی آلودگی به یک بدافزار در ۴ فروردین ماه سال جاری گذشته از کار افتادند و کارهای اطلاع رسانی و بانکی مختل شد ، اما این که این بدافزار را چه کسی به جان کامپیوترهای کره جنوبی انداخته بود مسئله ای است که نیاز به هفته ها و حتی ماه ها بررسی دارد.

با این همه کره جنوبی تمامی شش حمله سایبری به این کشور را از سال ۲۰۰۹ و از جمله حمله اخیر را به کره شمالی نسبت می دهد.
کره جنوبی حتی یک مرکز فرماندهی امنیت سایبری در سئول تشکیل داده تا جلوی حمله هکرهای کره شمالی را بگیرد.

طی چند سال گذشته کره شمالی همگام با توفیق در فناوری هسته ای و موشکی، در بخش فناوری اطلاعات هم پیشرفت هایی داشته است. از جمله این پیشرفت ها می توان به ساخت سیستم عاملی به نام 'ستاره سرخ' اشاره کرد که پیونگ یانگ برای استفاده در رایانه های کره شمالی طراحی کرده است.

آموزش چت جی‌پی‌تی با داده کاربران متوقف شد

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۶:۱۳ ب.ظ | ۰ نظر

مدیر ارشد اجرایی سازنده چت جی پی تی اعلام کرد از این پس از داده های API مشتریان برای آموزش های مدل هوش مصنوعی زبانی خود استفاده نمی کند. زیرا مشتریان از این روند ناراضی بوده اند.

به گزارش خبرگزاری مهر به نقل از سی ان بی سی، به گفته سم آلتمن مدیر ارشد اجرایی «اوپن آ.آی»، این شرکت برای مدتی مدل های زبانی خود مانند چت جی پی تی را با داده های خریداری شده کاربران آموزش می داد.

او در مصاحبه ای گفت: مشتریان به وضوح نمی خواهند سیستم های ما با داده هایشان آموزش یابد، بنابراین ما برنامه خود را تغییر دادیم و این کار را انجام نمی دهیم.

در همین راستا شرایط خدمات «اوپن آ. آی» در یکم مارس بی سروصدا تغییر کرد. آلتمن در این باره افزود: ما براساس هیچ داده API سیستم هایمان را آموزش نمی دهیم. اکنون مدتی است که این کار را انجام نمی دهیم.

APIها درحقیقت چهارچوب هایی هستند که به مشتریان اجازه می دهند به طور مستقیم به نرم افزار اوپن آ. آی متصل شوند.

مشتریان تجاری این شرکت که مایکروسافت، سلز فورس و اسنپ چت را شامل می شوند، احتمالا از قابلیت هایAPI بهره می برند.

اما سیاست جدید حریم خصوصی و حفاظت از داده اوپن آ. آی فقط شامل مشتریانی می شود که از سرویس هایAPI استفاده می کنند. در شرایط استفاده آپدیت شده شرکت آمده است: ما احتمالا از محتوای سرویس های دیگر به غیر از API کاربران استفاده می کنیم.

این امر ممکن است شامل متنی باشد که کارمندان در چت بات چت جی پی تی وارد می کنند. آمازون اخیرا به کارمندانش هشدار داده داده های محرمانه را در چت جی پی تی وارد نکنند زیرا ممکن است داده ها در پاسخ های این چت بات ظاهر شود.

تغییر مذکور در حالی اجرا می شود که صنایع با وجوه مختلف مدل های زبانی بزرگ جایگزین محتوای تولید انسان روبرو می شوند.

از سوی دیگر مدیران ارشد اجرایی شرکت ها نگران تاثیر چت جی پی تی و برنامه های مشابه بر مالکیت معنوی شان هستند.

خنثی‌سازی حملات سایبری گسترده به امارات

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۶:۰۹ ب.ظ | ۰ نظر

یک روز بعد از اعلام هشدار به نهادهای دولتی، شورای امنیت سایبری امارات از خنثی‌سازی حملات هکری به سامانه های ملی دیجیتال و حوزه های راهبردی کشور خبر داد.
به گزارش آنا، شورای امنیت سایبری امارات، بعدازظهر امروز یکشنبه، اعلام کرد که این کشور در روز‌های اخیر با حملات سایبری مواجه بوده است.

بنابر گزارش خبرگزاری رسمی امارات (وام)، هکر‌ها در تلاش بوده‌اند تا زیرساخت‌ها، سامانه‌های ملی دیجیتال و حوزه‌های راهبردی امارات را هدف قرار دهند.

در این بیانیه شورای امنیت سایبری امارات آمده است که این نهاد توانسته با حملات هکر‌هایی که از آن‌ها با عنوان «سازمان‌های تروریستی سایبری» یادشده، مقابله و آن‌ها را خنثی کند.

شورای امنیت سایبری امارات، روز گذشته، در پیامی به تمام نهاد‌های این کشور درباره حمله احتمالی سایبری هشدار داده بود.

در بیانیه روز گذشته این نهاد اماراتی آمده بود: «شورای امنیت سایبری دولت امارات از همه نهاد‌های دولتی و خصوصی این کشور می‌خواهد که احتیاط کرده و مراقب هرگونه حمله سایبری علیه زیرساخت‌ها و دارایی‌های ملی دیجیتال باشند».

همشهری‌آنلاین نوشت: استارت‌آپ فضایی اسپیس‌ایکس امروز در توییتر خود به تعداد کاربران کنونی اینترنت ماهواره استارلینک خود اشاره کرد.

این شرکت در توییتر اعلام کرد که اینترنت ماهواره‌ای استارلینک توانسته در سرتاسر جهان بیش از ۱.۵ میلیون کاربر به دست آورد.

استارلینک که زیرمجموعه استارت‌آپ فضایی اسپیس‌ایکس ایلان ماسک محسوب می‌شود، هم‌اکنون به‌طور رسمی در آمریکای شمالی، اروپا، استرالیا، نیوزیلند، ژاپن، فیلیپین و بخش‌های زیادی از آمریکای جنوبی فعالیت می‌کند.

اعتصاب نویسندگان هالیوود: هوش مصنوعی سارق است

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۴:۲۴ ب.ظ | ۰ نظر

انجمن نویسندگان آمریکا به دنبال محدود کردن استفاده از هوش مصنوعی برای نوشتن فیلمنامه‌ها است و در این راستا نویسندگان دست به اعتصاب زدند.
به گزارش فارس به نقل از سی‌ان‌ان، اختلاف بر سر هوش مصنوعی یکی از چندین موضوعی است که نویسندگان سینما و تلویزیون هالیوود را به اعتصاب کشاند و اولین توقف کار در 15 سال گذشته را رقم زد.

دهه‌ها است نویسندگان هالیوود  فیلمنامه‌های علمی تخیلی می‌نویسند که نشان می‌دهد ماشین‌هایی دنیا را در دست گرفته‌اند. اکنون، آنها برای اینکه مطمئن شوند ربات‌ها بی کارشان نمی‌کنند اعتصاب کردند.

اختلاف بر سر هوش مصنوعی یکی از چندین موضوعی است که نویسندگان سینما و تلویزیون هالیوود را به اعتصاب سوق داد. هوش مصنوعی در هالیوود، در رفع چین و چروک صورت مجریان مسن، حذف فحاشی بیش از حد دیالوگ بازیگران و کمک به ساخت فیلم‌های کوتاه انیمیشن مفید بوده است. علاوه بر این، برخی از نویسندگان نیز شروع به بررسی استفاده از هوش مصنوعی برای ساخت فیلمنامه ها کرده اند.

اما نویسندگان می ترسند که توسط هوش مصنوعی کنار گذاشته شوند یا در اولویت های بعدی قرار گیرند. به عنوان مثال، استودیوها به جای اینکه برای نوشتن پیش نویس اول نویسندگان را استخدام کنند، شاید آنها را برای انجام پیش نویس دوم به کار گیرند که هزینه کمتری دارد.

 انجمن نویسندگان آمریکا پیشنهادی ارائه کرد مبنی بر اینکه هر چیزی که توسط یک سیستم هوش مصنوعی مانند چت‌جی‌پی‌تی ایجاد می شود، نباید به عنوان مطالب ادبی در نظر گرفته شود. در اصل، اگر یک مدیر استودیو یک فیلمنامه تولید شده توسط هوش مصنوعی را برای بازبینی در اختیار نویسنده قرار دهد، نمی‌تواند به نویسنده با نرخ پایین‌تری برای بازنویسی کار دستمزد بدهد.

این اتحادیه همچنین مدعی است که از فیلم نامه های فعلی نباید برای آموزش هوش مصنوعی استفاده شود، زیرا ممکن است منجر به سرقت مالکیت معنوی شود.

آن ها می خواهند که هوش مصنوعی از کسب و کار نوشتن فیلمنامه دور باشد و سعی در جایگزینی نویسندگان نکند.

طبق اعلام دولت بایدن قرار است ۱۴۰ میلیون دلار صرف تحقیق و توسعه درباره هوش مصنوعی شود، این در حالی است که استفاده از این فناوری رو به افزایش است.
به گزارش خبرگزاری صدا و سیما به نقل از روزنامه آمریکایی دِ هیل، دولت بایدن اعلام کرد در شرایط فعلی که هوش مصنوعی میان کاربران رونق گرفته، ۱۴۰ میلیون دلار برای تحقیق و توسعه درباره این فناوری سرمایه گذاری خواهد کرد.

همراه با بودجه، دفتر مدیریت و بودجه (OMB) در ماه‌های آینده دستورالعمل‌های سیاستی در مورد استفاده از هوش مصنوعی توسط دولت فدرال را صادر خواهد کرد و شرکت‌هایی که هوش مصنوعی را توسعه می‌دهند، مانند گوگل، مایکروسافت و OpenAI، متعهد شده‌اند که در ارزیابی عمومی سیستم‌های هوش مصنوعی شرکت کنند.

بنیاد ملی علوم ۱۴۰ میلیون دلار را برای راه اندازی هفت موسسه تحقیقاتی ملی هوش مصنوعی سرمایه گذاری خواهد کرد و تعداد کل این موسسات را در آمریکا به ۲۵ عدد خواهد رساند.

تعهدات شرکت‌هایی که هوش مصنوعی را توسعه می‌دهند، بخشی از تلاش برای ارائه اطلاعات به محققان و مردم در مورد مدل‌های هوش مصنوعی و چگونگی هماهنگی مدل‌ها با اصولی که در طرح لایحه هوش مصنوعی دولت آمریکا که اخیرا برای کاهش آسیب‌های سیستم‌های خودکار منتشر شده، هماهنگ می‌کنند.

در پاسخ به این سوال که آیا نیازی به استاندارد‌های بین المللی در مورد هوش مصنوعی نیز وجود دارد، مقامات ارشد آمریکا گفتند: ما باید یک قدم برداریم و افزودند که هوش مصنوعی یک فناوری جهانی است و همکاری با شرکای اروپایی ضروری خواهد بود.

استفاده از هوش مصنوعی اخیرا رشد داشته و سیاست‌گذاران و تنظیم‌کننده‌ها در حال مبارزه با چگونگی مقابله با نگرانی‌های ناشی از آن هستند. رشد سریع این فناوری نگرانی‌هایی را در مورد خطر اطلاعات نادرست، کلاهبرداری و جمع آوری داده‌ها ایجاد می‌کند.

ایویت کلارک، نماینده مجلس لایحه‌ای را ارائه کرد که گروه‌ها یا پویش‌های سیاسی را ملزم می‌کند تا استفاده از محتوای ایجاد شده توسط هوش مصنوعی در تبلیغات سیاسی را افشا کنند. این در حالی است که کارگروه ملی جمهوری خواه اولین تبلیغ خود را با محتوای تولید شده توسط هوش مصنوعی پس از اعلام نامزدی بایدن برای انتخابات ریاست جمهوری آمریکا منتشر کرد.

همچنین در این هفته، لینا خان، رئیس کمیسیون تجارت فدرال متعهد شد این آژانس در نظارت بر استفاده‌های ناعادلانه یا فریبنده از هوش مصنوعی هوشیار باشد.

مراقب وای فای رایگان فرودگاه‌ها باشید

يكشنبه, ۱۷ ارديبهشت ۱۴۰۲، ۰۴:۱۸ ب.ظ | ۰ نظر

میلیون‌ها نفر از شبکه‌های وای فای عمومی در فرودگاه‌ها و ایستگاه‌های قطار استفاده می‌کنند و به دنبال راحتی و سرگرمی در حین سفر هستند.
کارشناسان داده تحقیقات جامعی در مورد خطرات امنیت سایبری مرتبط با وای فای عمومی در فرودگاه ها و ایستگاه های راه آهن انجام داده اند. این یافته ها آمار و بینش نگران کننده ای را نشان می دهد.
هر روز، میلیون‌ها نفر از شبکه‌های وای فای عمومی در فرودگاه‌ها و ایستگاه‌های قطار استفاده می‌کنند و به دنبال راحتی و سرگرمی در حین سفر هستند. با این حال، این شبکه ها اغلب فاقد الزامات امنیتی مناسب هستند و کاربران را در معرض طیف وسیعی از تهدیدات سایبری قرار می دهند.
آخرین تحقیقات نشان می‌دهد که تا 75 درصد از شبکه‌های وای فای عمومی در فرودگاه‌ها و ایستگاه‌های قطار در برابر حملات سایبری آسیب‌پذیر هستند، و این در حالی است که 1 نفر از هر 3 کاربر اطلاعات حساسی مانند رمزهای عبور و داده‌های مالی را بر روی این شبکه های ناامن به اشتراک می گذارد.
تهدیدات سایبری مختلف مرتبط با استفاده از وای فای عمومی در فرودگاه ها و ایستگاه های قطار، شامل رهگیری داده ها، حملات انسان در وسط و نقاط حساس مخرب است.
در زیر برخی از بهترین شیوه ها برای ایمن ماندن در هنگام استفاده از شبکه های وای فای عمومی در فرودگاه ها یا هر مکان عمومی دیگر آورده شده است:

-    از شبکه خصوصی مجازی (VPN) استفاده کنید: یک وی پی ان، داده های شما را رمزگذاری می کند و آنها را از طریق یک سرور امن هدایت می کند و رهگیری یا دسترسی به اطلاعات شما را برای مجرمان سایبری دشوارتر می کند.
-    فعال کردن احراز هویت دو مرحله ای (2FA): در صورت امکان، احراز هویت دو مرحله ای را در حساب های خود فعال کنید. این یک لایه امنیتی اضافی را با نیاز به نوع دوم تأیید، مانند یک پیام متنی یا برنامه تأیید هویت، علاوه بر رمز عبور شما، اضافه می کند.
-    نرم افزارها و برنامه ها را به روز نگه دارید: سیستم عامل، مرورگرهای وب و برنامه های خود را به طور منظم به روز کنید تا مطمئن شوید که آخرین وصله های امنیتی را دارید.
-    از استفاده از وای فای عمومی برای فعالیت های حساس خودداری کنید: هنگام اتصال به شبکه های وای فای عمومی از دسترسی یا به اشتراک گذاری اطلاعات حساس مانند بانکداری آنلاین یا شناسه های شخصی خودداری کنید.
-    از وب‌سایت‌های HTTPS استفاده کنید: مطمئن شوید که وب‌سایت‌هایی که بازدید می‌کنید از HTTPS استفاده می‌کنند، که نشان می‌دهد داده‌های مبادله شده بین دستگاه شما و وب‌سایت رمزگذاری شده است.
-    اشتراک گذاری فایل و وای فای را در صورت عدم استفاده خاموش کنید: گزینه های اشتراک فایل را در دستگاه خود غیرفعال کنید و هنگامی که از وای فای استفاده نمی کنید آن را خاموش کنید تا از دسترسی غیرمجاز به فایل ها یا دستگاه خود جلوگیری کنید.
-    از نرم افزار آنتی ویروس و فایروال استفاده کنید: نرم افزار آنتی ویروس قابل اعتمادی نصب کنید و یک فایروال را روی دستگاه خود فعال کنید تا در برابر بدافزارها و سایر تهدیدات محافظت شوید.
-    مراقب ایستگاه های شارژ عمومی باشید: مجرمان سایبری می توانند از ایستگاه های شارژ عمومی برای نصب بدافزار یا سرقت داده ها از دستگاه شما سوء استفاده کنند. از شارژر خود استفاده کنید و آن را به پریز برق وصل کنید یا از یک پاوربانک قابل حمل استفاده کنید.
-    مراقب نقاط اتصال وای فای جعلی باشید: قبل از اتصال به یک شبکه وای فای عمومی، واقعی بودن آن را بررسی کنید. مجرمان سایبری اغلب نقاط جعلی را با نام های مشابه ایجاد می کنند تا کاربران را فریب دهند تا ارتباط برقرار کنند.
-    از رمزهای عبور قوی و منحصربه‌فرد استفاده کنید: برای هر یک از حساب‌های خود رمزهای عبور قوی و منحصربه‌فرد ایجاد کنید و از استفاده از رمز عبور یکسان در چندین پلتفرم خودداری کنید.
با پیروی از این بهترین شیوه‌ها، می‌توانید خطر قربانی شدن در حملات سایبری در حین استفاده از شبکه‌های وای فای عمومی را به میزان قابل توجهی کاهش دهید. (منبع:  سایبربان)