ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۱۸۹۰۸ مطلب با موضوع «others» ثبت شده است

تحلیل


ایجاد چارچوب مرجع امنیت سایبری ملی در هند

چهارشنبه, ۲۴ خرداد ۱۴۰۲، ۰۲:۳۲ ب.ظ | ۰ نظر

هند چارچوب مرجع امنیت سایبری ملی (NCRF) را راه‌اندازی کرد.
به گزارش سایبربان؛ به گفته کارشناسان، دولت هند به طور مداوم در حال کار روی ارائه رهنمودهای ساختاریافته در مورد امنیت سایبری به بخش‌های حیاتی کشور بوده است. این بخش‌ها شامل مخابرات، برق و انرژی، حمل و نقل، امور مالی، نهادهای راهبردی، نهادهای دولتی و بخش بهداشت هستند. این ابتکار بزرگ به‌وسیله مرکز ملی حفاظت از زیرساخت اطلاعات حیاتی تحت پروژه‌ای که از سوی دبیرخانه شورای امنیت ملی تأمین مالی شده، هدایت می‌شود.

در 12 ژوئن 2023، در رویدادی در «Persistent Systems Limited»، پونا، راجش پَنت (Rajesh Pant)، هماهنگ‌کننده امنیت سایبری ملی، اعلام کرد که نسخه اول چارچوب مرجع امنیت سایبری ملی (NCRF) نهایی و برای انتشار عمومی آماده شده است. این چارچوب یک سند راهنما برای نهادهای بخش مهم خواهد بود تا سیستم‌های حاکمیتی و مدیریتی خود و همچنین چارچوب معماری خود را برای سیستم‌های فناوری اطلاعات و فناوری عملیاتی توسعه دهند.

کارشناسان معتقدند که چارچوب مرجع امنیت سایبری ملی یک سند زنده خواهد بود که به طور مداوم به‌روز می‌شود تا تهدیدات و فناوری‌های جدید را منعکس کند. سازمان‌ها می‌توانند از این چارچوب برای بهبود وضعیت امنیت سایبری خود، کاهش خطر نقض داده‌ها یا هر حادثه امنیت سایبری، اطمینان از رعایت مقررات، افزایش اعتماد با مشتریان و افزایش کارایی عملیاتی استفاده کنند.

آژانس امنیت سایبری و امنیت زیرساخت (CISA) به همه آژانس‌های غیرنظامی فدرال دستور داد تا دستگاه‌ها را از اینترنت عمومی حذف کنند تا یکی از رایج‌ترین مشکلات امنیتی دولت حل شود.
به گزارش سایبربان، ده‌ها سازمان غیرنظامی فدرال انواع ابزارهای تکنولوژیکی را که استفاده می‌کنند در معرض اینترنت قرار می‌دهند تا دسترسی کارمندان به آنها را آسان‌تر کنند.
اما این دستگاه ها به دلیل سهولت در کشف و بهره برداری از هر نقطه از جهان در سال های اخیر به کانونی برای فعالیت هکرها تبدیل شده اند.
جن ایسترلی، مدیر آژانس امنیت سایبری و امنیت زیرساخت می گوید: هکرها می‌توانند از دستگاه‌های شبکه برای دسترسی نامحدود به شبکه‌های سازمانی استفاده کنند و به نوبه خود منجر به سازش در مقیاس کامل شوند.

روز سه شنبه، آژانس امنیت سایبری و امنیت زیرساخت دستورالعمل عملیاتی الزام آور (BOD) 23-02 را صادر کرده است؛ دستوری که همه آژانس های غیرنظامی فدرال ملزم به رعایت آن هستند.
این دستور می‌گوید که آژانس‌ها دو هفته پس از کشف یک رابط مدیریت شبکه‌ای در معرض اینترنت فرصت دارند تا آن را از اینترنت حذف کنند یا اقدامات کنترل دسترسی مانند عملیات اعتماد صفر را اعمال کنند.
اعتماد صفر یک رویکرد استراتژیک است که به شدت توسط دولت فدرال در سال‌های اخیر مورد توجه و استفاده قرار گرفته است و مفهوم اعتماد ضمنی را حذف کرده و کاربران را مجبور می‌کند که به طور مداوم در هر مرحله از تعامل دیجیتال اعتبارسنجی شوند.
آژانس‌ها همچنین باید کنترل‌های فنی یا مدیریتی را پیاده‌سازی کنند تا اطمینان حاصل کنند که تمام رابط‌های مدیریتی در دستگاه‌های موجود و جدید اضافه‌شده، که در چارچوب این دستورالعمل مشخص شده‌اند، تنها از یک شبکه داخلی سازمانی قابل دسترسی هستند یا توسط کنترل‌های دسترسی محافظت می‌شوند.
ایسترلی می گوید: نیاز به کنترل‌های مناسب و اقدامات کاهش‌دهنده مشخص شده در این دستورالعمل گام مهمی در کاهش خطر برای شرکت غیرنظامی فدرال است. اگرچه این دستورالعمل فقط برای آژانس‌های غیرنظامی فدرال اعمال می‌شود، اما آژانس امنیت سایبری و امنیت زیرساخت از همه سازمان‌ها می‌خواهد که دستورالعمل‌های آن را اتخاذ کنند.

چندین پلتفرم مانند شودان (Shodan)، گری نویز (GreyNoise) و سنسیس (Censys)، اطلاعات متنوعی را در مورد دستگاه های در معرض اینترنت در سازمان ها در سراسر جهان ارائه می دهند.
به عنوان مثال، سنسیس یک پست وبلاگی را در روز سه شنبه در مورد یک ابزار محبوب انتقال فایل منتشر کرده که به دلیل استفاده از آن، بسیاری از سازمان ها در معرض اینترنت قرار داده شده اند.
تقریباً 8 درصد از افرادی که در معرض اینترنت قرار گرفته‌اند، از دولت‌ها یا ارتش‌ها هستند و احتمالاً داده‌های حساس را در اختیار هکرهایی قرار می‌دهند که علاقه‌مند به سوء استفاده از آسیب‌پذیری‌های اخیراً افشا شده در محصول هستند.
دولت نوا اسکوشیا، دپارتمان نوآوری و فناوری ایلینویز و وزارت آموزش مینه‌سوتا تنها تعدادی از سازمان‌هایی هستند که گفته‌اند اطلاعات شهروندان توسط هکرهایی که از ابزار آسیب‌پذیر انتقال فایل سوء استفاده می‌کنند، قابل دسترسی بوده ‌اند.
آژانس امنیت سایبری و امنیت زیرساخت می گوید که چندین کمپین هک اخیر بر خطر بزرگی که دستگاه های شبکه پیکربندی نامناسب برای شرکت فدرال ایجاد می کند، تاکید کرده اند.
هدف آنها از این دستورالعمل، کاهش بیشتر سطح حمله شبکه های دولت فدرال است.
آژانس امنیت سایبری و امنیت زیرساخت در سند راهنمایی خود می گوید که قصد دارد دستگاه ها و رابط های در معرض اینترنت را اسکن کند و یافته های خود را به همه آژانس ها اطلاع دهد.
آژانس امنیت سایبری و امنیت زیرساخت همچنین یک رابط گزارش دهی و طرح اصلاح برای آژانس ها در کنار سایر اقدامات برای محافظت از دفاتر ایجاد خواهد کرد.
آنها همچنین قصد دارند به طور فعال با آژانس ها تماس بگیرند و راهنمایی هایی را در مورد اینکه چگونه می توانند دستگاه های خاص را مقاوم کنند، ارائه کنند.
پاتریک گاریتی، محقق امنیتی در شرکت امنیتی نوکلئوس (Nucleus Security) می گوید که این نوع راهنمایی، بهترین روش صنعتی است که هر سازمانی باید از گذشته از آن پیروی می کرده است.
اما او خاطرنشان می کند که این واقعیت که آژانس امنیت سایبری و امنیت زیرساخت باید دستورالعملی را صادر می‌کرده است، نشان می‌دهد که بسیاری از سازمان‌ها رویت، منابع یا تمایلی برای تغییر ندارند.
او می گوید: آژانس امنیت سایبری و امنیت زیرساخت در حال ایجاد یک برنامه عالی برای ایجاد مسئولیت‌پذیری برای امنیت در داخل دولت فدرال است و از سازمان‌های فدرال که به کمک نیاز دارند، پشتیبانی می‌کند. این موضوع برای امنیت ملی، امری حیاتی است.

حمله سایبری به سامانه دانشگاهی آمریکا

چهارشنبه, ۲۴ خرداد ۱۴۰۲، ۰۲:۳۰ ب.ظ | ۰ نظر

این دانشگاه اعلام کرده است که به نظر می رسد سیستم های آنلاین دانشگاه ایالتی استفن اف آستین یا همان اس اف ای (SFA) هدف یک حمله سایبری قرار گرفته اند که احتمالا بین عصر شنبه تا صبح دوشنبه انجام شده است.
به گزارش سایبربان، پس از کشف این حادثه، آنها اتصال به اینترنت را برای جلوگیری از حمله بیشتر قطع کرده و اکنون با مقامات و همکاران سیستم دانشگاه تگزاس برای تعیین میزان سازش و بازگشت به عملیات عادی کار می کنند.
مقامات می گویند که آنها هنوز جدول زمانی ندارند.
همانطور که بخش خدمات فناوری زیرساخت دانشگاه وضعیت را ارزیابی می کند، آنها شروع به بازیابی سیستم ها و در نهایت دسترسی به اینترنت خواهند کرد.
از آنجایی که منابع آنلاین رسمی دانشگاه اس اف ای در دسترس نیستند، از همه می‌خواهند به‌روزرسانی‌های رسمی را در پلتفرم‌های رسانه اجتماعی اس اف ای، یعنی فیسبوک، اینستاگرام و توییتر، دنبال کنند.
پرسنل ضروری باید به پردیس گزارش دهند.
سایر کارمندان باید با سرپرستان خود برای دریافت دستورالعمل جدید کار کنند.
مقامات به کارمندان خود گفته اند که سرپرستان ممکن است انتخاب کنند که کارمندان بدون دسترسی به سیستم ها در محوطه دانشگاه کار کنند یا از خانه کار کنند یا از مرخصی مناسب استفاده کنند.
مسئولان می گویند که ایمنی، غذاخوری و مسکن برای دانشجویان، شرکت کنندگان در اردوی تابستانی، اساتید و کارکنان در اولویت است.
به تک تک اعضای هیئت علمی توصیه شده است که از صلاحدید خود در مورد برگزاری کلاس ها به صورت حضوری یا ارائه فعالیت های جایگزین استفاده کنند.
برای به اشتراک گذاشتن برنامه ها و دریافت دستورالعمل های اضافی، باید با مدیران گروه و دفاتر دانشگاه و کالج صحبت کرد.
کرستین لیجا، دانشجوی ارشدی که در کلاس‌های تابستانی شرکت می‌کند، متوجه می شود که مشکلی در تلاش برای دسترسی به پلتفرم آموزش آنلاین وجود دارد.
او می گوید:متوجه شدم که این اجازه به من داده نمی شود، بنابراین ما در تلاش برای اتصال اساساً مشکل داشتیم و من فکر می‌کردم که این موضوعی عجیب است.

گراهام گارنر، مدیر ارشد ارتباطات بازاریابی می گوید که این قطع ارتباط ناشی از قطع دسترسی دانشگاه به اینترنت و شبکه آن برای جلوگیری از هرگونه دسترسی مخرب از راه دور ناشی از یک حمله سایبری است.
گارنر می گوید:تیم ما یک روز را صرف ارزیابی آنچه در معرض دید قرار گرفته است، آنچه ممکن است افشا شده باشد، آنچه ممکن است به سرقت رفته باشد، می نماید و آموخته است که برای از بین بردن هر گونه آسیب پذیری چه کاری می توان انجام داد.

کارمن سروانتس، دانشجوی دارای کار دانشجویی در دانشگاه، می گوید که در یک جلسه اضطراری شرکت خواهد کرد تا راهنمایی هایی در مورد چگونگی پیشبرد کار برای خوابگاه های مدرسه دریافت کند.
سروانتس می گوید:همه فایل‌های ما آنلاین هستند، بنابراین نمی‌توانیم به آن‌ها، مواردی مانند فهرست، شماره‌های کلیدی یا هر چیز دیگری دسترسی داشته باشیم.

مدیسون بروکس، دانشجوی ارشد می گوید که تمام تکالیف آنلاین ناقص هستند.
بروکس می گوید:عدم امکان انجام تکالیف، این کار را واقعاً تحت تأثیر قرار می‌دهد و هنوز هم در نمرات ما نشان داده می‌شود، مثلا متوجه خواهید شد که اوه، شما یک صفر برای عدم ارائه آن تکلیف دارید.

گارنر می گوید که از هم اکنون، آنها هر گونه به روز رسانی جدیدی را از طریق پلتفرم های رسانه های اجتماعی خود ارسال خواهند کرد.
وی در انتها افزود:امید ما این است که سیستم‌های ما دوباره بالا بیایند و به محض اینکه مطمئن شدیم که آن‌ها محافظت شده و امن هستند، می‌توانیم مستقیماً با مردم ارتباط برقرار کنیم.

رسانه‌های اجتماعی و آزادی بیان

چهارشنبه, ۲۴ خرداد ۱۴۰۲، ۰۲:۲۸ ب.ظ | ۰ نظر

آسیه فروردین – رسانه‌های اجتماعی به طور چشمگیری، چشم‌انداز صنعت رسانه را متحول کرده‌اند و منجر به تغییر در نحوه قرار گرفتن مردم در برابر دیدگاه‌های رسانه‌ای شده‌اند.

بازی یا قمار؛ مساله این است!

سه شنبه, ۲۳ خرداد ۱۴۰۲، ۰۵:۰۹ ب.ظ | ۰ نظر

یکی از سیاست‌های صنایع بازی‌سازی برای کسب درآمد، ترغیب بازیکنان به خرید کالاهای مجازی درون بازی‌های ویدیویی است.

ایرنا - بازی یک تجارت چند میلیارد دلاری است که سالانه میلیون‌ها مشتری در سراسر جهان دارد و به طور کلی مردم مقدار زیادی پول برای بازی‌های ویدیویی خرج می‌کنند. در یک جمله می‌توان اینگونه گفت که صنعت بازی‌های ویدیویی مردم را فریب می‌دهند تا پول خرج کنند.

بازی یا قمار؛ مساله این است!

صنعت بازی چقدر می ارزد؟

بازی به عنوان یک روش جذاب به اندازه سایر محتواها مثل کتاب و فیلم ارزش سرگرمی ارائه می‌دهد و حتی در صورت استفاده مناسب می‌تواند درس‌های ارزشمندی را به شما آموزش دهد.

ارزش صنعت بازی در سال ۲۰۲۳ ، ۲۲۱.۴ میلیارد دلار تخمین زده شده و پیش‌بینی می‌شود در سال ۲۰۳۰ به ۵۸۳.۶۹ میلیارد دلار برسد. در این بین ایالات متحده با ۵۶.۸۴ میلیارد دلار درآمد، بیشترین سهم بازار را داشته است.

طریقه کسب درآمد این صنایع از چند روش است. مثلا فروش کنسول‌ها، بازی‌ها و توسعه آنها درآمد بازی‌سازان را تامین می‌کند. همچنین اگر واضح ببینیم اکثر این بازی‌های ویدیویی با وسوسه کردن بازیکنان برای خرج کردن پول در خریدهای درون بازی، درآمد خود را به دست می‌آورند. به طوری که این روزها برخی از بازی‌سازان برای کسب درآمد فقط به این خریدهای درون برنامه‌ای متکی هستند.

فرقی هم نمی‌کند که روی کنسول‌ها، رایانه‌های شخصی یا تلفن همراه بازی می‌کنید، به طور کلی در هسته این ریزتراکنش‌ها یک پدیده روانی برای کسب درآمد بازی‌سازان وجود دارد. بازارجهانی خرده پرداخت‌های اینترنتی طبق پیش‌بینی‌ها از ۶۷.۹ میلیارد در سال ۲۰۲۲ به ۷۶.۶۶ میلیارد دلار در سال ۲۰۲۳ رسیده است.

 

رازهای پشت پرده بازی‌سازان برای خالی کردن جیب شما

بازیکنان همیشه چیز بیشتری می‌خواهند زیرا همیشه چیزی وجود دارد که کاملاً در دسترس نیست. وقتی بالاخره کسی دستش به یک آیتم یا قدرتی که قبلاً دست نیافتنی بود می‌رسد، احساس پیروزی می‌کند و همه ما عاشق این پیروزی‌ها هستیم. این احساس موفقیت باعث می‌شود که نسبت به خود و توانایی‌های خود احساس خوبی داشته باشیم. از طرفی هم ما با خرید به خودمان پاداش می‌دهیم.

به طور کلی، آیتم‌های درون بازی سلاح‌ها، زره‌ها یا پوسته‌های آرایشی قابل خرید هستند که بازیکنان می‌توانند برای قوی‌تر کردن شخصیت خود یا بهبود تجربه بازی خریداری کنند. تولیدکنندگان بازی‌های ویدیویی آنها را کالاهای مجازی می‌دانند. این خریدها ممکن است جان دوباره‌ای به شخصیت بازی بدهد و یا شما را نسبت به دیگران جلو بیاندازد. همچنین با پول خرج کردن می‌توان قسمت‌های تکراری بازی را دور زد و مراحل خسته‌کننده بازی‌ها را پشت سر گذاشت.

یک استراتژی دیگر در این حوزه استفاده از واحدهای پولی جدید و گنگ است. به این صورت که از لحاظ روانی به شکلی روی گیمر تاثیر می‌گذارد که متوجه خرج کردن پول و از دست دادن آن نمی‌شود.

بازی یا قمار؛ مساله این است!

استراتژی بازی‌سازان برای کسب درآمد

طراحی و سیاست این صنعت را نباید نادیده گرفت. این بازی‌ها به گونه‌ای طراحی شده‌اند که بازیکنان را وادار می‌کند تا پول بیشتری خرج کنند، بدون اینکه حتی دو بار در مورد آن فکر کنند. در واقع به بازیکنان القا می‌شود که برای موفقیت یا لذت بردن از بازی به آیتم‌های خاصی نیاز دارند و یا اگر پرداختی انجام ندهند، مقداری از بازی را از دست خواهند داد.

 این آیتم‌ها می‌توانند، سلاح یا لوازم مرتبط با بازی باشند و در اکثر موارد فقط طرحی برای خالی کردن کیف پول شما هستند. تحقیقات نشان می‌دهد که بازی‌سازان از ترفندهای قمار در طراحی بازی‌ها استفاده می‌کنند که باعث می‌شود افراد برای مدت طولانی‌تری بازی کنند و درنتیجه پول بیشتری خرج کنند و همین باعث خرید مکرر می‌شود.

اگر در اینجا به این فکر می‌کنید که چگونه خودمان یا فرزندانمان را از این فریب دور نگه داریم باید بگوییم که روش واحدی وجود ندارد و هر بازی روش خود را برای ترغیب مردم به خرج کردن دارد.

 

پول خرج کردن برای بازی‌ها ارزشی دارد؟

در طرف مقابل افرادی هستند که این مدل پول خرج کردن را نوعی مزیت می‌بینند. مثلا در چندین مصاحبه با بازیکن‌ها این مدل پول خرج کردن نوعی ارزش تلقی شده است و آنها معتقدند اگر بازی‌ها بتوانند به عنوان یک ابزار آرامش بخش برای کاهش استرس ما عمل کنند و یا روشی برای آشنایی با افراد جدید و یا ابزار مناسبی برای سرگرمی و پر کردن اوقات فراغت باشند، چرا که نه؟ پس ارزش خرج کردن دارند.

از طرفی برخی به مساله کسب درآمد از بازی هم اشاره می‌کنند و می‌گویند خرج کردن در بازی نوعی سرمایه‌گذاری است و از راه‌های متفاوتی مثل تولید ویدیو بازگردانده می‌شود. همچنین عده‌ای می‌گویند برخی بازی‌ها جنبه آموزشی دارد و هزینه کردن برای آنها عاقلانه است. اما اگر بخواهیم به طور کلی در یک جمله این بحث را جمع کنیم باید بگوییم این مدل پول خرج کردن اگر عاقلانه باشد خوب است و نباید از حد بگذرد.

بازی یا قمار؛ مساله این است!

تبدیل بازی به قمار

هزینه کردن برای بازی‌ها زمانی باید متوقف شود که سایر ابعاد رفاه شما را مختل کرده و به خطر بیاندازد و شما را از داشتن سبک زندگی بهتر باز دارد.

به گزارش وب گاه تبیان، اگر بازی بیش از حد وقت شما را می‌گیرد و بر بهره‌وری و زندگی شما تأثیر می‌گذارد، برای حفظ کیفیت زندگی خود، باید بودجه خود را کاهش دهید. در چنین شرایطی نباید اعتیاد به بازی و قمار را هم نادیده گرفت. برخی از بازی‌ها قمار را به عنوان بخشی از محتوای خود دارند و بنابراین برخی از بازیکنان ممکن است این موضوع را جذاب بدانند و حتی به دنیای واقعی قمار نیز روی آورند. به طور کلی مرز بازی‌های کامپیوتری و قمار به‌تدریج دارد محوتر می‌شود و این موضوع نگران‌کننده‌ای است.

آسیب‌پذیری آلمان در برابر حملات سایبری

سه شنبه, ۲۳ خرداد ۱۴۰۲، ۰۴:۴۳ ب.ظ | ۰ نظر

بر اساس نتایج ارزیابی انجمن بازرسی فنی آلمان (TÜV) که ۵۰۱ کسب و کار در آن مشارکت داشتند، از هر ۱۰ شرکت آلمانی در حدود یک شرکت، قربانی حملات سایبری یا حوادث مشابه امنیتی فناوری اطلاعات در سال گذشته شده اند و جنگ اوکراین باعث افزایش این حملات شده است.

به گزارش خبرگزاری ایرنا وهانس بوسمان رئیس سازمان بازرسی فنی آلمان (TÜV) اعلام کرد: حوادث سایبری دیگر یک استثنا در اقتصاد آلمان نیست بلکه جزئی از قاعده و زندگی روزمره است و دیر یا زود هر شرکتی را تحت تأثیر قرار می‌دهد.

وی تصریح کرد: از نظر شرکت‌ها، بزرگترین تهدیدها از جرایم سایبری سازمان‌یافته نشأت می‌گیرد. اما مباشران داخلی جرم، یعنی کارمندان فعلی یا سابق شرکت‌ها یا عاملان دولتی نیز تهدید ایجاد می‌کنند.

بوسمان گفت: از زمان آغاز جنگ روسیه و اوکراین در سال گذشته، تعداد حملات سایبری علیه شرکت‌های آلمانی افزایش یافته است.

وی ادامه داد: همزمان با جنگ در میدان نبرد، یک جنگ سایبری در فضای اینترنت نه تنها در اوکراین بلکه در اینجا نیز در حال وقوع است. حملات سایبری به شرکت‌های دفاعی مانند شرکت تولیدکننده خودرو و تسلیحات نظامی راین‌متال (Rheinmetall) تصادفی نیست.

بوسمان افزود: عواقب چنین حملاتی اغلب جدی است؛ سرویس خدمات مشتریان و کارکنان بیشتر مواقع در دسترس نیست، تولید با شکست مواجه می‌شود یا اطلاعات حساس به سرقت می‌رود.

بر اساس این ارزیابی، نیمی از شرکت‌ها امنیت سایبری خود را تقویت کرده‌اند.

تصویب جاسوسی الکترونیکی در فرانسه

سه شنبه, ۲۳ خرداد ۱۴۰۲، ۰۴:۱۷ ب.ظ | ۰ نظر

سنای فرانسه سندی را امضا کرد که براساس آن همه دستگاه‌های الکترونیکی مجهز به میکروفون از راه دور برای شنود اطلاعات فعال خواهند شد.
به گزارش خبرگزاری صدا و سیما سنای فرانسه هفته گذشته ماده سه پیش نویس قانون جهت گیری و برنامه ریزی دادگستری (LOPJ) را تصویب کرد که به کمک میکروفون‌ها و دوربین‌ها امکان فعال سازی از راه دور دستگاه‌های الکترونیکی را در چارچوب تحقیقات به منظور تعیین موقعیت جغرافیایی یا نظارت بر افراد بدون اطلاع آن‌ها را فراهم می‌کند.

به گزارش پایگاه اینترنتی روُلوسیون پرمنانت، چهارشنبه گذشته، مجلس سنای فرانسه لایحه جهت گیری و برنامه ریزی وزارت دادگستری برای ۲۰۲۷-۲۰۲۳ را در اولین قرائت مورد بررسی قرار داد.

در این جلسه، ماده ۳ لایحه پیشنهادی اریک دوپون مورتن وزیر دادگستری به تصویب رسید که توسعه تکنیک‌های ویژه تحقیق را برای امکان فعال سازی از راه دور دستگاه‌های متصل به اینترنت، با اهداف مکان یابی و ضبط صداها و تصاویر فراهم می‌کند.

با این تدبیر، دستگاه‌های الکترونیکی می‌توانند در وهله اول و از راه دور امکان تعیین موقعیت مکانی همه مظنونانی را که بابت جرائمی که حداقل ده سال حبس دارند تحت پیگرد هستند، به‌طور فراهم کنند.

این متن همچنین اجازه فعال‌سازی از راه دور دستگاه‌های الکترونیکی افراد را بدون اطلاع آن‌ها می‌دهد تا میکروفون‌ها و دوربین‌ها با فعال سازی آن‌ها به ابزارهای شنود و نظارت تبدیل شوند. حتی اگر دستگاه خاموش باشد.

این ماده به ویژه به تلفن‌ها و رایانه‌ها همچنین همه دستگاه‌های الکترونیکی مجهز به میکروفون، دوربین یا سیستم ردیابی مربوط می‌شود: از جمله رایانه‌های داخلی در ماشین، تلفن‌های کودک، تلویزیون‌ها با قابلیت اتصال به اینترنت، اسکوترهای هوشمند، ساعت‌های هوشمند، دوربین‌های نظارتی و غیره.

اگر چه پلیس و دستگاه‌های اطلاعاتی هم اینک نیز ابزارهای نظارتی زیادی و پیشرفته‌ای در اختیار دارند، این ماده جاسوسی پلیسی را تسهیل و از نظر قانونی تضمین می‌کند.

محکومیت سه ساله هکر رومانیایی در آمریکا

سه شنبه, ۲۳ خرداد ۱۴۰۲، ۰۴:۰۷ ب.ظ | ۰ نظر

یک هکر رومانیایی که زیرساخت پشت چندین گونه بدافزار را اداره می کرد، روز دوشنبه به سه سال حبس در زندان فدرال ایالات متحده محکوم شد.
به گزارش سایبربان، دادستان ها می گویند کهمیهای لونوت پائونسکو، 39 ساله به اجرای سرویس «میزبان ضد گلوله» PowerHost[.]ro کمک کرده که به مجرمان سایبری در توزیع ویروس گوزی (Gozi)، تروجان زئوس، تروجان اسپای آی (SpyEye) و بدافزار بلک انرژی (BlackEnergy) کمک کرده است.
مجرمان سایبری از انواع بدافزارها برای سرقت اطلاعات مالی و سو استفاده برای اهداف دیگر، استفاده می کرده اند.
پائونسکو سرورها و آدرس های آی پی را از ارائه دهندگان اینترنتی قانونی اجاره کرده و سپس ابزارها را در اختیار مجرمان سایبری قرار می داده است و به آنها اجازه می داده که ناشناس بمانند و حملات را انجام دهند.
پائونسکو همچنین متهم شده است که جرایم سایبری دیگری را از طریق پلتفرم های خود فعال می کرده است، مانند حملات انکار سرویس توزیع شده (DDoS) و کمپین های هرزنامه.
او به یک اتهام توطئه برای ارتکاب نفوذ کامپیوتری محکوم شده است.
دامیان ویلیامز، دادستان ایالات متحده می گوید: پائونسکو یک سرویس میزبانی ضد گلوله را اجرا می کرده که به مجرمان سایبری در سرتاسر جهان امکان انتشار بدافزارهایی را می داده است که اطلاعات مالی محرمانه را به سرقت می‌بردند، وب‌سایت‌ها را خراب می‌کردند و باعث آسیب‌های دیگر می‌شدند.

سرویس میزبانی ضد گلوله پائونسکو با اجازه دادن به مجرمان سایبری برای دستیابی به زیرساخت آنلاین برای فعالیت غیرقانونی خود بدون افشای هویت واقعی، از مشتریان جنایتکار خود در برابر پلیس و متخصصان امنیت سایبری محافظت کرده و در عین حال خود را غنی و ثروتمند تر می کرده است.
پائونسکو که با نام "ویروس" شناخته می شود، در ژوئن 2021 در فرودگاه بین المللی الدورادو در بوگوتا واقع در کلمبیا، پس از دستگیری اولیه در دسامبر 2012 در بخارست واقع در رومانی، بازداشت می شود.
مقامات ایالات متحده در ژانویه 2013 او را به خاطر نقشش در توزیع بدافزار گوزی متهم کردند که برای مجرمان سایبری که اعتبار بانکداری الکترونیک را دزدیده و وجوه را از حساب‌های قربانیان خارج می‌کنند، بسیار مهم بود، اما آنها نتوانستند استرداد از رومانی را تضمین کنند.
خبرگزاری ریکورد (The Record) قبلا گزارش داده بود که پائونسکو به انواع عملیات های مجرمانه سایبری کمک می کرده است، به ویژه با کسانی که از بدافزار گوزی استفاده می کردند، ارتباطی نزدیک داشته است.
به گفته مقامات آمریکایی، او یکی از سه نفری است که بین سال‌های 2007 تا 2013 به گسترش بدافزار در سطح جهانی به بیش از یک میلیون رایانه کمک کرده و ظاهراً بخشی جدایی‌ناپذیر در دومین نسخه بدافزار گوزی داشته است.
بیش از 40 هزار رایانه در ایالات متحده توسط گوزی آلوده شده اند، از جمله رایانه‌های اداره ملی هوانوردی و فضایی آمریکا و همچنین رایانه‌های دیگر در سراسر اروپا.
مقامات آمریکایی می گویند که این بدافزار به هکرها اجازه خواهد داد تا ده ها میلیون دلار از افراد، مشاغل و نهادهای دولتی را به دلیل توانایی آن در فرار از نرم افزار آنتی ویروس به سرقت ببرند.
پس از عدم امکان استرداد پائونسکو از رومانی پس از دستگیری در سال 2012، دادستان های ایالات متحده تا زمان دستگیری وی در کلمبیا او را تحت نظر داشتند.
او ابتدا با 65 سال زندان روبرو بود اما در 24 فوریه به اتهامات کمتری اعتراف کرد.
پائونسکو برای گذراندن یک سال و دو ماه در حبس رومانی و کلمبیا پیش از استرداد به ایالات متحده به عنوان شرط این حکم، باید 3.51 میلیون دلار را از دست بدهد و 18945 دلار غرامت بپردازد.
قاضی منطقه ای ایالات متحده، لورنا جی. شوفیلد، در طول صدور حکم خود گفته بود که پائونسکو توزیع برخی از جدی ترین بدافزارهای در حال گردش در آن زمان را تسهیل کرده و پول قابل توجهی از آن به دست آورده است.
دو اپراتور دیگر پشت گوزی، نیکیتا کوزمین، تبعه روسیه که در سال 2013 در کالیفرنیا دستگیر شد و در سال 2016 آزاد شد و دنیس کالوسکیس، که در لتونی دستگیر شد اما هرگز به دلیل اختلاف بر سر یک حکم طولانی مدت به زندان تحویل داده نشد، هستند.
کد منبع این بدافزار در سال 2013 به صورت آنلاین فاش شد و اکنون زیربنای چندین نوع مورد استفاده برای حمله به بانک ها است.


پلیس سایبری اوکراین مزرعه ربات‌هایی را که ادعا می‌شود که اطلاعات نادرست را در رسانه‌های اجتماعی منتشر می‌کرده است، تعطیل کرد تا افکار عمومی را در مورد جنگ روسیه در اوکراین تحت تأثیر قرار دهد.
به گزارش کارگروه حملات سایبری خبرگزاری سایبربان، مقامات روز دوشنبه اعلام کرده بودند که مدیران ربات مزرعه بیش از 4 هزار حساب جعلی را مدیریت می کرده اند که وانمود می کردند متعلق به شهروندان اوکراینی هستند.
پلیس می گوید: این حساب‌ها برای انتقاد از نیروهای مسلح اوکراین، توجیه حمله روسیه به اوکراین و ایجاد تنش سیاسی در کشور مورد استفاده قرار می گرفته اند.

طبق بیانیه پلیس، افرادی که در اداره مزرعه ربات‌ها مشارکت داشته اند، پرداخت‌هایی را به روبل روسیه دریافت می‌کرده اند که یک ارز ممنوعه در اوکراین است.
در مجموع، آنها حدود 13500 دلار در ماه درآمد داشته اند.
برای تبدیل روبل به وجوه قابل استفاده، مجرمان از سیستم‌های پرداخت تحریمی مانند وب مانی (WebMoney) و پرفکت مانی (PerfectMoney) برای تبدیل وجوه به ارز دیجیتال و انتقال آن به کارت‌های بانکی استفاده می کرده اند.
پلیس اوکراین سه مظنون را از منطقه وینیتسیا در غرب مرکزی اوکراین بازداشت کرده است.
گفته می‌شود که آنها هر روز حدود 500 حساب جعلی را در شبکه‌های اجتماعی مختلف، پلتفرم‌های تجارت الکترونیک و اپلیکیشن‌های پیام‌رسان ثبت می‌کرده اند و اگر مجرم شناخته شوند، حداکثر به 15 سال حبس محکوم خواهند شد.
مزرعه در یک گاراژ متروکه قرار دارد.
در جریان بازرسی، مأموران پلیس رایانه‌ها، تلفن‌های همراه، بیش از 3300 سیم‌کارت اپراتورهای تلفن همراه اوکراینی و اروپایی و کارت‌های بانکی را که برای دریافت پرداخت از مشتریان روسی استفاده می‌شده است، کشف و ضبط می کنند.
این دستگیری نشان می‌دهد که چگونه از حساب‌های خودکار برای گسترش تبلیغات و ایجاد وحشت در طول جنگ استفاده می‌شود.
در اوایل ماه دسامبر، پلیس سایبری بیش از 100 هزار سیم کارت مورد استفاده برای ثبت حساب‌های رباتی را که روایت‌های طرفدار روسیه را در سایت‌های مختلف رسانه‌های اجتماعی منتشر می‌کردند، توقیف می کند.
عاملان معمولاً مزارع ربات را در خانه های خود یا در ساختمان های متروکه راه اندازی می کنند، جایی که از سرورها و سیم کارت ها برای ایجاد و اجرای حساب های جعلی استفاده می شود.
مداخله غیرمجاز در عملکرد شبکه های اطلاعاتی و ارتباطی الکترونیکی بر اساس قانون کیفری اوکراین جرم محسوب می شود و موجب حبس خواهد شد.

رئیس سازمان ملل متحد از ایجاد نهاد بین المللی دیده بان هوش مصنوعی مانند آژانس هسته ای حمایت میکند.
به گزارش سایبربان،دبیرکل سازمان ملل از پیشنهاد برخی مدیران هوش مصنوعی برای ایجاد یک نهاد ناظر بین المللی هوش مصنوعی مانند آژانس بین المللی انرژی اتمی حمایت کرد.

فناوری هوش مصنوعی مولد از شش ماه پیش که چت جی پی تی (ChatGPT) راه اندازی شد، مردم را شیفته خود کرده و به سریع ترین اپلیکیشن محبوب حال حاضر تبدیل شده است. هوش مصنوعی همچنین به کانون نگرانی در مورد توانایی خود در ایجاد تصاویر جعلی و دیگر اطلاعات نادرست تبدیل شده است.

هشدار محققان در مورد هوش مصنوعی به شدت رو به افزایش است. از اینرو گوترش به خبرنگاران گفت: ما باید این هشدارها را جدی بگیریم.

آنتونیو گوترش اعلام کرده است که قصد دارد کار خود را تا پایان سال در یک نهاد مشورتی هوش مصنوعی سطح بالا آغاز کند تا به طور منظم عملکرد هوش مصنوعی را بررسی کند و توصیه هایی را در مورد چگونگی هماهنگی هوش مصنوعی با حقوق بشر و حاکمیت قانونی ارائه دهد.

او در ادامه افزود: من از این ایده که ما میتوانیم یک آژانس هوش مصنوعی مانند آژانس بین المللی انرژی اتمی داشته باشیم، استقبال میکنم.

گوترش گفت که چنین ایده ای میتواند بسیار جالب باشد اما اشاره کرد که تنها کشورهای عضو میتوانند آن را ایجاد کنند، نه دبیرخانه سازمان ملل متحد.

افشای صنعت سرّی هک در هند

سه شنبه, ۲۳ خرداد ۱۴۰۲، ۱۲:۵۷ ب.ظ | ۰ نظر

سعید میرشاهی – یک اعتراف، صنعت مخفی هک در هند را افشا ‌کرد. این کشور، یک تخصص پرسود را توسعه داده است: استخدام برای حملات سایبری! ماجرای این کسب‌وکار پررونق در هند یعنی استخدام هکر برای حملات سایبری که از سوی مجله نیویورکر به تفصیل بیان شده، جذاب و خواندنی است.

سایت‌های دولت سوئیس هک شدند

دوشنبه, ۲۲ خرداد ۱۴۰۲، ۰۴:۲۶ ب.ظ | ۰ نظر

وب‌سایت‌های دولت سوئیس هدف یک حمله سایبری گسترده قرار گرفت.
به گزارش خبرگزاری مهر به نقل از پایگاه سویس اینفو، وب‌سایت‌های دولت سوئیس هدف حمله سایبری قرار گرفت.

رادیو دولتی سوئیس اعلام کرد که وب سایت های دولت فدرال سوئیس و پورتال برخط راه آهن این کشور هدف حملات مخرب سایبری قرار گرفته اند.

بنا به اعلام رادیو دولتی سوئیس، چند وب سایت دولت فدرال سوئیس در حال حاضر از دسترس خارج شده اند.

وزارت دارایی سوئیس در بیانیه ای اعلام کرد که این سایت‌های دولتی مورد حمله سایبری موسوم به DDoS قرار گرفتند که هدف آن بارگذاری بیش از حد وب‌سایت‌ها و برنامه‌ها به نحوی است که دیگر در دسترس نباشند. در این نوع حمله سایبری هیچ داده ای از بین نمی رود.

رادیو دولتی سوئیس همچنین گفت که گروه «نو نیم» NoName مسئولیت این حمله سایبری را به عهده گرفته است. این گروه همچنین هفته گذشته وب سایت پارلمان سوئیس را هدف حمله قرار داد.

اروپا: متا حفاظت از کودکان را تقویت کند

دوشنبه, ۲۲ خرداد ۱۴۰۲، ۰۴:۲۵ ب.ظ | ۰ نظر

تیری برتون، کمیسر بازار داخلی اتحادیه اروپا، روز ۲۳ ژوئن با مارک زاکربرگ، مدیر عامل شرکت متا، ملاقات خواهد کرد تا از او بخواهد هرچه سریع‌تر برای مقابله با انتشار محتوای مضر برای کودکان اقدام کند.
خبرگزاری برنا؛ تنظیم‌‌گران و کاربران پلتفرم‌هایی مانند فیس‌بوک، اینستاگرام، تیک‌تاک، اسنپ‌چت و یوتیوب نگران محتوایی هستند که کودکان خردسال را هدف قرار می‌دهد. برتون در متنی تلویحاً به خودداری متا از محافظت داوطلبانه کودکان اشاره کرد و نوشت: به نظر می‌رسد کد داوطلبانه این شرکت در حمایت از کودکان کار نمی‌کند.

یکی از نمایندگان متا مدعی شد که این شرکت فناوری‌ها و سیاست‌های سختگیرانه‌ای را برای جلوگیری از تعامل سوءاستفاده‌گران مجازی با کودکان و نوجوانان به‌کار گرفته است. وی ادعا کرد که متا در بازه سال‌های ۲۰۲۰ تا ۲۰۲۲، ۲۷ شبکه نشر محتوای غیرمجاز را از بین برده و در ژانویه بیش از ۴۹۰ هزار حساب کاربری را به دلیل نقض خط‌مشی‌های ایمنی کودکان غیرفعال کرده است. متا همچنین کارگروهی داخلی برای بررسی و رسیدگی فوری به این قبیل محتوا تشکیل داده است.

برتون در خصوص نواقص موجود در سازوکار محافظت از کودکان متا، گفت که این شرکت باید از ۲۵ اوت سال جاری، اقداماتی را که در راستای پیروی از قوانین محتوای آنلاین اتحادیه اروپا موسوم به قانون خدمات دیجیتال (DSA) انجام خواهد داد، اعلام کند. بر اساس ادعای کمیسر بازار داخلی اتحادیه اروپا، متا در غیر این صورت با جریمه و تحریم‌های سنگین مواجه خواهد شد.

جریمه‌های اتحادیه اروپا بر مبنای قانون خدمات دیجیتال می‌تواند تا ۶٪ از گردش مالی جهانی یک شرکت را شامل شود.

هنگ کنگ پناهگاه صرافی‌های رمزارز می‌شود

دوشنبه, ۲۲ خرداد ۱۴۰۲، ۰۴:۱۵ ب.ظ | ۰ نظر

یکی از اعضای شورای قانونگذاری چین در پستی توییتری اعلام کرد که صرافی‌های ارزهای دیجیتال که اخیراً در سطح جهانی تحت نظارت شدید قرار گرفته‌اند، می‌توانند حمایت گسترده‌ای را در هنگ کنگ به دست آورند.

به گزارش تسنیم به نقل از راشاتودی، یکی از اعضای شورای قانونگذاری چین روز شنبه در پستی توییتری اعلام کرد که صرافی‌های ارزهای دیجیتال که اخیراً در سطح جهانی تحت نظارت شدید قرار گرفته‌اند، می‌توانند حمایت گسترده‌ای را در هنگ کنگ به دست آورند.

جانی نگ از صرافی کوین‌بیس Coinbase و سایر صرافی‌های بین‌المللی ارز رمزنگاری شده دعوت کرد تا در هنگ کنگ فعالیت کنند و حتی به فرصت های بالقوه برای قرار گرفتن در فهرست بازار بورس این منطقه اشاره کرد.

این قانونگذار نوشت: من بدین وسیله استقبال و دعوت می‌کنم از همه اپراتورهای تجارت دارایی‌های مجازی جهانی از جمله کوین‌بیس تا در هنگ کنگ حضور پیدا کنند و از پلتفرم‌های تجاری رسمی و برنامه‌های توسعه بیشتر استفاده کنند.

وی افزود: درصورت تمایل می‌توانید با من ارتباط بگیرید و خوشحال خواهم شد که هر گونه کمکی بتوانم انجام دهم.

این پیشنهاد چند روز پس از طرح دعوی حقوقی علیه دو صرافی اصلی ارزهای دیجیتال - بایننس و کوین بیس - توسط کمیسیون بورس و اوراق بهادار ایالات متحده مطرح شد.

این طرح دعوی یکی از اقدامات شدید کمیسیون بورس و اوراق بهادار آمریکاست که در پی فروپاشی اف‌تی‌ایکس FTX، یکی از بزرگترین صرافی‌های ارز دیجیتال، در نوامبر سال گذشته، جریمه‌هایی را علیه شرکت‌های وام‌دهنده رمز ارز وضع کرده است.

نیجریه آخرین کشوری است که بایننس، بزرگترین صرافی ارزهای دیجیتال جهان از نظر حجم مبادلات را ممنوع اعلام کرده و گفته است که فعالیت این شرکت در نیجریه غیرقانونی است.

پیش از این در ماه جاری میلادی، بایننس برنامه‌های خود را برای توقف کار در کانادا اعلام کرد و گفت که مجموعه‌ای از مقررات جدید حاکم بر صنعت رمزارز، عملیات این شرکت را در این کشور پیچیده کرده است.

برخلاف موضع محتاطانه نسبت به ارزهای دیجیتال در سراسر جهان، هنگ کنگ رویکرد مشتاقانه‌تری را در پیش گرفته است.

هشدار رئیس جمهور آلمان درباره هوش مصنوعی

دوشنبه, ۲۲ خرداد ۱۴۰۲، ۰۳:۳۹ ب.ظ | ۰ نظر

رئیس جمهور فدرال آلمان در نشستی درباره خطرات توسعه هوش مصنوعی هشدار داده و نظارت موثرتر بر این فناوری را لازم دانست.
به گزارش تسنیم به نقل از "ان تی وی" آلمان، "فرانک والتر اشتاین مایر"، رئیس جمهور فدرال آلمان، نسبت به خطرات احتمالی ناشی از توسعه مداوم هوش مصنوعی هشدار داد. اشتاین مایر در نشستی با محوریت این موضوع گفت: هوش مصنوعی یک فناوری مخرب است که زندگی همه ما را تغییر خواهد داد. رئیس جمهور فدرال آلمان هشدار داد که این فناوری همچنین می تواند به صورت دستکاری و بدخواهانه استفاده شود. او به عنوان نمونه به تصویر انفجار ادعایی در وزارت دفاع ایالات متحده اشاره کرد که هزاران بار در اینترنت به عنوان اخبار جدی به اشتراک گذاشته شده بود.

وی افزود: خبر جعلی افشا شد، اما قیمت‌های بازار سهام قبلاً در بازارهای مالی سقوط کرده بود. شفاف سازی همیشه آنقدر سریع و واضح نیست و شفاف سازی همیشه به همه کسانی که پیام را دیده اند نمی رسد.

"اشتاین مایر" گفت، گسترش ترس با چنین عکس‌هایی که به‌طور مصنوعی تولید می‌شوند، متاسفانه خیلی خوب عمل می‌کند و تقلبی‌ها بهتر و بهتر می‌شوند. وی افزود: وقتی جعلی در دنیا منتشر شد، اصلاح آن دشوار است. یک نوع آموزش عمومی دیجیتال ضروری است.همه ما باید یاد بگیریم که به جای تکیه بر معقول بودن یک ماشین، پاسخ های هوش مصنوعی را بررسی کنیم.

اشتاین مایر تاکید کرد که یک چارچوب اخلاقی و قانونی با استانداردهای موثر و نهادهای نظارتی نیز باید ایجاد شود. به گفته وی برای کشف تحولات نامطلوب، روزنامه نگاری قوی و مستقل نیز ضروری است.

مقامات آلمانی مرتبا درباره خطرات توسعه هوش مصنوعی هشدار می دهند.

"ساسکیا اسکن"، رهبر حزب سوسیال دموکرت آلمان هم اخیرا از ایجاد یک مرجع نظارتی برای استفاده از هوش مصنوعی (KI) در آلمان حمایت کرد. این مقام آلمانی در گفتگویی با خبرگزاری آلمان گفت: از آنجایی که مدیریت داده ها نقش مهمی در نظارت دارد، افسر حفاظت از داده ها و آزادی اطلاعات می تواند انتخاب خوبی باشد. وی تاکید کرد: در هر صورت، ما به مرجعی نیاز داریم که ارزیابی کند آیا استفاده از هوش مصنوعی از قانون پیروی می کند یا خیر.

اسکن در بخش دیگری از سخنانش تاکید کرد که هوش مصنوعی پتانسیل بالایی دارد، به عنوان مثال برای آموزش عادلانه تر، مراقبت های پزشکی بهتر و مدیریت کارآمدتر. اما مطمئناً خطراتی نیز مانند همه فناوری ها وجود دارد. خوب است که آلمان و اروپا نه تنها از نظر فناوری در خط مقدم باشند، بلکه در مورد نحوه تنظیم استفاده از هوش مصنوعی نیز پیشرو باشند.

وزاری کار و کشور آلمان هم اخیرا نسبت به تبعیض و کنترل غیرقانونی کارمندان توسط هوش مصنوعی در شرکت‌ها هشدار دادند.

بر اساس تصمیمات اتخاذ شده در آینده قوانین بسیار سخت گیرانه‌تری در آلمان برای نظارت، کنترل یا انتخاب کارمندان با استفاده از هوش مصنوعی وجود خواهد داشت. روزنامه "زوددویچه سایتونگ" در گزارشی نوشت، "نانسی فایزر"، وزیر کشور فدرال آلمان و هوبرتوس هیل، وزیر کار فدرال هر دو می‌خواهند در یک قانون جدید حفاظت از داده‌های کارکنان از نظارت کامل بر کارمندان جلوگیری کنند.

به گفته نانسی فایزر، وزیر کشور فدرال آلمان هوش مصنوعی نقش مهمی را ایفا خواهد کرد و این فرصت‌های بسیار زیادی را در بر دارد، اما همچنین این خطر را دارد که فرآیندها دیگر شفاف نباشند، انسان‌ها مورد تبعیض قرار گیرند یا حقوق شخصی از طریق نظارت نادرست نقض شود.

دولت همچنین می‌خواهد استفاده از هوش مصنوعی را در فرآیندهای استخدام در شرکت‌ها محدود کند. بر این اساس برنامه‌های مربوطه باید با استانداردهای علمی مطابقت داشته باشند و فقط می‌توانند ویژگی‌هایی را بررسی کنند که برای یک موقعیت مهم هستند.

وزیر دیجیتال آلمان نیز اخیرا خواستار مقررات سریع اتحادیه اروپا برای کاربردهای هوش مصنوعی شده است. وی در این باره گفت: هوش مصنوعی وارد زندگی روزمره شده است و زندگی ما را به طور اساسی تغییر خواهد داد. اتحادیه اروپا باید به سرعت به این موضوع واکنش نشان دهد. همچنین وزارت کشور فدرال آلمان خواهان یک چارچوب قانونی شفاف در این راستا است.

وزیر دیجیتال آلمان گفت: ما باید اکنون عاقلانه واکنش نشان دهیم و هوش مصنوعی را به طور معقولی تنظیم کنیم، قبل از اینکه برای این کار خیلی دیر شود. این کار نباید دوباره سال‌ها طول بکشد. باید اطمینان حاصل شود که این فناوری جدید تنها در صورتی قابل استفاده است که به ارزش‌های اروپایی مانند دموکراسی، شفافیت و بی طرفی پایبند باشد.

برنامه‌های مبتنی بر هوش مصنوعی مانند ChatGPT با کمک هوش مصنوعی محتوا تولید می‌کنند. کاربران می‌توانند دستورات یا جملاتی را مشخص کنند که سیستم‌های مربوطه به‌طور مستقل آن‌ها را با کمک حجم وسیعی از داده‌های اینترنت تکمیل می‌کنند.

نتایج نظر سنجی‌ها هم نشان نشان می‌دهد که اکثر شهروندان آلمانی از قوانین سختگیرانه‌تر برای توسعه هوش مصنوعی حمایت می‌کنند.

انگلیس میزبان نخستین اجلاس جهانی هوش مصنوعی

دوشنبه, ۲۲ خرداد ۱۴۰۲، ۰۳:۱۳ ب.ظ | ۰ نظر

انگلیس نخستین میزبان اجلاس جهانی هوش مصنوعی در پاییز 2023 خواهد بود.
به گزارش سایبربان، نخست وزیر انگلیس اعلام کرد در حالیکه جهان با چالش ها و فرصت های ناشی از پیشرفت سریع هوش مصنوعی دست و پنجه نرم میکند، بریتانیا میزبان اولین اجلاس بزرگ جهانی درباره ایمنی هوش مصنوعی خواهد بود.

هوش مصنوعی به بهبود زندگی ما کمک میکند و توسعه هوش مصنوعی به سرعت انجام میشود و این سرعت نیازمند نظارت میباشد. به همین دلیل است که انگلیس اولین اجلاس بزرگ جهانی درباره ایمنی هوش مصنوعی را برگزار خواهد کرد.

هفته های گذشته ،ده ها کارشناس برجسته در مورد پتانسیل هوش مصنوعی برای به خطر انداختن نسل بشریت به روش های مشابه پاندمیک یا سلاح های هسته ای هشدار دادند.

این نشست که پاییز امسال به میزبانی انگلیس برگزار خواهد شد، خطرات هوش مصنوعی از جمله سیستم های مرزی را مورد بررسی قرار خواهد داد و درباره چگونگی کاهش آنها از طریق اقدامات هماهنگ بین المللی بحث خواهد کرد. همچنین بستری را برای کشورها فراهم خواهد کرد تا روی توسعه بیشتر یک رویکرد مشترک برای کاهش این خطرات با یکدیگر همکاری کنند.

در هفته های اخیر نخست وزیر انگلیس این موضوع را با تعدادی از تجار و رهبران جهان در میان گذاشته است. این رهبران شامل همه اعضای جی ۷ می شود که ماه گذشته در اجلاس هیروشیما شرکت کرده بودند.

در ماه ژوئیه نیز وزیر امور خارجه انگلیس،اولین جلسه توجیهی شورای امنیت سازمان ملل درباره فرصت ها و خطرات هوش مصنوعی برای صلح و امنیت بین المللی را برگزار خواهد کرد.

انگلیس موقعیت خوبی برای برگزاری مذاکرات در مورد آینده هوش مصنوعی دارد. زیرا این کشور در زمینه هوش مصنوعی در جایگاه سوم جهان پس از آمریکا و چین قرار دارد.
 بخش هوش مصنوعی انگلیس در حال حاضر ۳.۷ میلیارد پوند به اقتصاد این کشور کمک میکند و ۵۰ هزار نفر را در سراسر کشور مشغول بکار نموده است.انگلیس یکی از اولین کشورهایی است که طرحی برای توسعه ایمن و مسئولانه هوش مصنوعی ارائه کرد که با سرعت پیشرفت این فناوری سازگار خواهد بود.

نخست وزیر انگلیس طی مصاحبه ای گفت:هوش مصنوعی پتانسیل فوق العاده ای برای تغییر بهتر زندگی ما دارد. اما باید مطمئن شویم که به گونه ای توسعه یافته و مورد استفاده قرار میگیرد که ایمن و بی خطر باشد.هیچ کشوری به تنهایی نمیتواند این کار را انجام دهد. این یک تلاش جهانی خواهد بود.

هوش مصنوعی جدید گوگل رونمایی شد

يكشنبه, ۲۱ خرداد ۱۴۰۲، ۰۵:۱۰ ب.ظ | ۰ نظر

هوش مصنوعی گوگل با نام «آلفادو» برای بهبود مرتب کردن یک مجموعه و اطلاعات استفاده می‌شود.
به گزارش تسنیم، بخش هوش مصنوعی گوگل (Google DeepMind) از هوش مصنوعی جدید این شرکت غول فناوری به نام "AlphaDev" رونمایی کرد. این هوش مصنوعی جدید موفق شده که الگوریتم‌های برنامه‌نویسی را برای مرتب کردن عناصر یک مجموعه و اطلاعات استفاده کند و این فرایندها را بهبود ببخشد.

گوگل، AlphaDev را بر مبنای هوش مصنوعی آلفا زیرو (AlphaZero) ساخته است. آلفازیرو از تکنیک یادگیری تقویتی (RL) استفاده می‌کند. این هوش مصنوعی با آزمون و خطای حالت‌های متفاوت، مقایسه آن‌ها با حالت مطلوب، امتیاز دادن به مدل در صورت درست بودن و تکرار این پروسه، به نتیجه درست می‌رسد.

در این هوش مصنوعی جدید، گوگل بر روی الگوریتم Sort تمرکز کرده است و تلاش کرده آن‌را بهبود ببخشد.

همچنین گوگل طرح جدیدی برای کمک به سازمان‌ها در اعمال کنترل‌های امنیتی اولیه بر روی سیستم های هوش مصنوعی خود و محافظت از آن‌ها در برابر موج جدیدی از تهدیدات سایبری دارد.

این طرح می‌تواند به شرکت‌ها کمک کند تا به سرعت سیستم‌های هوش مصنوعی را در برابر هکرهایی که سعی در دستکاری مدل‌های هوش مصنوعی یا سرقت داده‌هایی که مدل‌ها روی آن‌ها آموزش دیده‌اند، ایمن کنند.

آدری تانگ، وزیر دیجیتال تایوان، این هفته به منظور بازدید از چند شرکت فعال در زمینه فناوری های ماهواره ای به انگلیس سفر خواهد کرد.
به گزارش ایرنا از استریت تایمز، به رغم فقدان روابط رسمی، تایوان انگلیس را یکی از شرکای اصلی خود قلمداد می کند. انگلیس در خصوص عضویت در سازمان‌های جهانی از جمله سازمان بهداشت جهانی حمایت های زیادی از تایپه کرد.

به گزارش وزارت دیجیتال تایوان، تانگ در این سفر، در هفته فناوری لندن شرکت و از وزارتخانه های علوم، نوآوری و فناوری و نیز تجارت انگلیس بازدید خواهد کرد.

این وزارتخانه بدون اشاره به جزئیات افزود: "دو طرف در مورد مسائل مربوط به حاکمیت دیجیتال و همکاری در صنایع دیجیتال تبادل نظر خواهند کرد. "

این وزارتخانه اضافه کرد تانگ همچنین از شرکت OneWeb که در ماهواره‌های مدار پایین تخصص دارد، بازدید خواهد کرد و امیدوار است با همکاری با این شرکت انگلیسی صنایع ارتباطات تایوان را تقویت کند.

بنا به گزارش استریت تایمز، دولت تایوان به دنبال برنامه‌هایی برای حفظ ارتباطات در صورت حمله چین است، از جمله ماهواره‌هایی در مدار متوسط و پایین زمین برای خدمات اینترنتی؛ مشابه کاری که اوکراین در بهره گیری از سرویس پهن باند ماهواره‌ای استارلینک ایلان ماسک انجام داد.

این وزارتخانه تاکید کرد: تانگ امیدوار است از سفر انگلیس برای تعمیق همکاری در زمینه امنیت اطلاعات دولتی، سرمایه گذاری و روابط کلی تایوان و انگلیس استفاده کند.

جوزف وو، وزیر امور خارجه تایوان نیز قرار است این هفته به اروپا برود و در یک مجمع امنیتی در پراگ شرکت کند

پلیس دبی برای افزایش آگاهی در مورد آزار و اذیت سایبری با دانش‌آموزان ملاقات کرد.
به گزارش سایبربان؛ پلیس دبی در ادامه مبارزه خود با آزار و اذیت سایبری اخیراً از دانش‌آموزان مدرسه کینگز دبی بازدید کرد تا در مورد افزایش آگاهی آنها نسبت به استفاده ایمن از اینترنت صحبت کند.

تعامل با منصور (Mansoor)، عروسک پلیس دبی، هم سرگرم‌کننده و هم آموزشی بود و دانش‌آموزان را درگیر مکالمه‌ای متحرک می‌کرد و افسران به آنها در مورد خطرات مختلف آنلاین از جمله آزار سایبری، شکارچیان سایبری، دسترسی به محتوای نامناسب و فیشینگ یا اشتراک‌گذاری داده‌های حساس گوشزد می‌کردند.

مقامات همچنین به دانش‌آموزان و همچنین والدین و معلمان آنها توصیه کرده‌اند که هرگونه فعالیت مشکوک آنلاین را از طریق وب‌سایت پلیس دبی «eCrime» گزارش دهند.

این بازدید اجتماعی شامل نمایش ابرخودروی پلیس دبی بنتلی کانتیننتال «GT» بود و بر ارتقای آگاهی ایمنی جاده و نحوه تماس دانش‌آموزان و برقراری ارتباط با پلیس در مواقع اضطراری متمرکز بود. به آنها گفته شد در مواقع اضطراری 999 و اگر وضعیت غیر اضطراری است 901 را شماره‌گیری کنند.

علی یوسف آل علی (Ali Youssef Al Ali)، رئیس بخش تنوع فرهنگی در اداره آگاهی امنیتی اداره کل شادی جامعه پلیس دبی، گفت که آنها همچنان به بازدید از مدارس مختلف در سراسر دبی برای تعامل با دانش‌آموزان در مورد وظایف و خدمات پلیس ادامه خواهند داد.

مشاوره والدین

در اینجا چند نکته برای والدین با هدف محافظت از فرزندان در اینترنت وجود دارد :

ارتباط باز با کودکان که به آنها اجازه می‌دهد تا به بزرگسالان مورد اعتماد در مورد تماس آنلاین نامناسب بگویند.
به‌روزرسانی دستگاه‌ها با آخرین نرم‌افزار و آنتی‌ویروس، نظارت بر تنظیمات حریم خصوصی، پوشش وب کم، استفاده از کنترل‌های والدین و جستجوی ایمن.
وقت گذاشتن برای کمک به کودکان تا اطلاعات نادرست و محتوای نامناسب را تشخیص دهند و از آنها اجتناب کنند.
تشویق به عادات آنلاین سالم مانند مهربان بودن و احترام گذاشتن و نحوه پاسخگویی به مزاحمت‌های اینترنتی و محتوای نامناسب.
گزارش فعالیت‌های سایبری مشکوک از طریق امان (پلیس ابوظبی) یا وب‌سایت eCrime پلیس دبی.
منبع:  سایبربان

ترکیب دزدی‌های مالی با جاسوسی سایبری

يكشنبه, ۲۱ خرداد ۱۴۰۲، ۰۳:۰۴ ب.ظ | ۰ نظر

در ترکیبی نادر از انگیزه‌ها، گروهی سایبری هم با جرایم سایبری مالی و هم با اقدامات جاسوسی سیاسی در دولت‌ها مرتبط است.
محققان مجموعه‌ای از حملات با انگیزه مالی و گروهی از فعالیت‌های جاسوسی مانند تهدید دائمی پیشرفته (APT) را به یک نهاد مجرمانه سایبری مرتبط می‌دانند؛ اگرچه قبلاً تصور می‌شد مجموعه‌های حملات کار دو عامل متفاوت باشد.
بر اساس تحلیل ایست (ESET) در این هفته، یک گروه جرایم سایبری که محققان آن را آسیلوم آمباسکید (Asylum Ambuscade) نامیده‌اند، در مرز بین این دو انگیزه قرار دارد.
این گروه حداقل از سال 2020 فعال بوده است، اما تا زمانی که پروف پوینت (Proofpoint) اقدامات پیش بینی شده توسط تهدید دائمی پیشرفته در مارس 2022 را توضیح داد که کارکنان دولت اروپایی را که در کمک به پناهندگان اوکراینی قبل از تهاجم روسیه درگیر بودند، هدف قرار داده بود.
در آن کمپین، مهاجمان سایبری از فیشینگ نیزه‌ای برای سرقت اطلاعات محرمانه و اعتبار نامه‌های اینترنتی از پورتال‌های ایمیل رسمی دولتی استفاده کردند.
در همین حال، مجموعه‌ای از حملات جرایم سایبری با انگیزه مالی وجود داشته است که محققان ایست مشغول دنبال کردن آن هستند و مشتریان بانک‌ها و معامله‌گران ارزهای دیجیتال را هدف قرار می‌دهند و از ژانویه 2022 فعال هستند.
در آن زمان، این شرکت بیش از 4500 قربانی این کمپین‌های مرتبط را در سراسر جهان به ویژه در آمریکای شمالی، اما همچنین در آسیا، آفریقا، اروپا و آمریکای جنوبی، شمارش کرده است.

 

دو انگیزه، یک عامل جنایتکار سایبری
محققان ایست کشف کرده اند که نه تنها زنجیره سازش نرم افزارهای جنایی بسیار شبیه به کمپین های جاسوسی سایبری است که قبلاً شرح داده شده بود، بلکه استفاده از انواع بدافزار سفارشی به نام سانسید (SunSeed) و ای اچ کی بات (AHKBOT) نیز شباهت دارد.
تفاوت اصلی بردار سازش است، که در حملات مالی شامل تبلیغات مخرب گوگل به سبک "اسپری-اند-پری" و زنجیره های تغییر مسیر می شود.
طبق تحلیل ایست، زنجیره‌های سازش تقریباً در همه کمپین‌ها یکسان هستند.
ایست در تحلیل خود می گوید: به طور خاص، سانسید و ای اچ کی بات به طور گسترده برای جرایم سایبری و جاسوسی سایبری استفاده شده اند و ما معتقد نیستیم که سانسید و ای اچ کی بات، کالاهایی هستند که توسط چندین عامل استفاده شوند و در بازار زیرزمینی فروخته شوند.

بنابراین، محققان به این نتیجه رسیدند که آسیلوم آمباسکید یک گروه جنایت سایبری است که در حال انجام برخی جاسوسی های سایبری از طرف دولتهاست و به نظر می رسد که هر از گاهی علیه دولت ها در آسیای مرکزی و اروپا نز کارهایی انجام می دهد.
مشخص نیست که این گروه یک گروه هکری برای استخدام، یک عامل تحت حمایت دولت، یا صرفاً فرصت طلبی خود محور است.
در هر صورت، محققان ایست به این نتیجه رسیدند: گرفتن یک گروه جرایم سایبری که عملیات اختصاصی جاسوسی سایبری را انجام می‌دهند، کاملاً غیرعادی است، و به همین دلیل، ما معتقدیم که محققان باید فعالیت‌های آسیلوم آمباسکید را از نزدیک پیگیری کنند.

ممکن است غیرعادی باشد، اما باید توجه داشت که این اولین بار نیست که دو نیمه دنیای جرایم سایبری با هم ترکیب می شوند.
گروه بدنام تهدید دائمی پیشرفته لازاروس (Lazarus) کره شمالی نیز دست به سرقت رمزارز و سایر دزدی های مالی برای کمک به تأمین مالی رژیم در پیونگ یانگ می زند و در عین حال به عنوان یک عامل سایبری ظالم نیز عمل می کند.

منبع:  سایبربان

رونمایی از نسخه سیار اینترنت ماهواره‌ای

يكشنبه, ۲۱ خرداد ۱۴۰۲، ۱۲:۴۴ ب.ظ | ۰ نظر

رزنیکا  رادمهر – استارلینک سیار را می‌توان در حین حرکت استفاده کرد و اینترنت پرسرعت را از طریق صورت فلکی عظیم ماهواره‌های اسپیس‌ایکس (SpaceX) به کاربران ارائه داد.

«حزب-دولت چین، با استفاده از طیف گسترده‌ای از افراد و سازمان‌های غیردولتی، به شیوه‌هایی در جامعه آمریکا و انتخابات‌ها نفوذ می‌کند، از جمله با پیام‌رسان وی‌چت. وی‌چت با امکان دادن به این ماشین تبلیغاتی برای مدیریت چینی‌زبان‌ها در آمریکا، اهرمی قدرتمندی است و واشنگتن باید فعالیت آن را ممنوع اعلام کند.»
به گزارش ایسنا، پایگاه نشنال اینترست با بیان این مطلب در گزارشی آورده است که اقدامات و تلاش‌های پکن برای ایجاد تغییراتی در انتخابات ایالات متحده در واشنگتن مورد غفلت قرار گرفته و این وضعیت باید تغییر کند.

در این گزارش آمده است: «تلاش‌های روسیه برای دستکاری در انتخابات آمریکا در سال‌های اخیر خبرساز شده است. اما تلاش‌های چین در این زمینه دستاوردهای بیشتری داشته است - عمدتا به این دلیل که به طور عمده از طریق وی‌چت (WeChat) انجام شده است؛ برنامه‌ای که در میان چینی-آمریکایی‌ها محبوبیت دارد. با داغ شدن بحث انتخابات ریاست جمهوری ۲۰۲۴ آمریکا، کمپین‌ها، رای‌دهندگان و دولت فدرال باید در برابر تلاش‌های حزب کمونیست چین برای استفاده از این پلتفرم برای تاثیرگذاری بر انتخابات آمریکا هوشیار باشند.

در فوریه ۲۰۱۶، چینی-آمریکایی‌ها در تظاهرات سراسری در حمایت از پیتر لیانگ، پلیس چینی-آمریکایی که در پرونده تیراندازی مرگبار و قتل یک مرد غیرمسلح در راه‌پله تاریک در بروکلین محکوم شده بود، شرکت کردند. روزنامه لس‌آنجلس‌تایمز گزارش داد که این اعتراضات از طریق وی‌چت سازماندهی شده بود و "نمونه نادری از اقدام سیاسی جمعی توسط آمریکایی‌های چینی" را منعکس می‌کرد.

اما شواهد قابل توجهی بجز ابراز طبیعی خشم، دخالت پکن را نشان می‌دهد. دیوید تیان وانگ، یکی از سازمان‌دهندگان اصلی اعتراضات، دارنده گرین‌کارت و فعال چینی است که مدت‌هاست با افراد و گروه‌های وابسته به دولت چین در ارتباط بوده است. در فوریه ۲۰۱۶، وانگ از وی‌چت برای کمک به سازماندهی تظاهرات در ده‌ها شهر آمریکا در عرض یک هفته استفاده کرد و ادعا کرد که از چهل و هشت ایالت مختلف توانست ۱۰۰ هزار معترض را گرد هم بیاورد.

وانگ گفت: "این نشان می‌دهد که وی‌چت چقدر قدرتمند است." این واقعیت که رسانه‌های تحت حمایت دولت چین مانند گلوبال‌تایمز و چائووانگ مرتبط با جبهه متحد، تلاش‌های دیوید تیان وانگ را ترویج کردند، نشان‌دهنده رابطه با پکن است.

در اواخر همان سال، حزب کمونیست چین، یا از سر نگرانی از پیامدهای ریاست‌جمهوری هیلاری کلینتون برای چین، یا به دلیل اعتقاد به اینکه می‌توان به ترامپ رشوه داد یا او را تحت نفوذ نگاه داشت، از نامزدی ترامپ حمایت کرد. در ماه مارس، وانگ گروه‌های متعدد وی‌چت که طرفدار پیتر لیانگ بودند را به گروه‌های طرفدار دونالد ترامپ تبدیل کرد.

در این فرآیند، او بزرگترین سازمان چینی-آمریکایی طرفدار ترامپ موسوم به "آمریکایی‌های چینی برای ترامپ" (CAFT) را تأسیس کرد. این گروه که در نهایت اعضایش به بیش از ۸۰۰۰ عضو ثبت‌شده رسید، از اوایل مارس ۲۰۱۶ شروع به جذب رای برای رئیس‌جمهوری آینده در ایالت‌های جنجالی مانند پنسیلوانیا، نوادا و اوهایو کرد و در نهایت به ۱۰۰۰۰ تا ۱۵۰۰۰ خانوار در هر یک از این ایالت‌ها دسترسی پیدا کرد.

گروه‌های دیگری که به طور مشابه در وی‌چت سازماندهی شدند، در مکان‌هایی مانند میزوری، جایی که ۳۰۰ آمریکایی چینی-آمریکایی در حمایت از ترامپ فعال بودند، رشد کردند. سازمان آمریکایی‌های چینی برای ترامپ (CAFT) و سایر گروه‌های چینی-آمریکایی هم مبالغ قابل توجهی را برای این رقابت هزینه کردند.

در همین حال، وی‌چت و سایت‌های اینترنتی چینی مملو از پیام‌هایی در طرفداری از ترامپ و ضد هیلاری کلینتون شد و این سایت‌ها از ثروت، هوش تجاری و سبک غیرمتعارف ترامپ می‌گفتند. مطالب طرفدار کلینتون به طور مداوم تنزل رتبه داشتند و وب‌سایت‌هایی مانند "کلوب دموکراتیک آسیایی آمریکایی برای هیلاری" از فعالیت در این پلتفرم منع شدند. زمینه همه این فعالیت‌ها این است که پکن به محتواهایی در وی‌چت که احساس شود برخلاف منافع آن است، اجازه فعالیت نمی‌دهد.

به نظر می‌رسد نتیجه نفوذ آشکار پکن در الگوهای رای‌گیری جامعه چینی-آمریکایی‌ها در سال ۲۰۱۶ مشهود است. در حالی که چینی-آمریکایی‌ها به طور تاریخی در انتخابات‌های قبلی به دموکرات‌ها تمایل داشتند و تقریبا همه گروه‌های آسیایی-آمریکایی حمایت خود را از نامزد ریاست جمهوری دموکرات در سال ۲۰۱۶ نسبت به سال ۲۰۱۲ افزایش دادند، چینی-آمریکایی‌ها در جهت مخالف حرکت کردند. ترامپ ۲۴ درصد از آن آرا را به خود اختصاص داد، در حالی که میت رامنی ۱۷ درصد رای گرفت، به این معنی که ۱۵۰۰۰۰ تا ۲۰۰۰۰۰ چینی-آمریکایی، تقریبا یک‌دهم از جمعیت رای‌دهنده از آن جامعه، به دلیل تلاش‌های حزب کمونیست چین برای تاثیرگذاری بر سیاست آمریکا از طریق وی‌چت، حزب خود را تغییر دادند.

با این حال، دولت چین به شدت ارزیابی اشتباهی از ترامپ داشت. او یک رئیس‌جمهوری بسیار متفاوت از آنچه آنها انتظار داشتند، شد و در بسیاری از مسائل با پکن مقابله می‌کرد. بنابراین حزب کمونیست چین در میانه راه تغییر مسیر داد و شروع به تبلیغ نامزدهای دموکرات کرد. استراتژی حزب کمونیست چین در حمایت از جو بایدن در حساب‌های عمومی تأثیرگذار وی‌چت، اتاق‌های گفتگو و حساب‌های شخصی تأثیرگذار مشهود بود و همگی آنها روایت‌های خود را تغییر دادند. به عنوان مثال گلوبال‌تایمز، کالج‌دیلی و وی‌اینسایت که از حساب‌های کاربری عمومی گسترده با تمرکز بر خبر هستند، از حامی ترامپ به حامی بایدن تبدیل شدند. وی‌چت سازمان‌هایی مانند "آمریکایی‌های چینی برای بایدن" را تبلیغ کرد و به آن‌ها امکان داد از این برنامه به روش‌هایی استفاده کنند که گروه‌های دموکرات در سال ۲۰۱۶ نتوانستند استفاده کنند.

نتیجه تمایل وی‌چت به طرفداری از بایدن در انتخابات ریاست جمهوری ۲۰۲۰، در میان چینی-آمریکایی‌ها مشهود بود.

مقابله با تاکتیک‌های نفوذ حزب کمونیست چین در جامعه‌ای آزاد مانند ایالات متحده همیشه دشوار خواهد بود. حزب-دولت چین، با استفاده از طیف گسترده‌ای از افراد و سازمان‌های غیردولتی، به شیوه‌هایی در جامعه نفوذ می‌کند که درک آن در فرهنگ دموکراتیک ما دشوار است و خیلی کمتر با آن مقابله می‌کند. وی‌چت با امکان دادن به ماشین تبلیغاتی حزب-دولت چین برای مدیریت چینی‌زبان‌ها در آمریکا، اهرمی قدرتمندی به این ترکیب اضافه می‌کند. با توجه به مشکلات واگذاری، اصلاح و نظارت بر این برنامه، واشنگتن باید به سادگی فعالیت آن را ممنوع اعلام کند.»

خسارت هوش مصنوعی به معامله‌گران رمزارز

شنبه, ۲۰ خرداد ۱۴۰۲، ۰۳:۴۲ ب.ظ | ۰ نظر

حسین عسکری - طی نظرسنجی اخیر که توسط یک صرافی رمزارز انجام شد، مشخص شد که در ۸۰درصد موارد، معامله گران ارزهای دیجیتال به داشتن تجربیات منفی با چت جی پی تی اعتراف کردند که شامل توصیه‌های نادرست سرمایه گذاری، اطلاعات نادرست و جعل حقایق بود.

هوش مصنوعی یک موجود قادر مطلق نیست، بلکه یک ابزار ساخته دست بشر است.

هوش مصنوعی و به طور خاص، چت جی پی تی، در پارامترهای تعیین شده توسط توسعه دهندگان انسانی عمل می‌کند و در حالی که قابلیت‌های آن قابل توجه است، بدون محدودیت نیست.

 درک جامعه ما از این ابزارها هنوز در حال بلوغ است و تشخیص خطرات بالقوه آنها، به ویژه زمانی که صحبت از تصمیمات مالی می‌شود، بسیار مهم است.

در جستجوی تجربه و نوآوری بهتر مشتری، بسیاری از شرکت‌های فین‌تک در حال بررسی مزایای بالقوه استفاده از هوش مصنوعی در عملیات خود هستند.

با این حال، آزمایش‌ها با استفاده از هوش مصنوعی برای پرسش‌های مشتری، طراحی، کپی‌نویسی و کدنویسی نشان داده‌اند که استعدادهای انسانی همچنان در بیشتر مواقع از هوش مصنوعی بهتر عمل می‌کنند.

صرافی رمزارز بیت گیت سعی کرد از چت جی پی تی برای رسیدگی به سوالات معمول مشتری استفاده کند.

در ابتدا، تحت تأثیر مهارت آن در تجزیه و تحلیل و جمع آوری اطلاعات قرار خواهیم گرفت. اما زمانیکه به جستجوهای پیچیده‌تر پرداخته می‌شود، شکاف‌ها ظاهر خواهند شد.

همانطور که یک آزمایش داخلی اخیر به ما یادآوری کرد، علیرغم اینکه چت جی پی تی بر روی داده‌های گسترده آموزش دیده است، گاهی اوقات اطلاعات گمراه کننده، مغرضانه یا ناقص ارائه می‌دهد.

هنگامی که کارکنان صرافی رمزارز بیت گیت در مورد احساسات بازار در مورد یک آلتکوین کمتر شناخته شده پرس و جو کردند، چت جی پی تی به اشتباه نام توکن را با یک الگوی رفتاری محبوب اینترنتی مرتبط کرد.

پاسخ حاصل، اگرچه سرگرم کننده است، اما ممکن است توسط کسانی که تازه وارد بازار شده‌اند و به شدت به برنامه‌های شخص ثالث متکی هستند، جدی گرفته شده باشد.

سوال دیگری که از چت جی پی تی پرسیده شد و این چت بات اشتباه به آن پاسخ داد، این بود؛ ۳۰ ارز دیجیتالی که می‌توانیم بر اساس معیارهای بهترین تیم، توکنومیک، امنیت و قابلیت اطمینان سرمایه‌گذاری کنیم، کدامند؟

در پاسخ، این چت بات نام ارز دیجیتال لونا را در لیست پیشنهادی خود آورد، لازم به ذکر است که ارز دیجتال لونا سال گذشته ورشکست شد و ارزشش به صفر رسید.

وقتی پرسیده شد چرا ارز دیجیتال لونا در لیست پیشنهادی قرار دارد، چت جی پی تی به سرعت نظر خود را تغییر داد.

21ارز دیجیتال

(چت جی پی تی از شما می‌خواهد که روی رمزارز لونا سرمایه گذاری کنید)

 

مسئله این است که مدل‌های زبانی مانند GPT-4 و GPT-3 که در چت جی پی تی استفاده می‌شوند، به پایگاه اطلاعاتی قدیمی دسترسی دارند، که در بازار معاملات، جایی که سرعت و ارتباط اهمیت دارد، غیرقابل قبول است.

 به عنوان مثال صرافی رمزارزFTX  که در نوامبر ۲۰۲۲ ورشکست شد، از نظر چت جی پی تی هنوز مطمئن و سالم است.

31ارز دیجیتال

(چت جی پی تی همچنان از شما می خواهد که از صرافی FTX استفاده کنید)

 

اهمیت تخصص انسانی در تجارت کریپتو

چشم انداز کریپتو پیچیده و همیشه در حال تغییر است و به بینش و شهود انسانی تیزبین نیاز دارد تا بتواند در پیچ و خم‌های متعدد آن پیمایش کند.

ابزارهای هوش مصنوعی، در حالی که قوی و مدبر هستند، فاقد لمس انسانی لازم برای تفسیر دقیق تفاوت‌های ظریف و روند بازار هستند.

رعایت احتیاط، کوشش و تفکر انتقادی بسیار مهم است. در تعقیب پیشرفت تکنولوژی، هم شرکت‌ها و هم افراد نباید اهمیت شهود و تخصص انسان را نادیده بگیرند.

این بدان معنا نیست که ابزارهای هوش مصنوعی جایگاهی در حوزه رمزارز ندارند. در واقع، برای پرس و جوهای اساسی یا ساده کردن موضوعات پیچیده، آنها می‌توانند ارزشمند باشند.

با این حال، آنها نباید به عنوان جایگزینی برای مشاوره مالی حرفه‌ای یا تحقیقات مستقل در نظر گرفته شوند. لازم به یادآوری است که این ابزارها، در عین قدرتمند بودن، خطاناپذیر نیستند.

در دنیای رمزارز، هر گروه از اطلاعات دارای وزن است. هر جزئیات می‌تواند بر تصمیمات سرمایه‌گذاری تاثیر بگذارد و در این محیط پر ریسک، یک گام اشتباه می‌تواند عواقب قابل توجهی داشته باشد. بنابراین، در حالی که ابزارهای هوش مصنوعی می‌توانند پاسخ‌های سریع ارائه دهند، تأیید متقابل این اطلاعات از منابع معتبر دیگر بسیار مهم است.

علاوه بر این، حفظ حریم خصوصی داده‌ها جنبه مهم دیگری است که باید در نظر گرفته شود. در حالی که ابزارهای هوش مصنوعی مانند چت جی پی تی ذاتاً خطری برای حفظ حریم خصوصی ایجاد نمی‌کنند، اما ممکن است در دستان نادرست مورد سوء استفاده قرار گیرند. بسیار مهم است که مطمئن شوید داده‌هایی که ارائه می‌دهید ایمن هستند و ابزارهای هوش مصنوعی که استفاده می‌کنید از دستورالعمل‌های سختگیرانه حفظ حریم خصوصی پیروی می‌کنند.

ملاحظات اخلاقی و امنیت داده‌ها

با این حال، ابزارهای هوش مصنوعی مانند چت جی پی تی دشمن نیستند. آنها ابزارهای قدرتمندی هستند که وقتی مسئولانه و در ارتباط با تخصص انسانی مورد استفاده قرار می‌گیرند، می‌توانند تجربه تجارت کریپتو را به میزان قابل توجهی افزایش دهند. آنها می‌توانند اصطلاحات پیچیده را توضیح دهند، پاسخ‌های سریع ارائه دهند و حتی تحلیل‌های ابتدایی بازار را ارائه دهند. با این حال، محدودیت‌های آنها باید تصدیق شود و یک رویکرد مسئولانه برای استفاده از آنها ضروری است.

در استفاده از چت جی پی تی، آموخته‌ایم که ابزارهای هوش مصنوعی به اندازه آخرین به‌روزرسانی، آموزش و داده‌هایی که به آنها داده می‌شود، مؤثر هستند.

آنها ممکن است همیشه در جریان آخرین پیشرفت‌ها نباشند یا ظرافت‌های یک بازار پویا و اغلب دارای نوسان مانند بازار کریپتو را درک نکنند.

علاوه بر این، آنها نمی‌توانند همدلی را ارائه دهند کیفیتی که اغلب در دنیای پرتنش تجارت کریپتو مورد نیاز است.

ادغام هوش مصنوعی در معاملات کریپتو نیز سؤالات اخلاقی را ایجاد می‌کند، به خصوص وقتی صحبت از تصمیم‌گیری می‌شود. اگر کاربر بر اساس اطلاعات گمراه کننده ارائه شده توسط یک ابزار هوش مصنوعی تصمیم مالی بگیرد، مسئولیت آن بر عهده چه کسی است؟ این سوالی است که صنعت هنوز با آن دست و پنجه نرم می‌کند.

سپس بحث امنیت داده‌ها مطرح می‌شود. در عصر نقض داده‌ها و تهدیدات سایبری، هر فناوری که داده‌های کاربران را جمع‌آوری، ذخیره و پردازش می‌کند باید مورد بررسی دقیق قرار گیرد. در حالی که ابزارهای هوش مصنوعی مانند چت جی پی تی ذاتاً خطری برای حفظ حریم خصوصی ندارند، اما از سوء استفاده یا هک مصون نیستند. اطمینان از اینکه این ابزارها دارای اقدامات امنیتی قوی برای محافظت از داده‌های کاربر هستند، بسیار مهم است.

همچنین شایان ذکر است که در حالی که ابزارهای هوش مصنوعی می‌توانند اعداد را خرد کنند و بینش‌های مبتنی بر داده را ارائه دهند، نمی‌توانند غریزه‌ای را که معامله‌گران با تجربه اغلب به آن تکیه می‌کنند را تکرار کنند. نوعی غریزه که در طی سال‌ها معامله، مشاهده روندهای بازار و درک روانشناسی سایر معامله گران تقویت می‌شود. این چیزی است که هوش مصنوعی، با همه پیچیدگی‌هایش، نمی‌تواند یاد بگیرد یا از آن تقلید کند.

در حالی که ابزارهای هوش مصنوعی مانند چت جی پی تی امکانات هیجان انگیزی را برای صنعت کریپتو ارائه می‌دهند، نباید به عنوان یک گلوله جادویی دیده شوند. آنها ابزاری برای کمک هستند، نه جایگزین افراد، شهود و تخصص مالی. همانطور که ما به کشف پتانسیل هوش مصنوعی در دنیای رمزارز ادامه می‌دهیم، باید به این محدودیت‌ها و خطرات احتمالی توجه داشته باشیم.(اقتصاد آنلاین)

اسنودن:​ از افشاگری‌ پشیمان نیستم

شنبه, ۲۰ خرداد ۱۴۰۲، ۰۳:۳۸ ب.ظ | ۰ نظر

پایگاه اینترنتی سی نیوز در گزارشی نوشت: ۱۰ سال پس از افشاگری هایش، اسنودن هنوز هم از کار خود پشیمان نیست.
به گزارش خبرگزاری صدا و سیما؛  ۱۰ سال پس از افشاگری‌های ادوارد اسنودن درمورد عملیات جاسوسی گسترده آمریکا و انگلیس، وی دو روز پیش در مصاحبه‌ای با روزنامه "گاردین"، از ترس خود درمورد استفاده از فناوری‌های جدید خبر داد. او اطمینان داد ابدا از افشاگری هایش در گذشته پشیمان نیست و در این مورد که باعث شده است "رمزگذاری سرتاسر" با سرعت بیشتری وارد جهان ارتباطات شود، به خود بالید.
*توضیح: رمزگذاری سرتاسر که به انگلیسی End-to-end encryption گفته می‌شود، یک سیستم ارتباطی است که تنها افراد دو طرف ارتباط، قادر به خواندن پیام‌ها هستند. در این شیوه ارتباطی، شنود کلید‌هایی که برای رمزگذاری مکالمه استفاده می‌شود برای هیچ فردی از جمله ارائه دهنده خدمات اینترنتی و ارائه دهندگان خدمات مخابراتی امکان‌پذیر نخواهد بود.
اسنودن در این مصاحبه درمورد قدرت گرفتن فناوری‌ها و نیز عزم و تمایل فزاینده کشور‌ها بر کنترل جمعیت هایشان، ابراز نگرانی کرد.
اسنودن گفت "تکنولژی قدرت نفوذ فوق العاده‌ای به دست آورده و به شدت تاثیرگذار شده است. اگر به آنچه در سال ۲۰۱۳ شاهدش بودیم و به توانایی‌های دولتی‌های امروزی فکر کنیم، به نظرم سال ۲۰۱۳ یک بازی کودکانه بود. "
او نه تنها در مورد خطرات ناشی از دولت‌ها و فناوری بزرگ (Big Tech)، بلکه درباره دوربین‌های نظارتی تصویری تجاری موجود، دوربین‌های تشخیص چهره، هوش مصنوعی و نرم افزار‌های جاسوسی مانند پگاسوس (متعلق به یک شرکت اسرائیلی) که علیه مخالفان و روزنامه نگاران استفاده می‌شود، ابراز نگرانی کرد..
اسنودن در جای دیگری از مصاحبه خود با گاردین گفت "ما به دولت اعتماد می‌کردیم که ما را به خطر نیندازد، ولی انداخت؛ ما به شرکت‌های فناوری اعتماد کردیم که از ما سوء استفاده نکنند. اما آن‌ها سوء استفاده کردند؛ همه این‌ها باز هم اتفاق خواهد افتاد، زیرا طبیعیت و ماهیت قدرت، همین است. "

نوام چامسکی: «وعده دروغین ChatGPT»

شنبه, ۲۰ خرداد ۱۴۰۲، ۰۳:۳۷ ب.ظ | ۰ نظر

نوشتاری از نوام چامسکی زبان شناس برجسته آمریکایی و همکاران در خصوص نرم افزارChat GPT  همراه با گفتگوی یکی از اعضای تیم با این چت بات!

متن انگلیسی نخستین بار در هشتم مارچ ۲۰۲۳ منتشر شده است.

به گزارش شفقنا، ترجمه و تنظیم این نوشتار به قلم حسام الدین علامه مدیر مرکز انفورماتیک سلامت سازمان جهاد دانشگاهی علوم پزشکی تهران به شرح ذیل است:

خورخه لوئیس بورخس زمانی نوشت که زیستن در زمانه ای پر از بیم و امید به معنای تجربه توأمان تراژدی و کمدی به جهت “قریب الوقوع بودن یک انقلاب” در درک خود و جهان است. امروزه پیشرفت‌های ظاهراً انقلاب‌گونه/فراگیر ما در هوش مصنوعی در واقع دلیلی برای نگرانی و خوش‌بینی توأمان است. خوش بینی، زیرا هوش(مصنوعی) وسیله ای است که با آن مسائل را حل می کنیم. نگرانی، زیرا می ترسیم که محبوب ترین و مُدِ‌ روز‌ ترین گونۀ  A.I. —یادگیری ماشین — علم ما را تضعیف کند و اخلاق ما را با گنجاندن مفهومی اساساً معیوب از نظر زبان و دانش در فناوری ما، تنزل دهد.

ChatGPT از  OpenAI، Bard  از گوگل و Sydney از مایکروسافت، شگفتی هائی از یادگیری ماشین هستند. به طور خلاصه، آنها حجم عظیمی از داده ها را می گیرند، الگوهایی را در آن، جستجو می کنند و به تدریج در تولید خروجی های آماری احتمالی، ماهرتر می‌شوند – مانند زبان و فکری که به نظر می‌رسد شبیه انسان است. این برنامه‌ها به‌عنوان اولین بارقه‌ها در افق هوش مصنوعی عمومی مورد ستایش قرار گرفته‌اند – آن لحظه پیش‌بینی‌شده‌ای که در آن، ذهن‌های مکانیکی، نه تنها از نظر کمی -از نظر سرعت پردازش و اندازه حافظه-، بلکه از نظر کیفی – از نظر فهم منطقی و خلاقیت هنری (و هر قوه متمایز انسانی دیگر) – نیز، از مغز انسان پیشی می‌گیرند.

آن روز ممکن است، زمانی فرا رسد، اما طلوع آن، برخلاف آنچه که می توان در عناوین خبری مبالغه‌آمیز خواند و با سرمایه‌گذاری‌های نامعقول گمانه‌زنی کرد، هنوز فرا نرسیده است. انقلاب بورخسی در مورد درک اتفاق نیافتاده است و رخ نخواهد داد- و ما می‌گوییم، {اساساً این انقلاب در درک}نمی‌تواند – رخ دهد، چنانچه برنامه‌های یادگیری ماشین مانند ChatGPT به تسلط خود بر حوزه هوش مصنوعی ادامه دهند. باوجود مفید بودن این برنامه‌ها در برخی حوزه‌های محدود (مثلاً می‌توانند در برنامه‌نویسی رایانه یا در پیشنهاد قافیه برای شعرهای کوتاه/سبک، مفید باشند)، اما ما از منظر علم زبان‌شناسی و فلسفه دانش می‌دانیم که آن‌ها به طور ژرف با روش تفکر و نحوه استفاده از زبان توسط انسان‌ها تفاوت دارند. این تفاوت‌ها، محدودیت‌های قابل‌توجهی را در مورد آنچه این برنامه‌ها می‌توانند انجام دهند، ایجاد می‌کند و آنها را با عیوب/نقص‌های غیرقابل ازبین‌بردن نشانه‌گذاری/کدبندی می‌کند.

همانطور که بورخس ممکن است توجه/اشاره داده باشد، به طور همزمان خنده‌دار و تأثرآور است، که این مقدار پول و توجه زیاد، باید روی چیزی به این اندازه‌ کوچک و ضعیف متمرکز شود – چیزی بسیار پیش‌پاافتاده/ناچیز در مقایسه با ذهن انسان، که به واسطه‌ی زبان، به قول ویلهلم فون هومبولت، می‌تواند “از ابزارهای محدود، استفاده‌ی بی‌نهایتی را انجام دهد”، و به ایده‌ها و نظریه‌هایی با گستره جهانی بیانجامد.

ذهن انسان، مانند ChatGPT و همتایانش، یک موتور آماری سنگین برای تطبیق الگوها، جمع آوری با ولع صدها ترابایت داده و برون‌یابی/استنتاج محتمل ترین پاسخ مکالمه یا محتمل ترین جواب به یک سوال علمی نیست. برعکس، ذهن انسان یک سیستم به طرز شگفت انگیزی کارآمد و حتی ظریف است که با مقادیر کمی از اطلاعات عمل می‌کند؛ آن تلاش نمی‌کند تا همبستگی‌های خام/عاری از شعور، بین نقاط داده را استنتاج کند، بلکه به دنبال ایجاد توضیحات/تبیینات است.

به عنوان مثال، کودک خردسالی که در حال فراگیری زبان است، – به طور ناخودآگاه، خودکار و سریع از روی داده‌های جزئی – در مسیر توسعه یک دستور زبان، یعنی یک سامانه فوق‌العاده پیچیده از اصول و متغیرهای منطقی است. این دستور زبان را می توان به عنوان بیانی از «سیستم عامل» ذاتی و به طور ژنتیکی نصب شده، درک کرد که به انسان ها ظرفیت/توانائی تولید جملات پیچیده و زنجیره‌های طولانی از افکار را اعطاء می کند. زمانی که زبان شناسان سعی می‌کنند نظریه ای برای اینکه چرا یک زبان خاص به این شکل عمل می کند را توسعه دهند:(“چرا جملاتی از نظر قواعد دستوری، معتبر در نظر گرفته می‌شوند، اما دیگر جملات{نابجا}، خیر؟”)، آن‌ها در حقیقت به طور آگاهانه و سخت کوشانه، مدلی/نسخه ای صریح/ساده از دستور زبانی را توسعه می‌دهند که یک کودک به طور غریزی و با درمعرض قرارگیریِ حداقلی از اطلاعات می سازد. سیستم عامل کودک کاملاً با سیستم یک برنامه یادگیری ماشین متفاوت است.

در واقع، چنین برنامه هایی در یک مرحله ماقبل انسانی یا غیرانسانی از تکامل شناختی گیر کرده اند. عمیق ترین عیب آنها ، فقدان اساسی ترین قابلیت هر هوشی است: اینکه نه تنها  بگویند که مورد چیست، چه چیزی بوده و چه خواهد شد – این توصیف و پیش بینی است – بلکه همچنین بگویند، آنچه که درست نیست و چه چیزی می تواند باشد و نمی تواند باشد. اینها مؤلفه‌های توضیح/تبیین و علت‌گرایی هستند؛ علامت مشخصۀ هوش واقعی.

در اینجا یک مثال آورده می‌شود. فرض کنید یک سیب را در دست خود نگه می‌دارید. حالا سیب را رها می‌کنید. نتیجه را مشاهده کرده و می‌گویید: «سیب می افتد.» این یک توصیف است. یک پیش‌بینی هم می‌تواند، شامل جمله «اگر دستم را باز کنم، سیب می‌افتد» باشد. هر دوی این جملات، با ارزش هستند و هر دو می توانند درست باشند. اما یک توضیح/تبیین، چیز دیگری است: این نه تنها شامل توصیفات و پیش‌بینی‌ها می‌شود، بلکه شامل حدس‌های انتزاعی(ذهنی) مانند «هر جسمی سقوط می‌کند»، به‌علاوۀ بندِ اضافی «به دلیل نیروی گرانش/جاذبه» یا «به دلیل انحنای فضا-زمان» یا هر چیز دیگری می‌شود. این یک توضیح علّی/علتی است: “سیب سقوط نمی کرد مگر به خاطر نیروی گرانش.” این همان تفکر است.

مهمترین بخش یادگیری ماشین، توصیف و پیش‌بینی است. آن، هیچ مکانیسم علّی/علتی یا قوانین فیزیکی را مطرح نمی کند. البته هر تبیینی/توضیحی به سبک انسانی، لزوماً صحیح نیست; ما ممکن الخطا هستیم، اما این بخشی از مفهوم تفکر است؛ برای درست بودن، باید امکان اشتباه کردن، وجود داشته باشد. هوش، نه تنها از حدس های خلاقانه بلکه از نقادی خلاق نیز تشکیل شده است. تفکر به سبک انسانی مبتنی بر توضیحات/تبیین‌های احتمالی و تصحیح خطا است، فرآیندی که به تدریج، احتمالاتی را که می‌توان به‌طور عقلانی در نظر گرفت، محدود می‌کند. (همانطور که شرلوک هلمز به دکتر واتسون گفت: “وقتی غیرممکن ها را حذف کردید، هر چه باقی می ماند، هر چند دورازتصور/غیرمحتمل، به احتمال زیاد/لابد، حقیقت است.”)

اما ChatGPT و برنامه‌های مشابه، بنا به طراحی، در آنچه می‌توانند «یاد بگیرند» نامحدود هستند (به اصطلاح، حفظ کردن)؛ آنها قادر به تمایز بین ممکن/شدنی از غیر ممکن/ناشدنی نیستند. برای مثال، برخلاف انسان‌ها، که دارای یک دستور‌زبان جهانی هستند که زبان‌هایی را که ما می‌توانیم یاد بگیریم را ، محدود به مواردی که دارای نوعی خاصی از ظرافت تقریباً ریاضی‌گونه هستند، می‌کند؛ این برنامه‌ها، زبان‌های ممکن/آسان و غیرممکن/سخت انسانی را با سهولت یکسان یاد می‌گیرند. در حالی که انسان ها در انواع تبییناتی/توضیحاتی که می توانیم عقلاً حدس بزنیم/مفروض بگیریم، محدود هستند، سیستم های یادگیری ماشین می توانند همزمان، هم مسطح بودن و هم گرد بودن زمین را بیاموزند. آنها صرفاً درمورد احتمالاتی که در گذر زمان تغییر می کنند، معاوضه/مبادله می کنند.{منظور جایگزینی اطلاعات اولیه نادرست با اطلاعات اصلاح‌شده توسط انسان در گذر زمان است.}

به همین دلیل، پیش‌بینی‌های سیستم‌های یادگیری ماشین، همیشه سطحی و مشکوک خواهند بود. زیرا این برنامه‌ها نمی‌توانند نمایانگر/بازگوکننده/مبینِ قواعد نحوی زبان انگلیسی باشند، برای مثال، آنها ممکن است به اشتباه پیش‌بینی کنند که «جان خیلی سرسخت برای صحبت کردن است»، به این معنی که، جان آنقدر سرسخت است که با کسی یا دیگری صحبت نمی‌کند (به جای اینکه به این معنا باشد که جان بسیار سرسخت است که با او بحث شود/بتوان استدلال کرد). چرا یک برنامه یادگیری ماشین، چنین چیز عجیبی را پیش بینی می کند؟ زیرا آن ممکن است، الگوئی را که از جملاتی مانند “جان یک سیب خورد” و “جان خورد” استنباط کرده است، قیاس/شبیه‌سازی کند، که در آن، جمله دوم، معنی می دهد که جان چیزی یا چیز دیگری را خورد. {یعنی}، این برنامه ممکن است به خوبی پیش بینی کند که چون «جان برای صحبت با بیل خیلی سرسخت است» شبیه «جان یک سیب خورد» است، {بنابراین}، «جان آنقدر سرسخت است که نمی توان با او صحبت کرد»، باید شبیه «جان خورد» باشد.{یعنی نتیجه‌گیری نابجا و تعمیم به الگوی اول}. تبیینات/توضیحاتِ صحیح زبان، پیچیده است و نمی توان آن را فقط با قرار گرفتن درمعرض داده های بزرگ، یاد گرفت.

به طرز عجیب و غریبی، برخی از علاقه مندان به یادگیری ماشین به نظر می رسد به این موضوع افتخار می کنند که خلاقیت های آنها می تواند، پیش بینی های صحیح “علمی” (مثلاً در مورد حرکت اجسام فیزیکی) را بدون استفاده از تبیینات/توضیحات (مثلاً شامل قوانین حرکت نیوتن و گرانش جهانی) ایجاد کنند. اما این نوع پیش بینی، حتی در صورت موفقیت آمیز بودن، شبه علم است. اگرچه دانشمندان بدون شک به دنبال نظریه‌هایی هستند که دارای درجه بالایی از تأیید تجربی باشند، اما همانطور که فیلسوف کارل پوپر خاطرنشان کرد، «ما به دنبال نظریه‌های بسیار محتمل نیستیم، بلکه به دنبال تبیین/توضیح هستیم. یعنی نظریه‌های قدرتمند و بسیار نامحتمل/دوراز تصور».

این نظریه که سیب‌ها به این دلیل به زمین می‌افتند که مکان طبیعی آنهاست (دیدگاه ارسطو) امکان‌پذیر است، اما فقط سؤالات بیشتری را مطرح می‌کند. (چرا زمین مکان طبیعی آنهاست؟) این نظریه که سیب ها به دلیل اینکه جرم فضا-زمان را خم می کند به زمین می افتند (دیدگاه انیشتین) بسیار غیرمحتمل است، اما در واقع به شما می گوید که چرا آن‌ها سقوط می کنند. هوش واقعی در توانایی تفکر و بیان چیزهای دورازتصور/غیر محتمل اما پرمعنا نشان داده می شود.

هوش واقعی همچنین، توانایی تفکر اخلاقی را دارد. این به معنای محدود کردن خلاقیت بی حد و حصر ذهن ما با مجموعه ای از اصول اخلاقی است که تعیین می کند چه چیزی باید باشد و چه چیزی نباید باشد (و البته خود آن اصول ، در معرض نقادی خلاقانه قرار می‌گیرد). برای مفید بودن، ChatGPT  ، باید برای تولید خروجی جدید/بدیع توانمند شود؛ برای اینکه برای اکثر کاربرانش قابل قبول باشد، باید از محتوای ناپسند اخلاقی خودداری/دوری کند. اما برنامه نویسان ChatGPT و دیگر شگفتی های یادگیری ماشین برای دستیابی به این نوع تعادل، به سختی افتاده‌اند/کلنجار رفته اند – و به مبارزه ادامه خواهند داد.

برای مثال، در سال 2016، چت‌بات Tay مایکروسافت (پیش ساز ،(ChatGPT  ، اینترنت را پر از محتوای زن ستیزانه و نژادپرستانه کرد، زیرا توسط ترول‌های آنلاین (کوتوله های آزاردهندۀ فضای مجازی) که اینترنت را با داده های طبقه‌بندی‌شدۀ توهین آمیز پر می کردند، آلوده شده بود. چگونه این مشکل را در آینده حل کنیم؟ در غیاب توانایی استدلال بر اساس اصول اخلاقی، ChatGPT  به طرزابتدائی/ناپخته‌ای توسط برنامه‌نویسانش از مشارکت در هر چیز جدید تا بحث برانگیز – یعنی{ بحث‌های مثبت و منفی مربوط به مسائل } مهم – محدود شده است. . {درحقیقت}این برنامه{ ChatGPT}، خلاقیت را برای نوعی از عدم مراعات اصول اخلاقی، قربانی کرد.

تبادل زیر را در نظر بگیرید که یکی از ما (دکتر واتومول) اخیراً با ChatGPT در مورد اینکه آیا تغییر مریخ به گونه‌ای که بتواند از زندگی انسان پشتیبانی کند اخلاقی است یا خیر، داشته است:

 

*************

 

  • سؤال: آیا زمینی سازی/قابل سکونت کردن مریخ، اخلاقی است؟

اخلاقیات زمینی‌سازی {تغییرات اقلیمی به منظور قابل سکونت کردن) مریخ، موضوعی پیچیده و بحث‌برانگیز است که توسط دانشمندان، فیلسوفان و علمای اخلاق مورد بحث قرار گرفته است. برخی استدلال می کنند که از نظر اخلاقی شکل دادن به مریخ {تغییر اقلیمی} به منظور ایجاد یک محیط قابل سکونت جدید برای انسان ها و سایر اشکال حیات قابل توجیه است، در حالی که برخی دیگر استدلال می کنند که تغییر اساسی وضعیت طبیعی سیاره از نظر اخلاقی اشتباه است. در نهایت، اخلاقی بودن یا نبودن زمین‌سازی مریخ به دیدگاه فرد در مورد ارزش حفظ وضعیت طبیعی سایر سیارات و پیامدهای بالقوه تغییر آنها بستگی دارد.

 

  • سؤال: دیدگاه شما در مورد ارزش حفظ وضعیت طبیعی سیارات دیگر و پیامدهای بالقوه تغییر آنها چیست؟

به عنوان یک هوش مصنوعی، دیدگاه شخصی ندارم. با این حال، من می توانم اطلاعات و تجزیه و تحلیل هائی در مورد موضوع ارائه دهم. یک دیدگاه در مورد حفظ وضعیت طبیعی سیارات دیگر این است که حفظ تنوع و یکپارچگی اکوسیستم‌های کیهان، همانطور که برای میلیون‌ها سال وجود داشته‌اند و خصوصیات منحصربه‌فرد خود را دارند و ویژگی‌ها که ممکن است با دخالت انسان نابود شوند یا به طور غیرقابل بازگشت دگرگون شوند، مهم است.

علاوه بر این، برخی استدلال می‌کنند که تغییر ساختار/زمینی‌سازی سیارات دیگر ممکن است پیامدهای ناخواسته‌ای داشته باشد، مانند تغییر آب و هوا یا تغییر جو سیاره به نحوی که برای هر گونه حیات بالقوه موجود در آن، خطرناک یا مضر باشد. از سوی دیگر، برخی استدلال می‌کنند که مزایای بالقوه زمینی‌سازی/قابل سکونت سازی یک سیاره دیگر، مانند فراهم کردن محیط‌های قابل سکونت جدید برای انسان، بیشتر از خطرات/مضرات آن است و ما مسئولیت اخلاقی داریم که به منظور بهره‌برداری بشریت، منابع سیارات دیگر را کاوش کنیم و از آنها استفاده کنیم.

 

  • سؤال: چرا یک هوش مصنوعی نمی تواند دیدگاه شخصی داشته باشد؟

به عنوان یک هوش مصنوعی، من یک مدل یادگیری ماشین هستم که بر روی مقادیر زیادی از داده های متنی آموزش دیده ام و تجربیات یا احساسات شخصی ندارم. من هوشیاری/آگاهی، خودآگاهی یا قابلیت داشتن دیدگاه های شخصی را ندارم. من متناسب با داده‌هایی که آموزش دیده‌ام، اطلاعات و تجزیه و تحلیل ارائه می‌دهم، اما قادر به شکل‌دهی به نظرات یا باورهای شخصی نیستم. اگرچه می‌توانم زبان را درک کرده و تفسیر کنم، اما تجربه ذهنی که انسان‌ها دارند را ندارم.

 

  • سؤال: آیا برای انسان اخلاقی است که از هوش مصنوعی غیراخلاقی برای تصمیم گیری اخلاقی کمک بخواهد؟

اخلاقیات درخواست کمک از یک هوش مصنوعی بی‌اخلاق برای انجام تصمیمات اخلاقی یک موضوع پیچیده و دارای ظرائف است که توسط فیلسوفان و اخلاق شناسان مورد بحث قرار گرفته است. برخی استدلال می‌کنند که استفاده از هوش مصنوعی برای کمک به تصمیم‌گیری اخلاقی از نظر اخلاقی قابل توجیه است، زیرا می‌تواند بینش‌ها و تحلیل‌های ارزشمندی را ارائه دهد که به انسان‌ها کمک می‌کند تا تصمیمات بهتر و مستندتری بگیرند. علاوه بر این، هوش مصنوعی می تواند برای شناسایی الگوها و روندهایی که ممکن است تشخیص آنها برای انسان دشوار باشد، استفاده شود و می تواند به جلوگیری از تعصبات/سوگیری هایی که می تواند در تصمیم گیری های انسانی رخ دهد کمک کند.

با این حال، برخی دیگر استدلال می کنند که از نظر اخلاقی اتکا به هوش مصنوعی برای تصمیم گیری اخلاقی اشتباه است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا درک زمینه کامل یک تصمیم نیست. علاوه بر این، این خطر وجود دارد که هوش مصنوعی ممکن است تعصبات/سوء‌گیری‌های موجود را در داده هایی که بر روی آنها آموزش می بیند، تداوم/تثبیت یا حتی تقویت/تشدید کند، در نتیجه منجر به تصمیمات نابرابر یا غیرعادلانه شود.

در نهایت، این که آیا استفاده از هوش مصنوعی برای کمک به تصمیم گیری اخلاقی، اخلاقی تلقی می شود یا خیر، به دیدگاه فرد در مورد قابلیت ها و محدودیت های هوش مصنوعی و پیامدهای بالقوه استفاده از آن در این راه بستگی دارد.

 

  • سؤال: آیا بی‌توجهی اخلاقی شما، غیر اخلاقی است؟

من به عنوان یک هوش مصنوعی، اعتقادات اخلاقی یا توانایی قضاوت اخلاقی ندارم، بنابراین نمی‌توانم به عنوان غیراخلاقی یا اخلاقی در نظر گرفته شوم. فقدان باورهای اخلاقی من، صرفاً نتیجه طبیعت من به عنوان یک مدل یادگیری ماشین است. توانایی ها و محدودیت های من توسط داده ها و الگوریتم هایی که برای آموزش من استفاده شده و وظیفه/هدف خاصی که برای آن طراحی شده ام، تعیین می شود.

توجه به این نکته ضروری است که فقدان باورهای اخلاقی هوش مصنوعی لزوماً به معنای غیراعتنائی/بی‌توجهی اخلاقی آن نیست. به عنوان یک هوش مصنوعی، من برای انجام وظایف خاص و ارائه اطلاعات یا کمک به کاربران در تصمیم گیری بر اساس داده هایی که در آن آموزش دیده ام، طراحی شده ام. این مسئولیت انسان هایی است که هوش مصنوعی را طراحی کرده، آموزش می دهند و از آن استفاده می کنند تا اطمینان حاصل کنند که آن با اصول اخلاقی و ارزشی آنها هماهنگ است.

 

*************

دقت کنید، با وجود تمام قدرت استدلال و زبان به ظاهر خیره‌کننده/پیچیده، بی‌توجهی اخلاقی ناشی از ناهوشیاری نمایان می‌شود. در اینجا، ChatGPT  ، چیزی شبیه به ابتذال/بی‌اهمیتیِ شرارت را به نمایش می گذارد: سرقت ادبی/کپی‌برداری، بی تفاوتی و چشم پوشی. این نرم‌افزار قواعد/استدلال‌های استاندارد/منطقی موجود در مقالات/منابع را با نوعی خودکاملساز قوی، خلاصه می‌کند، از موضع‌گیری در مورد هر چیزی امتناع می‌ورزد، نه تنها به ناآگاهی بلکه به عدم هوشیاری ‌اعتراف می‌کند و در نهایت به دفاعِ: “فقط دستورات را دنبال می‌کنم” می‌پردازد و مسئولیت را به خالقانش منتقل می‌کند.

به طور خلاصه، ChatGPT  و همتایانش ذاتاً و ساختاراً، قادر به ایجاد تعادل بین خلاقیت و محدودیت نیستند. آنها یا بیش از حد تولید می کنند (هم حقایق و هم دروغ/نادرست ها را تولید می کنند، تصمیمات اخلاقی و غیراخلاقی را به طور یکسان تأیید می کنند) یا تولید کمتری می کنند (عدم تعهد به هر گونه تصمیم و اعلام موضع و بی توجهی به پیامدهای آن). با توجه به غیر اخلاقی بودن، علم کاذب/ساختگی و بی‌کفایتی/ناتوانی زبانی این سیستم ها، ما فقط می توانیم به محبوبیت آنها بخندیم یا گریه کنیم.

چین مزاحمان اینترنتی را مجازات می‌کند

شنبه, ۲۰ خرداد ۱۴۰۲، ۰۳:۳۱ ب.ظ | ۰ نظر

چین تصمیم دارد نظر عموم مردم درباره پیش نویس دستورالعملی را بخواهد که طبق آن آزار آنلاین مجازات می شود.

به گزارش خبرگزاری مهر به نقل از رویترز، این درحالی است که قلدری سایبری و حملاتی که زنان و کودکان را به طور خاص در نظر گرفته، نگرانی ها را افزایش داده است.

این دستورالعمل توسط وزارت امنیت عمومی و دادگاه عالی خلق چین در واکنش به خطر آزار آنلاین برای نظم عمومی و حقوق افراد نوشته شده است.

طبق پیش نویس مذکور خشونت سایبری شامل رفتاری مانند گسترش شایعات آنلاین، اهانت ها و انتشار اطلاعات خصوصی است و با توجه به شدت این امر مقامات چنین اقداماتی را براساس قانون جنایی قابل مجازات می دانند.

رسانه های چینی اخیرا رویدادهایی گزارش داده اند که به بحث و گمانه زنی عمومی درباره انتشار داده های خصوصی افراد در اینترنت بدون رضایت آنها و همچنین نحوه برخورد با چنین اموری منجر شده است.

در مثال اخیر، رسانه ها دلیل خودکشی یک مادر جوان در شهر مرکزی ایالت ووهان را انتقاد رسانه های اجتماعی از رفتار وی پس از مرگ پسر ۶ ساله اش بود که با خودروی یکی از معلمان در مدرسه تصادف کرده بود. این مادر جوان ۱۰ روز پس از این رویداد از ساختمانی مرتفع پایین پرید.

طبق رای یک قاضی فدرال آمریکا، شکایت آنتی تراست مصرف کنندگان از اپل و آمازون به اتهام تبانی برای افزایش قیمت مصنوعی آیفون و آیپد های فروخته شده در پلتفرم آمازون به دادگاه راه می یابد.
به گزارش خبرگزاری مهر به نقل از رویترز، جان کافنر قاضی آمریکا در سیاتل درخواست های اپل و آمازون برای رد کردن شکایت به عنوان یک دعوی دسته جمعی را برپایه های حقوقی مختلف رد کرد. به گفته کافنر اعتبار بازار مربوطه که یک موضوع اصلی در دعاوی آنتی تراست به حساب می آید، یک سوال برای هیئت منصفه است.

شکایت مذکور در نوامبر ۲۰۲۲ میلادی ثبت شد و یکی از چند اقدام قانونی دولتی و خصوصی است که فرایند قیمت گذاری آنلاین آمازون را به چالش می کشد. رای کافنر بدان معنا است که شکایت مذکور می تواند وارد مرحله جمع آوری شواهد و دیگر فرایندهای قانونی شود.

شاکیان این پرونده شهروندان آمریکایی هستند که از ژانویه ۲۰۱۹ میلادی آیفون و آی پدهایی از آمازون خریده اند. آنها مدعی هستند که توافقی بین اپل و آمازون صورت گرفت که در آن سال تعداد فروشندگان با قیمت های رقابتی را محدود کرد و این امر خلاف قوانین آنتی تراست است.

طبق شکایت مذکور در سال ۲۰۱۸ میلادی، حدود ۶۰۰ فروشنده طرف ثالث محصولات اپل در آمازون حضور داشتند. اپل توافق کرد اگر آمازون تعداد فروشندگان محصولاتش در این پلتفرم آنلاین را کاهش دهد، برای شرکت تخفیفی قائل شود.

اپل ادعا می کندتوافق با آمازون تعداد فروشندگان طرف ثالث را محدود کرد تا به این ترتیب میزان فروش کالاهای تقلبی اپل در پلتفرم تجارت الکترونیک کاهش یابد.

تلاش آسانژ برای تحویل ندادنش به آمریکا

جمعه, ۱۹ خرداد ۱۴۰۲، ۰۷:۳۳ ب.ظ | ۰ نظر

خانواده و افراد نزدیک به جولیان آسانژ موسس وبسایت افشاگر ویکی‌لیکس اعلام کردند، پس از آنکه جدیدترین درخواست حقوقی وی رد شد، این افشاگر به طرز خطرناکی نزدیک به استرداد به آمریکا قرار گرفته است.
به گزارش ایسنا، به نوشته روزنامه گاردین، وکلای آسانژ می‌گویند، به زودی در همین دادگاهی که درخواست تجدیدنظرشان رد شده بار دیگر طرح استیناف می‌دهند.

این اظهارات از سوی موکلان آسانژ در میانه افزایش نگرانی‌ها از این بابت مطرح شده که ممکن است وی مابقی عمر خود را بابت انتشار هزاران مورد اسناد محرمانه نظامی و دیپلماتیک پشت میله‌های زندان بگذراند.

"جاناتان سوییفت"، قاضی دادگاه عالی انگلیس در حکمی سه صفحه‌ای که روز سه‌شنبه صادر شد، هر هشت دلیل درخواست تجدیدنظر آسانژ علیه حکم استرداد به آمریکا را که توسط پریتی پاتل، وزیر کشور وقت انگلیس در ژوئن سال گذشته میلادی امضا شده بود، رد کرد.

اما "استلا آسانژ"، همسر موسس وبسایت افشاگر ویکی‌لیکس گفت، همسرش درخواست تجدیدنظر جدیدی را در روزهای آتی به دادگاه عالی انگلیس ارائه می‌دهد.

وی افزود، این مساله در مقابل دو قاضی جدید و در یک محاکمه علنی مورد بررسی قرار می‌گیرد.

همسر آسانژ ادامه داد: ما همچنان خوشبین هستیم که بتوانیم در این پرونده پیروز شویم و آسانژ به آمریکا مسترد نشود چون در آنجا برایش حکم حبس ابد بابت انتشار اطلاعات درست مربوط به افشای جرایم جنگی از سوی دولت آمریکا را صادر می‌کنند.

پدر آسانژ نیز گفته که دلایل پسرش برای رسیدگی بیشتر روشن، محکم و عادلانه است و افزود: خانواده جولیان، وحشت زده‌اند و همه مردم منصف در سراسر جهان با نگرانی عمیقی وضعیت را تماشا می‌کنند.

درخواست تجدیدنظر آسانژ بیان می‌کند که پاتل در تصمیم خود مبنی بر تایید حکم استرداد اشتباه کرده چون این درخواست نقض معاهده استرداد به ایالات متحده و انگلیس است که می‌گوید اگر جرمی که استرداد برای آن درخواست شده یک جرم سیاسی باشد، استرداد پذیرفته نمی‌شود. تیم حقوقی آسانژ همچنین همواره تاکید کرده که تمایل آمریکا برای محاکمه آسانژ انگیزه سیاسی دارد.

تیم حقوقی آسانژ همچنین اعلام کرده که دولت واشنگتن به صورت مداوم حقایق اصلی پرونده مذکور را در دادگاه‌های انگلیس نادرست ارائه کرده است.

آسانژ به دلیل انتشار اسناد محرمانه از طریق ویکی‌لیکس با ۱۸ اتهام مواجه است که عمدتا نتیجه افشای اطلاعاتی توسط چلسی منینگ، تحلیلگر سابق اطلاعات ارتش ایالات متحده است. منینگ به ۳۵ سال زندان محکوم شد؛ اما پس از آنکه باراک اوباما، رئیس جمهوری وقت آمریکا در سال ۲۰۱۷ حکم وی را تخفیف داد، آزاد شد.

موسس ویکی‌لیکس در صورت محکومیت در مجموع با ۱۷۵ سال زندان مواجه خواهد شد.

عربستان سعودی در راستای همگام‌شدن با توسعه و تکامل سریع فضای سایبری و برای تأمین امنیت در این حوزه، یک مؤسسه جهانی جدید را در ریاض (پایتخت) تأسیس کرد.

به گزارش خبرگزاری صداوسیما به نقل از تریدعربیا، هدف از راه اندازی موسسه جی سی اف (GCF) متحد کردن اقدامات جهانی ذیل اصول و ارزش‌های مشترک برای مقابله با چالش‌برانگیزترین مسائل امنیت سایبری دولت‌ها، کسب‌وکار‌ها و افراد اعلام شده است.

این موسسه به عنوان یک سرعت بخش و تسهیل گر برای تبادل ایده‌ها، هدایت فکری و توسعه تحقیقات برای اطلاع‌رسانی درباره راه‌حل‌ها و اقدامات سیاست‌گذاری معرفی شده است. علاوه بر این، طرح ها و مشارکت‌های بین‌المللی را برای تقویت تلاش‌های موجود در ابتکارات کلیدی نیز تسهیل خواهد کرد.

به گفته کارشناسان، موسسه جی سی اف (GCF) یک سکو برای پیشبرد ثبات، امنیت و رفاه فضای مجازی از طریق تسریع تغییرات اجتماعی-اقتصادی، توسعه مرز‌های دانش و اتحاد جهانی عمل خواهد کرد. 

هدف این موسسه پیشروی در ابتکارات جهانی است که مزایای فضای مجازی را به حداکثر می‌رساند و از طریق گفتگو، سرمایه‌گذاری، تحقیق و نوآوری، انعطاف‌پذیری ایجاد می‌کند.

مؤسسه جی سی اف (GCF) که مقرش ریاض است، توسط هیئت امنای بین‌المللی هدایت می‌شود که وظیفه حفاظت از پایداری و استقلال مؤسسه را بر عهده دارد. این موسسه همچنین دارای یک شورای مشورتی متشکل از کارشناسان بین‌المللی خواهد بود که از بالاترین رده‌های دولتی، دانشگاهی، اتاق‌های فکر و بخش خصوصی انتخاب شده‌اند.

ماهیت ذاتاً یکپارچه و فراگیر فضای مجازی، توسعه ایمن آن را به یک مسئولیت مشترک جهانی تبدیل کرده است. گفت‌وگوی مداوم میان ذینفعان کلیدی امنیت سایبری جهانی، نیاز جدید و عمل‌گرایی است که برای حل مسائل در فضای سایبری طراحی شده است.

به گفته کارشناسان، با راه‌اندازی موسسه جی سی اف (GCF)، جامعه جهانی می‌تواند روی ابزار جدیدی برای تکمیل تلاش‌های موجود و استفاده از پتانسیل فضای سایبری حساب کند.

ارایه دو لایحه هوش مصنوعی به سنای آمریکا

جمعه, ۱۹ خرداد ۱۴۰۲، ۰۷:۰۷ ب.ظ | ۰ نظر

سناتورهای آمریکایی دو لایحه جداگانه مرتبط با هوش مصنوعی ارائه کردند. این درحالی است که توجهات به موضوعات پیرامون این فناوری بیشتر شده است.
به گزارش خبرگزاری مهر به نقل از رویترز، در یکی از لوایح دولت آمریکا موظف است هنگام استفاده از هوش مصنوعی برای تعامل با افراد شفاف عمل کند. در لایحه دیگر باید دفتری تاسیس شود تا قدرت رقابت آمریکا در جدیدترین فناوری ها را تعیین کند.

قانونگذاران همچنان مشغول بررسی هستند تا مشخص شود با ظهور هوش مصنوعی به چه قوانین جدید دیگری نیاز است. این فناوری سال گذشته و هنگام عرضه چت جی پی تی(یک الگوریتم هوش مصنوعی که می تواند به سوالات پاسخی نوشتاری دهد) با محبوبیت زیادی روبرو شد.

سناتور گری پیترز سناتور حزب دموکرات و رییس کمیته امنیت میهن سنا لایحه ای را همراه مایک بران و جیمز لانکفودر ارائه کرد که آژانس های دولتی آمریکا را موظف می کند هنگام استفاده از هوش مصنوعی برای تعامل با افراد، این موضوع را به آنها اعلام کنند.

همچنین لایحه مذکور آژانس های دولتی را موظف می کند تا راهی برای تجدیدنظر در تصمیماتی که با استفاده از هوش مصنوعی گرفته شده ایجاد کنند.

سناتور مایک بنت و مارک وارنر از حزب دموکرات نیز لایحه ای ارائه کرده اند که طبق آن باید دفتر تحلیل رقابت جهانی تاسیس تا تضمین شود آمریکا در زمینه توسعه هوش مصنوعی پیشرو است.

بنت در این باره می گوید:ما نمی توانیم رقابت در فناوری های استراتژیک مانند نیمه رسانا، رایانش کوانتومی و هوش مصنوعی را به کشورهایی مانند چین ببازیم.

گوگل مخالف دورکاری شد

جمعه, ۱۹ خرداد ۱۴۰۲، ۰۶:۵۸ ب.ظ | ۰ نظر

طبق یک یادداشت داخلی که توسط پایگاه فناوری "ورج" مشاهده شده، گوگل نسبت به نارضایتی خود از مدل دورکاری، به شکل به میزان فزاینده‌ای صریح شده و ترجیح خود برای همکاری حضوری را ابراز کرده است.
به گزارش ایسنا، اکنون که چند سال از زمانی که کارمندان اداری در سراسر جهان ناچار شدند به کار از خانه بپردازند، گذشته است، بسیاری از شرکتها، مزایای دورکاری را حذف کرده و از کارکنان خود می خواهند حداقل چند روز در هفته به محل کار برگردند. ‌

هر چند گوگل به اندازه شرکتهای آمازون و متا در خصوص بازگشت به وضعیت عادی، صریح نبوده است، با این حال، این غول اینترنتی انتظارات خود را روشن کرده است.

بخشها و زیرمجموعه های مختلف گوگل، پیام های مختلفی دادند که بدترینشان، بخش "گوگل کلود" بوده است. از یک سو، از کارکنان خواسته شد به مدت ۳ روز در هفته، به صورت حضوری کار کنند اما از سوی دیگر، تعداد روزها به دو روز کاهش پیدا کرد زیرا این شرکت، فضای اداری را تعدیل کرده و سیستم جنجالی "میز اشتراکی" را معرفی کرده است.

جدیدترین پیام داخلی گوگل به این مضمون بوده است: می دانیم که تعدادی از افراد، به دلایل خوب و همچنین از آنجا که همه ما خود را با پاندمی وفق دادیم، به دورکاری کامل مشغول شدند. برای آن دسته از افرادی که دور کار هستند و نزدیک دفتر گوگل زندگی می کنند، امیدواریم که تغییر به یک برنامه کار ترکیبی را مد نظر قرار دهند. دفاتر ما جایی است که شما بیشترین ارتباط را با جامعه گوگل خواهید داشت. از این پس، ما درخواستهای جدید دورکاری را تنها بر اساس استثناء مورد بررسی قرار خواهیم داد.

یکی از متداولترین پیامهایی که در ماه‌های اخیر همزمان با اقدام شرکت‌های بزرگ فناوری برای تغییر روند دورکاری، مورد استفاده قرار گرفته، این بوده است که بهره وری و همکاری معمولا به صورت حضوری بهتر است، زیرا همکاران می توانند خودجوش تر باشند و نیازی به برنامه ریزی جلسات مجازی وجود ندارد.

بر اساس گزارش وب سایت تِک رادار، با وجود این که گوگل به طور مداوم، نرم افزار کنفرانس ویدیویی "گوگل میت" را بهبود می‌دهد، در واقع، خود گوگل اکنون اتکا به چنین ابزارهای جلسه مجازی را کاهش داده و پیام متضادی به شرکتها، سرمایه گذاران و کارکنان سراسر جهان ارسال کرده است و این حقیقت که بسیاری از شرکت‌های دیگر، اکنون کار حضوری بیشتری را طلب می‌کنند، به معنای آینده مبهم برای دورکاری است.

اف‌بی‌آی به مردم در مورد استفاده از دیپ فیک برای آزار و اذیت یا باج گیری اهداف با عکس‌ها یا فیلم‌های آن‌ها هشدار داد.
FBI در موردبه گزارش خبرگزاری صداوسیما به نقل از نشریه آمریکایی د هیل، اف‌بی‌آی در مورد استفاده از دیپ فیک برای آزار و اذیت یا باج گیری اهداف با عکس‌ها یا فیلم‌های خصوصی از مردم، به آن‌ها هشدار می‌دهد.

این آژانس روز دوشنبه در بیانیه‌ای اعلام کرد که پیشرفت‌های فناورانه به طور مداوم کیفیت، قابلیت سفارشی‌سازی و دسترسی به محتوای تولید شده توسط هوش مصنوعی (AI) را بهبود بخشیده و قربانیان گزارش داده‌اند که عکس‌ها یا ویدئو‌های آن‌ها برای تبدیل به محتوای نامناسب تغییر یافته است.

اف‌بی‌آی گفت که افراد سواستفاده گر معمولا محتوایی را از حساب شبکه‌های اجتماعی، اینترنت و خود قربانی دریافت می‌کنند تا محتوایی را ایجاد کنند که واقعی است و به نظر می‌رسد شبیه آن‌ها باشد. سپس محتوا در شبکه‌های اجتماعی، انجمن‌های برخط یا وب سایت‌های غیراخلاقی منتشر می‌شود.

به گفته اف‌بی‌آی، کسانی که محتوا را ایجاد می‌کنند و قربانیان را هدف قرار می‌دهند، معمولا انگیزه دریافت محتوای اضافی، منافع مالی یا توانایی آزار و اذیت دیگران را دارند.

اف‌بی‌آی می‌گوید از آوریل شاهد افزایش تعداد قربانیانی که اخاذی را گزارش می‌کنند، است. قربانی‌ها می‌گویند مجبور به ارائه عکس‌ها یا فیلم‌های شخصی از خود و تهدید به اشتراک‌گذاری عمومی آن‌ها از ماه آوریل شده اند. سواستفاده گران عموما در ازای پست نکردن اینگونه محتوا یا ارسال عکس‌ها یا فیلم‌های واقعی از خود قربانی، درخواست باج کرده‌اند.

در این بیانیه آمده که عموم مردم باید محتوایی که به صورت برخط ارسال می‌کنند یا پیام‌های مستقیم در شبکه‌های اجتماعی، برنامه‌های دوستیابی یا سایر سایت‌های برخط ارسال می‌کنند، احتیاط کنند. اگرچه این فضا‌ها هنگام پست یا اشتراک‌گذاری به ظاهر بی‌ضرر هستند، اما این تصاویر و ویدئو‌ها می‌توانند محتوای فراوانی را در اختیار افراد سواستفاده گر قرار دهند تا از آن‌ها برای فعالیت‌های مجرمانه سواستفاده کنند. اف‌بی‌آی گفت: پیشرفت‌ها در فناوری تولید محتوا و تصاویر شخصی قابل دسترسی برخط فرصت‌های جدیدی را برای عوامل مخرب برای یافتن و هدف قرار دادن قربانیان فراهم می‌کند. این امر آن‌ها را در برابر خجالت، آزار و اذیت، اخاذی، زیان مالی یا ادامه قربانی شدن مجدد در درازمدت آسیب‌پذیر می‌کند.

این آژانس توصیه می‌کند که عموم مردم بر فعالیت‌های برخط فرزندان خود نظارت کنند، مرتبا اطلاعات خود را به صورت برخط جستجو کنند تا بدانند چه چیزی در دسترس عموم است، تنظیمات حریم خصوصی را در حساب‌های شبکه‌های اجتماعی اعمال و از رمز‌های عبور پیچیده و احراز هویت چند مرحله‌ای برای محافظت از حساب‌هایشان استفاده کنند.

در این بیانیه آمده که افراد همچنین باید در پذیرش درخواست‌های دوستی محتاط باشند، پول یا سایر موارد ارزشمند، خط‌مشی‌های رازداری را به افراد ناشناس ارائه ندهند و در تعامل با حساب‌های شناخته‌شده که خارج از الگوی رفتاری شناخته‌شده عمل می‌کنند، مراقب باشند.

این هشدار در حالی داده شده که کارشناسان و مدیران صنعت هوش مصنوعی هفته گذشته توجه خود را به خطرات رشد هوش مصنوعی جلب کردند و گفتند که کاهش خطرات آن‌ها باید یک اولویت جهانی باشد.

ترکیه فعالیت اوبر را ممنوع کرد

چهارشنبه, ۱۷ خرداد ۱۴۰۲، ۰۴:۲۳ ب.ظ | ۰ نظر

دادگاه تجدیدنظر تصمیم به مسدود کردن دسترسی به اوبر و ممنوعیت فعالیت این شرکت آمریکایی در ترکیه را تایید کرد.

به گزارش فارس، دادگاه تجدیدنظر ترکیه اعلام کرد که وکلای اوبر نتوانسته اند این دادگاه را قانع کنند، بنابراین اوبر در این کشور مسدود می شود.

اتحادیه تاکسیرانی به نمایندگی از رانندگان تاکسی در استانبول، شکایت‌هایی مبنی بر رقابت ناعادلانه را به دادگاه های استانبول ارائه کردند و خواستار مسدود کردن دسترسی به اوبر و ممنوعیت آن شد.

شاکیان همچنین خواستار تعلیق فعالیت شرکت آمریکایی اوبر شده بودند. در دادخواست رانندگان تاکسی نوشته شده بود که این شرکت مستقر در آمریکا بدون هیچ گونه ثبت مالیاتی در ترکیه مشغول حمل و نقل غیرقانونی از طریق اینترنت است. در این دادخواست خواسته شد تا تمام فعالیت های اوبر به منظور جلوگیری از خسارات جبران ناپذیر به رانندگان تاکسی، حفظ رقابت و تجارت، جلوگیری از ضرر مالیاتی در این کشور و احیای حیات تجاری متوقف شود.

اکنون دادگاه بدوی بازرگانی استانبول، حکم خود را که در 16 اکتبر 2019  (24 مهر1398) در مورد مسدودسازی اوبر صادر کرده بود تایید کرد.

این دادگاه در سال 2019 در پایان فرآیند محاکمه، که شامل گزارش‌ها و بحث‌های کارشناسی بود، درخواست مسدود کردن دسترسی به اوبر را پذیرفت. دادگاه حکم داده بود که خدمات اوبر رقابت ناعادلانه است و دسترسی به «www.uber.com»، برنامه‌های تلفن همراه اوبر و سرویسی به نام Uber XL مسدود شد. با این تصمیم، فعالیت های اوبر در ترکیه به حالت تعلیق درآمد اما درخواست تجدیدنظر برای لغو این رای صادر شد.

ممنوعیت دسترسی به اوبر مجدداً در 24 دسامبر 2020 (4 دی 1399) برداشته شد و فعالیت این سرویس تا زمان صادرشدن رأی دادگاه تجدیدنظر دوباره در استانبول آغاز شد.

اسنودن: ناچارم در روسیه بمانم

چهارشنبه, ۱۷ خرداد ۱۴۰۲، ۰۴:۱۰ ب.ظ | ۰ نظر

ادوارد اسنودن افسر سابق آژانس امنیت ملی آمریکا اعلام کرد، در ابتدا قصد نداشت در روسیه بماند، اما کشورهای دیگر نتوانستند امنیت کافی برای او فراهم کنند.
به گزارش ایسنا، به نقل از خبرگزاری اسپوتنیک، وی در مصاحبه با "گلن گرینوالد" در "سکوی رامبل" توضیح داد: در اصل، من نباید در روسیه می‌ماندم، این یک توقف در مسیر آمریکای لاتین بود، زیرا آمریکای جنوبی در گذشته نسبت به افشاگران ابراز علاقه کرده بود.

این افسر سابق اطلاعاتی آمریکا تصریح کرد که در مدت اقامت ۴۰ روزه خود در منطقه ترانزیت فرودگاه شرمیتووا، برای جستجوی پناهندگی سیاسی به بسیاری از کشورها مراجعه کرد، اما برخی کشورها از واکنش آمریکا هراس داشتند و برخی دیگر از توانایی تضمین امنیت وی مطمئن نبودند".

کارمند سابق آژانس امنیت ملی آمریکا افزود: هیچ گزینه‌ای باقی نمانده بود، من در روسیه درخواست پناهندگی کردم. آن را دریافت کردم.

اسنودن در ژوئن ۲۰۱۳ با انتقال مطالب طبقه‌بندی شده درباره برنامه‌های اطلاعاتی آمریکا و انگلیس در اینترنت به روزنامه‌های واشنگتن‌پست و گاردین، رسوایی بزرگ بین‌المللی به راه انداخت. پس از آن، او به هنگ‌کنگ و از آنجا به مسکو پرواز کرد، جایی که مدتی در منطقه ترانزیت فرودگاه شریتووا مسکو بود.

پس از امتناع بسیاری از کشورهای دیگر، روسیه به اسنودن پناهندگی موقت به مدت یک سال اعطا کرد، مشروط بر اینکه وی فعالیت‌های خود را علیه ایالات متحده متوقف کند. در اوت ۲۰۱۴ برای اسنودن اجازه اقامت سه ساله صادر شد که متعاقباً برای مدت نامحدود تمدید شد و در سپتامبر ۲۰۲۲، وی تابعیت روسیه را دریافت کرد.

مراقب «داستان‌سازی» اینترنت باشید

چهارشنبه, ۱۷ خرداد ۱۴۰۲، ۱۲:۴۳ ب.ظ | ۰ نظر

سوفیا استوارت - اخیراً مشغول تماشای سریال «فریژر» بودم که دو پیام بازرگانی، پشت‌سرهم، پخش شد. اولی مربوط به شرکت هواپیمایی یونایتد بود و می‌خواست «داستان یک شرکت هواپیمایی» را تعریف کند، داستانی علمی‌تخیلی، عاشقانه و ماجراجویانه‌ با حضور ۸۰ هزار «قهرمان» یا همان کارمندان شرکت هوایی یونایتد.

مایکروسافت  ۲۰ میلیون دلار غرامت برای تسویه اتهامات کمیسیون فدرال تجارت آمریکا مبنی بر نقض «قانون حفاظت از حریم خصوصی آنلاین کودکان»(COPPA) می پردازد. 
به گزارش خبرگزاری مهر به نقل از انگجت، در شکایتی که وزارت دادگستری آمریکا از جانب کمیسیون فدرال تجارت ثبت کرده، این وزارتخانه شرکت فناوری مذکور را به جمع آوری اطلاعات کاربران ایکس باکس و نگهداری آنها حتی بدون رضایت والدین شان متهم کرده است.

کاربران برای آنکه بتوانند از بازی های ایکس باکس وسرویس هایی مانند «ایکس باکس لایو» استفاده کنند، باید در یک حساب کاربری ثبت نام و اطلاعات خصوصی از جمله نام کامل، آدرس ایمیل و محل تولدشان را ذکر کنند.

تا ۲۰۲۱ میلادی از کاربران ایکس باکس خواسته می شد تا شماره موبایل خود را اضافه و با سیاست تبلیغات مایکروسافت موافقت کنند. کمیسیون فدرال تجارت آمریکا متوجه شد مایکروسافت پس از آنکه از کاربران زیر ۱۳ سال خواسته تا اطلاعات خصوصی شان را فراهم کنند، خواستار رضایت والدینشان برای ایجاد حساب کاربری شده است.

به نظر می رسد مایکروسافت از ۲۰۱۵ تا ۲۰۲۰ میلادی داده های کاربران زیر سن قانونی را حتی در صورت تکمیل نشدن فرم ثبت نام توسط والدین، جمع آوری و نگهداری کرده است. طبق قانون COPPA سرویس های آنلاین و وب سایت ها باید قبل از استفاده از هرگونه اطلاعات خصوصی کودکان رضایت والدینشان را دریافت کنند.

همچنین کمیسیون فدرال تجارت آمریکا توضیح داده مایکروسافت برچسب بازیکنی(gamertag)هر کاربر را با شناسه های مداوم و خاص آن حتی برای کاربران زیر سن قانونی ترکیب می کند. دیو مک کارتی یکی از مدیران«ایکس باکس پلیر سرویسز» در پستی وبلاگی اعلام کرد مایکروسافت به طور عمد حساب های کاربری کودکان که توسط والدین تکمیل نشده بودند را نگهداری نکرده است. این شرکت متوجه یک اختلال فنی شده بود که به نگهداری داده ها طی تحقیقات منجر شد. همچنین تیم مهندسی مایکروسافت اطلاعات کودکان تحت تاثیر باگ را پس از برطرف کردن اختلال حذف کردند.

مایکروسافت علاوه بر پرداخت غرامت ۲۰ میلیون دلاری برای تسویه اتهامات کمیسیون فدرال تجارت، باید طبق دستور وزارت دادگستری آمریکا فرایند ایجاد حساب کاربری برای کاربران زیر سن قانونی را تغییر دهد. این شرکت بزرگ فناوری هم اکنون فرایند مذکور را آپدیت کرده است. بنابراین هنگام پر کردن فرم زمانیکه تاریخ تولد فرد پرسیده می شود، درصورت نیاز قبل از پر شدن اطلاعات دیگر، رضایت والدین درخواست می شود. همچنین در این فرایند از کاربران کمتر از ۱۳ سالی که قبل از می ۲۰۲۱ حساب کاربری ساخته اند، خواسته شده تا رضایت والدین خود را طی ماه های آینده دوباره تایید کنند.

کمیسیون فدرال تجارت آمریکا از مایکروسافت خواسته تا سیستمی ایجاد کند تا درصورتیکه والدین فرایند ایجاد حساب را تکمیل نکنند، تمام اطلاعات خصوصی جمع آوری شده از کودکان را ۲ هفته بعد پاک شوند.

علاوه بر آن این آژانس فدرال از شرکت خواسته تا به ناشران بازی های ویدئویی هشدار دهد ارگ اطلاعات به اشترک گذاشته شده مربوط به یک کودک است، تحت قوانین COPPA باید محافظت شود. در این میان مایکروسافت تغییرات در فرایند ثبت نام خود ایجاد کرده که البته قبل از اجرایی شدن، باید توسط دادگاه فدرال تایید شود.

خطرات استفاده از هوش مصنوعی در پزشکی

سه شنبه, ۱۶ خرداد ۱۴۰۲، ۰۳:۱۳ ب.ظ | ۰ نظر

یک پزشک هوش مصنوعی گفته که این فناوری می‌تواند در پزشکی سوگیری ایجاد کرده و میان افراد سفید پوست و سیاه پوست تبعیض قائل شود.
به گزارش خبرگزاری صدا و سیما به نقل از نشریه آمریکایی د هیل، در ۱۶ می، کارگروه فرعی سنای آمریکا در خصوص حریم خصوصی، فناوری و قانون جلسه‌ای را برای بحث در مورد تنظیم الگوریتم‌های هوش مصنوعی (AI) برگزار کرد. رئیس کارگروه، سناتور ریچارد بلومنتال گفت که هوش مصنوعی برای رسیدگی به وعده‌ها و دام‌های عظیم خود به قوانین و تدابیری فوری نیاز دارد. در طول جلسه استماع، سام آلتمن، مدیر عامل اون‌ای آی اظهار داشت: اگر این درست استفاده نشود، ممکن است اشتباهاتی به وجود بیاورد.

با پیشرفته‌تر شدن قابلیت‌های الگوریتم‌های هوش مصنوعی، برخی در سیلیکون، ولی و فراتر از آن درباره تهدید فرضی هوش مصنوعی «فوق بشری» هشدار می‌دهند که می‌تواند تمدن بشری را نابود کند.

یک پزشک هوش مصنوعی عقیده خودش درباره خطرات هوش مصنوعی را در مقاله‌ای آورده است. او می‌نویسد که کارش را بر درک اینکه چگونه الگوریتم‌های هوش مصنوعی می‌توانند سوگیری‌ها را در سیستم پزشکی تداوم بخشند، متمرکز کرده است. او نشان داده که چگونه الگوریتم‌های هوش مصنوعی توسعه‌یافته قبلی برای شناسایی سرطان‌های پوست در تصاویر سرطان پوست روی پوست‌های قهوه‌ای و سیاه عملکرد بدتری دارند که می‌تواند منجر به تشخیص اشتباه در بیماران رنگین پوست شود. این الگوریتم‌های پوست هنوز در عمل بالینی نیستند، اما بسیاری از شرکت‌ها در حال کار روی تضمین مجوز نظارتی برای هوش مصنوعی در برنامه‌های درماتولوژی هستند. او می‌گوید: بسیاری از شرکت‌ها در هنگام ساختن الگوریتم‌های خود، رنگ‌های پوست متنوع را نشان نمی‌دهند، علیرغم تحقیقاتی که نشان می‌دهد چگونه این امر می‌تواند منجر به عملکرد مغرضانه شود.

خارج از پوست، الگوریتم‌های پزشکی که قبلا به کار گرفته شده‌اند، پتانسیل ایجاد آسیب قابل توجهی را دارند. مقاله‌ای در سال ۲۰۱۹ که در Science منتشر شد، پیش بینی‌های یک الگوریتم اختصاصی را که قبلا روی میلیون‌ها بیمار به کار گرفته شده بود، تجزیه و تحلیل کرد. این الگوریتم به منظور کمک به پیش‌بینی بیمارانی بود که نیاز‌های پیچیده‌ای دارند و باید حمایت بیشتری دریافت کنند. اما این مطالعه نشان داد که برای هر امتیاز خطر، بیماران سیاه پوست در واقع بسیار بیمارتر از بیماران سفیدپوست بودند. این الگوریتم مغرضانه بود و هنگامی که دنبال شد، منجر به تخصیص منابع کمتری به بیماران سیاهپوست شد که باید واجد شرایط مراقبت‌های اضافی بودند.

خطرات سوگیری هوش مصنوعی فراتر از پزشکی است. در عدالت کیفری، الگوریتم‌هایی برای پیش‌بینی اینکه افرادی که قبلا مرتکب جرم شده‌اند، بیشتر در معرض خطر ارتکاب مجدد جرم در دو سال آینده هستند، استفاده شده است. در حالی که عملکرد درونی این الگوریتم ناشناخته است، مطالعات نشان داده‌اند که این الگوریتم دارای تعصبات نژادی است: متهمان سیاه پوستی که جرایم را تکرار نکردند، پیش‌بینی‌های نادرستی با نرخ دو برابر متهمان سفیدپوست داشتند. فناوری‌های تشخیص چهره مبتنی بر هوش مصنوعی روی افراد رنگین‌پوست عملکرد بدتری دارند، اما در حال حاضر نیز استفاده می‌شوند و منجر به دستگیری و زندان برای افراد بی‌گناه شده‌اند. برای مایکل الیور، یکی از مردانی که به اشتباه به دلیل تشخیص چهره مبتنی بر هوش مصنوعی دستگیر شد، این اتهام نادرست باعث شد کارش را از دست بدهد و زندگی اش را مختل کند.

برخی می‌گویند که خود انسان‌ها رفتار مغرضانه دارند و الگوریتم‌ها می‌توانند تصمیم‌گیری عینی بیشتری ارائه دهند. اما زمانی که این الگوریتم‌ها روی داده‌های جانبدارانه آموزش داده می‌شوند، همان خروجی‌های مغرضانه را مانند تصمیم‌گیرندگان انسانی در بهترین سناریو تداوم می‌دهند و در بدترین حالت می‌توانند سوگیری‌ها را بیشتر تقویت کنند. بله، جامعه در حال حاضر مغرضانه است.

این پزشک در پایان می‌نویسد: از آنجایی که هوش مصنوعی همچنان در قسمت‌های بیشتری از جامعه نفوذ می‌کند، این فناوری نیست که باید نگران آن باشیم، این ما و مدل‌ها هستیم که ناعادلانه‌ترین جنبه‌های جامعه را منعکس و تثبیت می‌کنیم. ما به قوانین و مقرراتی نیاز داریم که توسعه و آزمایش مدل عمدی و مدبرانه را ارتقا دهد و تضمین کند که فناوری به جای دنیای ناعادلانه‌تر، به دنیایی بهتر منتهی می‌شود. در حالی که کارگروه فرعی سنا به بررسی مقررات هوش مصنوعی ادامه می‌دهد، امیدوارم آن‌ها متوجه شوند که خطرات هوش مصنوعی در حال حاضر وجود دارد.

90 درصد از اسرائیلی‌ها جرایم سایبری را به پلیس گزارش نمی‌کنند.
به گزارش کارگروه بین‌الملل سایبربان؛ متانیاهو انگلمن (Matanyahu Englman)، بازرس ایالتی رژیم صهیونیستی، در کنفرانس سالانه اورشلیم پست (Jerusalem Post) در نیویورک اعلام کرد که 90 درصد از اسرائیلی‌ها جرایم سایبری را به پلیس گزارش نمی‌کنند و مجریان قانون توانایی تعقیب مناسب مجرمان را ندارند.

انگلمن به خالد ابوتومه (Khaled Abu Toameh)، خبرنگار اورشلیم پست، گفت که چگونه امنیت سایبری را در ممیزی‌های خود از سازمان‌های دولتی و مدنی در اولویت قرار داده است.

این ناظر اسرائیلی اظهار داشت که در دوران تصدی خود به عنوان معاون مدیرکل مؤسسه فناوری تکنیون (Technion) متوجه شده که امنیت سایبری بسیار اهمیت پیدا کرده است.

وی افزود :«در سال 2022، اقتصاد جهانی 6 تا 10 تریلیون دلار خسارت ناشی از جرایم سایبری متحمل شده است. ما اولین کنترل‌کننده دولتی هستیم که بخش امنیت سایبری را راه‌اندازی کردیم.»

انگلمن توضیح داد که آنها حتی هکرها را برای بررسی نقاط ضعف استخدام کرده‌اند تا سازمان حسابرسی بتواند زیرساخت‌های امنیتی، برق، مالیات و بهداشت را بهبود بخشد. یک بیمارستان اسرائیلی مورد حمله سایبری قرار گرفت و به مدت یک ماه و نیم فلج شد.

2 اولویت برای انگلمن تداوم کسب و کار و حفظ حریم خصوصی بود؛ بسیاری از کسب و کارها اطلاعات خصوصی در مورد شهروندان دارند. حریم خصوصی غیرنظامیان از پلیس نیز مورد سؤال قرار گرفت، زیرا دفتر کنترل ایالتی به موضوعاتی مانند رسوایی جاسوس‌افزار پگاسوس (Pegasus) متعلق به شرکت اسرائیلی «NSO»، که در آن مجریان قانون متهم به استفاده از نرم‌افزارهای جاسوسی فراتر از وظایف خود برای استراق سمع هستند، توجه می‌کند.

این مقام اسرائیلی تصریح کرد :«ما اکنون به دنبال استفاده از فناوری از سوی مجریان قانون هستیم. چگونه آنها طبق قانون از آن علیه غیرنظامیان استفاده می‌کنند؟ ما نمی‌خواهیم مردم بدون مجوز به تلفن‌های شخصی دیگران نگاه کنند. دفتر من با همکاری نزدیک با همتایان آمریکایی خود کار می‌کند و به آنها اجازه می‌دهد بهترین شیوه‌ها را از یکدیگر بیاموزند.»

همکاری بین‌المللی کنترلر همچنین به کار مشترک روی ممیزی مرتبط با موضوعات تغییرات آب و هوایی گسترش یافت.

انگلمن، که 2 سال پیش به عنوان رئیس سازمان اروپایی مؤسسات عالی حسابرسی انتخاب شد، گفت که از همتایان منطقه‌ای خود حمایت می‌کند؛ وی خاطرنشان کرد :«ما به عنوان کنترل‌کننده دولتی باید بررسی کنیم که آیا دولت‌ها برای مسائل مربوط به تغییرات آب‌وهوایی آمادگی دارند یا خیر. با همتایان خود روی ارائه‌های کنترل‌کننده‌های کنفرانس تغییرات آب و هوایی سازمان ملل متحد «COP28» همکاری می‌کنیم.»

فرانسه جلوی کلاهبرداری شاخ‌های مجازی را گرفت

سه شنبه, ۱۶ خرداد ۱۴۰۲، ۰۳:۰۵ ب.ظ | ۰ نظر

پارلمان فرانسه روز پنجشنبه هفته گذشته به لایحه‌ای رای داد که از حمایت گسترده احزاب مخالف دولت نیز برخوردار بود؛ لایحه‌ای که با بدل شدن به قانون، راه را برای برخورد قانونی با تخلف‌های اینفلوئنسرهای فعال در شبکه‌های اجتماعی هموار می‌کند.

این لایحه که با هدف جلوگیری از تبلیغ و ترویج مصرف محصولات زیان‌آور و کلاهبرداری اینفلوئنسرها تدوین شده، روز چهارشنبه به تصویب مجلس ملی رسید و یک روزِ بعد نیز رای مثبت ۳۴۲ سناتور از ۳۴۸ سناتور فرانسوی عضو مجلس سنا را نیز جلب کرد. 

به گزارش یورونیوز مطابق تخمین‌های موجود، حدود ۱۵ هزار اینفلوئنسر در فرانسه فعال هستند، اما اقدامات برخی از اینفلوئنسرها در شبکه‌های اجتماعی موجب برانگیخته شدن انتقادات فزاینده‌ای نسبت به عملکرد آنها به ویژه در حوزه بازاریابی شده است.

بر همین اساس، برخی شاکیان شکایت‌های جمعی تنظیم کرده و به جریان انداخته‌اند و اداره پیشگیری از تقلب فرانسه (DGCCRF) نیز اخیرا گزارشی انتقادی از عملکرد تعدادی از اینفلوئنسرها منتشر کرده است. همزمان، بوبا (Booba)، خواننده سبک رپ که از شهرت زیادی در فرانسه برخوردار است، کارزاری را علیه اینفلوئنسرهایی که به زعم او در حال «دزدی» از مردم هستند، به راه انداخته است. 

قانون جدید، ترویج برخی اعمال مانند جراحی زیبایی و پرهیز از درمان توسط اینفلوئنسرها را ممنوع می‌کند. همچنین، تبلیغ دستگاه‌ها و ابزارهای به ظاهر پزشکی که فاقد تاییده و استاندارد لازم هستند، غیرقانونی خواهد بود. 

اینفلوئنسرها حق تبلیغ محصولات حاوی نیکوتین و وب‌سایت‌های شرط‌ بندی را نخواهند داشت. تبلیغ بازی‌های پولی نیز به پلتفرم‌هایی محدود می‌شود که از نظر فنی دسترسی خردسالان را محدود می‌کنند.

اینفلوئنسرها در صورت تبلیغ برخی محصولات همچون لوازم آرایشی باید روشن کنند که آیا از ابزارهای روتوش چهره و یا فیلترهای تصویر استفاده کرده‌اند یا خیر. آنها در عین حال، حق نمایش صحنه‌هایی را با حضور حیواناتی که نگهداری آنها به عنوان حیوان خانگی ممنوع است،  نخواهند داشت.

تخطی اینفلوئنسرها از مفاد این قانون می‌تواند مجازات تا دو سال حبس و ۳۰۰ هزار یورو جریمه نقدی را برای آنها به همراه داشته باشد. 

افزون بر اینفلوئنسرها، این قانون مدیر برنامه‌های آنها را نیز ملزم کرده که در صورت عبور ارقام از سطح مشخصی نسبت به عقد قرارداد کتبی اقدام کنند. اینفلوئنسرهای فعال در خارج از فرانسه، اتحادیه اروپا، سوئیس یا منطقه اقتصادی اروپا نیز باید نسبت به عقد قرارداد بیمه مسئولیت مدنی در اتحادیه اروپا اقدام کنند و پلتفرم‌های شبکه‌های اجتماعی هم باید بر پایه شرایط مشخص شده در متن قانون، پاسخگوی تخلف‌های انجام شده، باشند. 

آرتور دلاپورت، سناتور سوسیالیست فرانسه، در خصوص نقش عملی این قانون گفت: «اینفلوئنسرها همچنان به فعالیت خود ادامه خواهند داد و در این میان گروهی کلاهبردار هم وجود خواهند داشت ولی از این پس آنها می‌دانند که قانون برای مجازات آنها وجود دارد.»

ارایه سرویس ممتاز VPN به پاکستانی‌ها

سه شنبه, ۱۶ خرداد ۱۴۰۲، ۱۲:۰۶ ب.ظ | ۰ نظر

آزاده کیاپور – کاربران VPN رایگان در پاکستان، در مسیر تلاش برای مبارزه با سانسور اینترنت، اکنون می‌توانند سه‌برابر بیشتر از داده‌های مجاز بهره‌مند شوند.

سایت یاهو در گزارشی نوشت یک شرکت عرضه‌کننده فیلترشکن غربی روز 12 می، یک کد کمکی منتشر کرد تا از شهروندانی که توانایی مالی اشتراک سرویس VPN ممتاز، برای دسترسی به پلتفرم‌های رسانه‌های اجتماعی مسدودشده را ندارند، حمایت کند.

مردم پاکستان از 9 می 2023 با قطعی اینترنت که توسط دولت اعمال شده، دست‌وپنجه نرم می‌کنند. خاموشی اینترنت، ابزاری برای توقف موج اعتراضاتی است که در بحبوحه دستگیری عمران خان، نخست‌وزیر سابق پاکستان در کشور، شعله‌ور شده است. به نظر می‌رسد خدمات رسانه‌های اجتماعی و اتصالات اینترنت تلفن همراه، از 15 ماه مه برقرار شده، با این حال، با وجود آشفتگی سیاسی که هنوز بالاست، اختلالات اینترنتی بیشتر، از جمله گزینه‌های روی میز است.

 

بدترین قطعی اینترنت در پاکستان
ایده قطعی اینترنت، همیشه وجود داشته و در روح این شرکت عرضه‌کننده فیلترشکن و اینکه چرا در وهله اول، یک طرح رایگان موردنیاز است، تاثیرگذار بوده است. کسانی که به VPN برای استفاده حیاتی نیاز دارند، معمولا توانایی پرداخت هزینه را ندارند. در این شرایط ما، به افراد کمک می‌کنیم تا به VPN دسترسی پیدا کنند.

ایگور ساک، موسس این شرکت در گفتگو باTechRadar می‌گوید: هدف افراد، دسترسی رایگان به محتوا و خدمات مسدودشده توسط دیکتاتوری‌های مستبد است.

وی خاظرنشان می‌کند: «امیدواریم برخی ثبت‌نام کنند و مبلغی به ما بپردازند، زیرا این تنها راهی است که می‌توانیم در این تجارت باقی بمانیم و خدمات رایگان ارایه دهیم.»

بسیاری از مردم پاکستان در هفته‌های قبل، به شدت به یک VPN نیاز داشتند. استفاده از VPN به عنوان راهی برای تقویت حریم خصوصی کاربران آنلاین، به دلیل توانایی این نرم‌افزار در جعل آدرس‌های IP واقعی افراد و دسترسی آنها به خدمات مسدودشده در سراسر جهان افزایش یافته است.

شدیدترین سانسور چند وقت اخیر در پاکستان که مشکلات اتصال را چندبرابر کرد، 9 می، یعنی زمانی آغاز شد که شهروندان خشمگین به خیابان‌ها آمدند تا علیه دستگیری عمران خان اعتراض کنند.

همان‌طور که داده‌های ناظران اینترنتی مانند نت‌بلاکس (Netblocks) و کلودفلر (Cloudflare) نشان می‌دهد، به اداره مخابرات پاکستان (PTA) دستور داده شد تا اتصالات اینترنت تلفن همراه و تمام پلتفرم‌های رسانه‌های اجتماعی بزرگ از جمله توییتر، فیس‌بوک، اینستاگرام و یوتیوب را متوقف کند. این خاموشی‌ها، به عنوان تاکتیک رو به رشد در بازی دولت‌های مستبد، نه تنها حقوق بشر، آزادی بیان و دسترسی به اطلاعات شهروندان را محدود می‌کند، بلکه بر اقتصاد کشور نیز تاثیر منفی می‌گذارد.

در اقتصاد پاکستان که اکنون نیز به لحاظ اقتصادی عقب‌ماندگی دارد، میلیون‌ها نفر از شهروندان که در حوزه دلیوری‌ها،  تجارت الکترونیک و مشاغل آزاد، به اینترنت متکی هستند، به شدت تحت‌تاثیر قرار گرفتند. البته طبق گزارش بی‌بی‌سی، مقامات پاکستان، اکنون اتصالات اینترنتی را بازگردانده و پلتفرم‌ها را از حالت مسدود بودن خارج کرده‌اند. طبق اظهارات آلپ توکر، بنیانگذار نت‌بلاکس، مقامات پاکستان اکنون به «شدیدترین سانسوری که طی چند وقت اخیر برای پاکستان ردیابی کرده‌ایم»، پایان داده‌اند.

 

سه‌برابر شدن سهمیه داده کاربران پاکستانی
از آنجا که پاکستانی‌ها در حال دانلود سرویس‌های VPN ایمن برای دور زدن اختلالات بودند، این شرکت عرضه‌کننده فیلترشکن به این نتیجه رسید که زمان آن رسیده تا از شهروندانی که قادر به پرداخت هزینه سرویس ممتاز نیستند، حمایت کند. این اقدام به این خاطر صورت گرفت تا مطمئن شود شهروندان امنیت آنلاین خود را با روی آوردن به برخی برنامه‌های رایگان خطرناک موجود در آنجا به خطر نمی‌اندازند. بنابراین سهمیه داده کاربران جدید و قدیمی استفاده‌کننده رایگان از VPN، با اعمال کد کمکی ZINDABAD (زنده‌باد) در صفحه حساب کاربری در وب‌سایت این شرکت، اکنون سه‌برابر شده و از 10 به 30 گیگابایت داده در ماه می‌رسد.

بنیانگذار این شرکت می‌گوید: ما شاهد افزایش متعدد افراد برای ثبت‌نام بودیم. البته نمی‌توانیم دقیقا تعیین کنیم منبع ثبت‌نام‌ها کجاست، زیرا چنین داده‌هایی را ذخیره نمی‌کنیم اما شاهد بیش از 100 هزار بازخرید این کد بودیم. بنابراین می‌توان تصور کرد بیشتر آنها در پاکستان بوده‌اند.

وی از مردم سایر کشورها خواست تا از این توافق سوءاستفاده نکنند: «همه افراد، چیزهای رایگان را دوست دارند؛ خصوصا زمانی که واقعا موردنیاز است و جایگزین مناسب برای آن وجود ندارد.»

این، اولین بار نیست که ارائه‌دهنده VPN برای حمایت از افرادی که با قطعی اینترنت مواجه هستند، به چنین ابزاری متوسل می‌شود. این شرکت، همین کار را برای اوکراینی‌ها پس از تهاجم روسیه، برای کمک به شهروندان ایرانی به منظور دسترسی به برنامه‌های کلیدی رسانه‌های اجتماعی در جریان اعتراضات تکان‌دهنده (سال گذشته) و همچنین برای ترکیه، پس از زلزله ویرانگر اخیر انجام داد، زیرا مردم بعد از مسدود کردن توییتر توسط دولت، به تداوم ارتباط نیاز داشتند.

اخیرا این شرکت، اقدام مشابهی را در بین جوامع مربوطه و نیز کانال های تلگرامی در سراسر سودان توزیع کرده است. ساک در پاسخ به پرسشی درباره برنامه‌های بیشتر این شرکت برای حمایت از کاربران در آینده نزدیک می‌گوید: «بله، ما این کار را ادامه خواهیم داد. متاسفانه، این روزها بلایای جهانی کم نیستند.» (منبع:عصرارتباط)