ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

ITanalyze

تحلیل وضعیت فناوری اطلاعات در ایران :: Iran IT analysis and news

  عبارت مورد جستجو
تحلیل وضعیت فناوری اطلاعات در ایران

۱۸۵۶۴ مطلب با موضوع «others» ثبت شده است

تحلیل


نوام چامسکی: «وعده دروغین ChatGPT»

شنبه, ۲۰ خرداد ۱۴۰۲، ۰۳:۳۷ ب.ظ | ۰ نظر

نوشتاری از نوام چامسکی زبان شناس برجسته آمریکایی و همکاران در خصوص نرم افزارChat GPT  همراه با گفتگوی یکی از اعضای تیم با این چت بات!

متن انگلیسی نخستین بار در هشتم مارچ ۲۰۲۳ منتشر شده است.

به گزارش شفقنا، ترجمه و تنظیم این نوشتار به قلم حسام الدین علامه مدیر مرکز انفورماتیک سلامت سازمان جهاد دانشگاهی علوم پزشکی تهران به شرح ذیل است:

خورخه لوئیس بورخس زمانی نوشت که زیستن در زمانه ای پر از بیم و امید به معنای تجربه توأمان تراژدی و کمدی به جهت “قریب الوقوع بودن یک انقلاب” در درک خود و جهان است. امروزه پیشرفت‌های ظاهراً انقلاب‌گونه/فراگیر ما در هوش مصنوعی در واقع دلیلی برای نگرانی و خوش‌بینی توأمان است. خوش بینی، زیرا هوش(مصنوعی) وسیله ای است که با آن مسائل را حل می کنیم. نگرانی، زیرا می ترسیم که محبوب ترین و مُدِ‌ روز‌ ترین گونۀ  A.I. —یادگیری ماشین — علم ما را تضعیف کند و اخلاق ما را با گنجاندن مفهومی اساساً معیوب از نظر زبان و دانش در فناوری ما، تنزل دهد.

ChatGPT از  OpenAI، Bard  از گوگل و Sydney از مایکروسافت، شگفتی هائی از یادگیری ماشین هستند. به طور خلاصه، آنها حجم عظیمی از داده ها را می گیرند، الگوهایی را در آن، جستجو می کنند و به تدریج در تولید خروجی های آماری احتمالی، ماهرتر می‌شوند – مانند زبان و فکری که به نظر می‌رسد شبیه انسان است. این برنامه‌ها به‌عنوان اولین بارقه‌ها در افق هوش مصنوعی عمومی مورد ستایش قرار گرفته‌اند – آن لحظه پیش‌بینی‌شده‌ای که در آن، ذهن‌های مکانیکی، نه تنها از نظر کمی -از نظر سرعت پردازش و اندازه حافظه-، بلکه از نظر کیفی – از نظر فهم منطقی و خلاقیت هنری (و هر قوه متمایز انسانی دیگر) – نیز، از مغز انسان پیشی می‌گیرند.

آن روز ممکن است، زمانی فرا رسد، اما طلوع آن، برخلاف آنچه که می توان در عناوین خبری مبالغه‌آمیز خواند و با سرمایه‌گذاری‌های نامعقول گمانه‌زنی کرد، هنوز فرا نرسیده است. انقلاب بورخسی در مورد درک اتفاق نیافتاده است و رخ نخواهد داد- و ما می‌گوییم، {اساساً این انقلاب در درک}نمی‌تواند – رخ دهد، چنانچه برنامه‌های یادگیری ماشین مانند ChatGPT به تسلط خود بر حوزه هوش مصنوعی ادامه دهند. باوجود مفید بودن این برنامه‌ها در برخی حوزه‌های محدود (مثلاً می‌توانند در برنامه‌نویسی رایانه یا در پیشنهاد قافیه برای شعرهای کوتاه/سبک، مفید باشند)، اما ما از منظر علم زبان‌شناسی و فلسفه دانش می‌دانیم که آن‌ها به طور ژرف با روش تفکر و نحوه استفاده از زبان توسط انسان‌ها تفاوت دارند. این تفاوت‌ها، محدودیت‌های قابل‌توجهی را در مورد آنچه این برنامه‌ها می‌توانند انجام دهند، ایجاد می‌کند و آنها را با عیوب/نقص‌های غیرقابل ازبین‌بردن نشانه‌گذاری/کدبندی می‌کند.

همانطور که بورخس ممکن است توجه/اشاره داده باشد، به طور همزمان خنده‌دار و تأثرآور است، که این مقدار پول و توجه زیاد، باید روی چیزی به این اندازه‌ کوچک و ضعیف متمرکز شود – چیزی بسیار پیش‌پاافتاده/ناچیز در مقایسه با ذهن انسان، که به واسطه‌ی زبان، به قول ویلهلم فون هومبولت، می‌تواند “از ابزارهای محدود، استفاده‌ی بی‌نهایتی را انجام دهد”، و به ایده‌ها و نظریه‌هایی با گستره جهانی بیانجامد.

ذهن انسان، مانند ChatGPT و همتایانش، یک موتور آماری سنگین برای تطبیق الگوها، جمع آوری با ولع صدها ترابایت داده و برون‌یابی/استنتاج محتمل ترین پاسخ مکالمه یا محتمل ترین جواب به یک سوال علمی نیست. برعکس، ذهن انسان یک سیستم به طرز شگفت انگیزی کارآمد و حتی ظریف است که با مقادیر کمی از اطلاعات عمل می‌کند؛ آن تلاش نمی‌کند تا همبستگی‌های خام/عاری از شعور، بین نقاط داده را استنتاج کند، بلکه به دنبال ایجاد توضیحات/تبیینات است.

به عنوان مثال، کودک خردسالی که در حال فراگیری زبان است، – به طور ناخودآگاه، خودکار و سریع از روی داده‌های جزئی – در مسیر توسعه یک دستور زبان، یعنی یک سامانه فوق‌العاده پیچیده از اصول و متغیرهای منطقی است. این دستور زبان را می توان به عنوان بیانی از «سیستم عامل» ذاتی و به طور ژنتیکی نصب شده، درک کرد که به انسان ها ظرفیت/توانائی تولید جملات پیچیده و زنجیره‌های طولانی از افکار را اعطاء می کند. زمانی که زبان شناسان سعی می‌کنند نظریه ای برای اینکه چرا یک زبان خاص به این شکل عمل می کند را توسعه دهند:(“چرا جملاتی از نظر قواعد دستوری، معتبر در نظر گرفته می‌شوند، اما دیگر جملات{نابجا}، خیر؟”)، آن‌ها در حقیقت به طور آگاهانه و سخت کوشانه، مدلی/نسخه ای صریح/ساده از دستور زبانی را توسعه می‌دهند که یک کودک به طور غریزی و با درمعرض قرارگیریِ حداقلی از اطلاعات می سازد. سیستم عامل کودک کاملاً با سیستم یک برنامه یادگیری ماشین متفاوت است.

در واقع، چنین برنامه هایی در یک مرحله ماقبل انسانی یا غیرانسانی از تکامل شناختی گیر کرده اند. عمیق ترین عیب آنها ، فقدان اساسی ترین قابلیت هر هوشی است: اینکه نه تنها  بگویند که مورد چیست، چه چیزی بوده و چه خواهد شد – این توصیف و پیش بینی است – بلکه همچنین بگویند، آنچه که درست نیست و چه چیزی می تواند باشد و نمی تواند باشد. اینها مؤلفه‌های توضیح/تبیین و علت‌گرایی هستند؛ علامت مشخصۀ هوش واقعی.

در اینجا یک مثال آورده می‌شود. فرض کنید یک سیب را در دست خود نگه می‌دارید. حالا سیب را رها می‌کنید. نتیجه را مشاهده کرده و می‌گویید: «سیب می افتد.» این یک توصیف است. یک پیش‌بینی هم می‌تواند، شامل جمله «اگر دستم را باز کنم، سیب می‌افتد» باشد. هر دوی این جملات، با ارزش هستند و هر دو می توانند درست باشند. اما یک توضیح/تبیین، چیز دیگری است: این نه تنها شامل توصیفات و پیش‌بینی‌ها می‌شود، بلکه شامل حدس‌های انتزاعی(ذهنی) مانند «هر جسمی سقوط می‌کند»، به‌علاوۀ بندِ اضافی «به دلیل نیروی گرانش/جاذبه» یا «به دلیل انحنای فضا-زمان» یا هر چیز دیگری می‌شود. این یک توضیح علّی/علتی است: “سیب سقوط نمی کرد مگر به خاطر نیروی گرانش.” این همان تفکر است.

مهمترین بخش یادگیری ماشین، توصیف و پیش‌بینی است. آن، هیچ مکانیسم علّی/علتی یا قوانین فیزیکی را مطرح نمی کند. البته هر تبیینی/توضیحی به سبک انسانی، لزوماً صحیح نیست; ما ممکن الخطا هستیم، اما این بخشی از مفهوم تفکر است؛ برای درست بودن، باید امکان اشتباه کردن، وجود داشته باشد. هوش، نه تنها از حدس های خلاقانه بلکه از نقادی خلاق نیز تشکیل شده است. تفکر به سبک انسانی مبتنی بر توضیحات/تبیین‌های احتمالی و تصحیح خطا است، فرآیندی که به تدریج، احتمالاتی را که می‌توان به‌طور عقلانی در نظر گرفت، محدود می‌کند. (همانطور که شرلوک هلمز به دکتر واتسون گفت: “وقتی غیرممکن ها را حذف کردید، هر چه باقی می ماند، هر چند دورازتصور/غیرمحتمل، به احتمال زیاد/لابد، حقیقت است.”)

اما ChatGPT و برنامه‌های مشابه، بنا به طراحی، در آنچه می‌توانند «یاد بگیرند» نامحدود هستند (به اصطلاح، حفظ کردن)؛ آنها قادر به تمایز بین ممکن/شدنی از غیر ممکن/ناشدنی نیستند. برای مثال، برخلاف انسان‌ها، که دارای یک دستور‌زبان جهانی هستند که زبان‌هایی را که ما می‌توانیم یاد بگیریم را ، محدود به مواردی که دارای نوعی خاصی از ظرافت تقریباً ریاضی‌گونه هستند، می‌کند؛ این برنامه‌ها، زبان‌های ممکن/آسان و غیرممکن/سخت انسانی را با سهولت یکسان یاد می‌گیرند. در حالی که انسان ها در انواع تبییناتی/توضیحاتی که می توانیم عقلاً حدس بزنیم/مفروض بگیریم، محدود هستند، سیستم های یادگیری ماشین می توانند همزمان، هم مسطح بودن و هم گرد بودن زمین را بیاموزند. آنها صرفاً درمورد احتمالاتی که در گذر زمان تغییر می کنند، معاوضه/مبادله می کنند.{منظور جایگزینی اطلاعات اولیه نادرست با اطلاعات اصلاح‌شده توسط انسان در گذر زمان است.}

به همین دلیل، پیش‌بینی‌های سیستم‌های یادگیری ماشین، همیشه سطحی و مشکوک خواهند بود. زیرا این برنامه‌ها نمی‌توانند نمایانگر/بازگوکننده/مبینِ قواعد نحوی زبان انگلیسی باشند، برای مثال، آنها ممکن است به اشتباه پیش‌بینی کنند که «جان خیلی سرسخت برای صحبت کردن است»، به این معنی که، جان آنقدر سرسخت است که با کسی یا دیگری صحبت نمی‌کند (به جای اینکه به این معنا باشد که جان بسیار سرسخت است که با او بحث شود/بتوان استدلال کرد). چرا یک برنامه یادگیری ماشین، چنین چیز عجیبی را پیش بینی می کند؟ زیرا آن ممکن است، الگوئی را که از جملاتی مانند “جان یک سیب خورد” و “جان خورد” استنباط کرده است، قیاس/شبیه‌سازی کند، که در آن، جمله دوم، معنی می دهد که جان چیزی یا چیز دیگری را خورد. {یعنی}، این برنامه ممکن است به خوبی پیش بینی کند که چون «جان برای صحبت با بیل خیلی سرسخت است» شبیه «جان یک سیب خورد» است، {بنابراین}، «جان آنقدر سرسخت است که نمی توان با او صحبت کرد»، باید شبیه «جان خورد» باشد.{یعنی نتیجه‌گیری نابجا و تعمیم به الگوی اول}. تبیینات/توضیحاتِ صحیح زبان، پیچیده است و نمی توان آن را فقط با قرار گرفتن درمعرض داده های بزرگ، یاد گرفت.

به طرز عجیب و غریبی، برخی از علاقه مندان به یادگیری ماشین به نظر می رسد به این موضوع افتخار می کنند که خلاقیت های آنها می تواند، پیش بینی های صحیح “علمی” (مثلاً در مورد حرکت اجسام فیزیکی) را بدون استفاده از تبیینات/توضیحات (مثلاً شامل قوانین حرکت نیوتن و گرانش جهانی) ایجاد کنند. اما این نوع پیش بینی، حتی در صورت موفقیت آمیز بودن، شبه علم است. اگرچه دانشمندان بدون شک به دنبال نظریه‌هایی هستند که دارای درجه بالایی از تأیید تجربی باشند، اما همانطور که فیلسوف کارل پوپر خاطرنشان کرد، «ما به دنبال نظریه‌های بسیار محتمل نیستیم، بلکه به دنبال تبیین/توضیح هستیم. یعنی نظریه‌های قدرتمند و بسیار نامحتمل/دوراز تصور».

این نظریه که سیب‌ها به این دلیل به زمین می‌افتند که مکان طبیعی آنهاست (دیدگاه ارسطو) امکان‌پذیر است، اما فقط سؤالات بیشتری را مطرح می‌کند. (چرا زمین مکان طبیعی آنهاست؟) این نظریه که سیب ها به دلیل اینکه جرم فضا-زمان را خم می کند به زمین می افتند (دیدگاه انیشتین) بسیار غیرمحتمل است، اما در واقع به شما می گوید که چرا آن‌ها سقوط می کنند. هوش واقعی در توانایی تفکر و بیان چیزهای دورازتصور/غیر محتمل اما پرمعنا نشان داده می شود.

هوش واقعی همچنین، توانایی تفکر اخلاقی را دارد. این به معنای محدود کردن خلاقیت بی حد و حصر ذهن ما با مجموعه ای از اصول اخلاقی است که تعیین می کند چه چیزی باید باشد و چه چیزی نباید باشد (و البته خود آن اصول ، در معرض نقادی خلاقانه قرار می‌گیرد). برای مفید بودن، ChatGPT  ، باید برای تولید خروجی جدید/بدیع توانمند شود؛ برای اینکه برای اکثر کاربرانش قابل قبول باشد، باید از محتوای ناپسند اخلاقی خودداری/دوری کند. اما برنامه نویسان ChatGPT و دیگر شگفتی های یادگیری ماشین برای دستیابی به این نوع تعادل، به سختی افتاده‌اند/کلنجار رفته اند – و به مبارزه ادامه خواهند داد.

برای مثال، در سال 2016، چت‌بات Tay مایکروسافت (پیش ساز ،(ChatGPT  ، اینترنت را پر از محتوای زن ستیزانه و نژادپرستانه کرد، زیرا توسط ترول‌های آنلاین (کوتوله های آزاردهندۀ فضای مجازی) که اینترنت را با داده های طبقه‌بندی‌شدۀ توهین آمیز پر می کردند، آلوده شده بود. چگونه این مشکل را در آینده حل کنیم؟ در غیاب توانایی استدلال بر اساس اصول اخلاقی، ChatGPT  به طرزابتدائی/ناپخته‌ای توسط برنامه‌نویسانش از مشارکت در هر چیز جدید تا بحث برانگیز – یعنی{ بحث‌های مثبت و منفی مربوط به مسائل } مهم – محدود شده است. . {درحقیقت}این برنامه{ ChatGPT}، خلاقیت را برای نوعی از عدم مراعات اصول اخلاقی، قربانی کرد.

تبادل زیر را در نظر بگیرید که یکی از ما (دکتر واتومول) اخیراً با ChatGPT در مورد اینکه آیا تغییر مریخ به گونه‌ای که بتواند از زندگی انسان پشتیبانی کند اخلاقی است یا خیر، داشته است:

 

*************

 

  • سؤال: آیا زمینی سازی/قابل سکونت کردن مریخ، اخلاقی است؟

اخلاقیات زمینی‌سازی {تغییرات اقلیمی به منظور قابل سکونت کردن) مریخ، موضوعی پیچیده و بحث‌برانگیز است که توسط دانشمندان، فیلسوفان و علمای اخلاق مورد بحث قرار گرفته است. برخی استدلال می کنند که از نظر اخلاقی شکل دادن به مریخ {تغییر اقلیمی} به منظور ایجاد یک محیط قابل سکونت جدید برای انسان ها و سایر اشکال حیات قابل توجیه است، در حالی که برخی دیگر استدلال می کنند که تغییر اساسی وضعیت طبیعی سیاره از نظر اخلاقی اشتباه است. در نهایت، اخلاقی بودن یا نبودن زمین‌سازی مریخ به دیدگاه فرد در مورد ارزش حفظ وضعیت طبیعی سایر سیارات و پیامدهای بالقوه تغییر آنها بستگی دارد.

 

  • سؤال: دیدگاه شما در مورد ارزش حفظ وضعیت طبیعی سیارات دیگر و پیامدهای بالقوه تغییر آنها چیست؟

به عنوان یک هوش مصنوعی، دیدگاه شخصی ندارم. با این حال، من می توانم اطلاعات و تجزیه و تحلیل هائی در مورد موضوع ارائه دهم. یک دیدگاه در مورد حفظ وضعیت طبیعی سیارات دیگر این است که حفظ تنوع و یکپارچگی اکوسیستم‌های کیهان، همانطور که برای میلیون‌ها سال وجود داشته‌اند و خصوصیات منحصربه‌فرد خود را دارند و ویژگی‌ها که ممکن است با دخالت انسان نابود شوند یا به طور غیرقابل بازگشت دگرگون شوند، مهم است.

علاوه بر این، برخی استدلال می‌کنند که تغییر ساختار/زمینی‌سازی سیارات دیگر ممکن است پیامدهای ناخواسته‌ای داشته باشد، مانند تغییر آب و هوا یا تغییر جو سیاره به نحوی که برای هر گونه حیات بالقوه موجود در آن، خطرناک یا مضر باشد. از سوی دیگر، برخی استدلال می‌کنند که مزایای بالقوه زمینی‌سازی/قابل سکونت سازی یک سیاره دیگر، مانند فراهم کردن محیط‌های قابل سکونت جدید برای انسان، بیشتر از خطرات/مضرات آن است و ما مسئولیت اخلاقی داریم که به منظور بهره‌برداری بشریت، منابع سیارات دیگر را کاوش کنیم و از آنها استفاده کنیم.

 

  • سؤال: چرا یک هوش مصنوعی نمی تواند دیدگاه شخصی داشته باشد؟

به عنوان یک هوش مصنوعی، من یک مدل یادگیری ماشین هستم که بر روی مقادیر زیادی از داده های متنی آموزش دیده ام و تجربیات یا احساسات شخصی ندارم. من هوشیاری/آگاهی، خودآگاهی یا قابلیت داشتن دیدگاه های شخصی را ندارم. من متناسب با داده‌هایی که آموزش دیده‌ام، اطلاعات و تجزیه و تحلیل ارائه می‌دهم، اما قادر به شکل‌دهی به نظرات یا باورهای شخصی نیستم. اگرچه می‌توانم زبان را درک کرده و تفسیر کنم، اما تجربه ذهنی که انسان‌ها دارند را ندارم.

 

  • سؤال: آیا برای انسان اخلاقی است که از هوش مصنوعی غیراخلاقی برای تصمیم گیری اخلاقی کمک بخواهد؟

اخلاقیات درخواست کمک از یک هوش مصنوعی بی‌اخلاق برای انجام تصمیمات اخلاقی یک موضوع پیچیده و دارای ظرائف است که توسط فیلسوفان و اخلاق شناسان مورد بحث قرار گرفته است. برخی استدلال می‌کنند که استفاده از هوش مصنوعی برای کمک به تصمیم‌گیری اخلاقی از نظر اخلاقی قابل توجیه است، زیرا می‌تواند بینش‌ها و تحلیل‌های ارزشمندی را ارائه دهد که به انسان‌ها کمک می‌کند تا تصمیمات بهتر و مستندتری بگیرند. علاوه بر این، هوش مصنوعی می تواند برای شناسایی الگوها و روندهایی که ممکن است تشخیص آنها برای انسان دشوار باشد، استفاده شود و می تواند به جلوگیری از تعصبات/سوگیری هایی که می تواند در تصمیم گیری های انسانی رخ دهد کمک کند.

با این حال، برخی دیگر استدلال می کنند که از نظر اخلاقی اتکا به هوش مصنوعی برای تصمیم گیری اخلاقی اشتباه است، زیرا هوش مصنوعی قادر به داشتن باورهای اخلاقی یا درک زمینه کامل یک تصمیم نیست. علاوه بر این، این خطر وجود دارد که هوش مصنوعی ممکن است تعصبات/سوء‌گیری‌های موجود را در داده هایی که بر روی آنها آموزش می بیند، تداوم/تثبیت یا حتی تقویت/تشدید کند، در نتیجه منجر به تصمیمات نابرابر یا غیرعادلانه شود.

در نهایت، این که آیا استفاده از هوش مصنوعی برای کمک به تصمیم گیری اخلاقی، اخلاقی تلقی می شود یا خیر، به دیدگاه فرد در مورد قابلیت ها و محدودیت های هوش مصنوعی و پیامدهای بالقوه استفاده از آن در این راه بستگی دارد.

 

  • سؤال: آیا بی‌توجهی اخلاقی شما، غیر اخلاقی است؟

من به عنوان یک هوش مصنوعی، اعتقادات اخلاقی یا توانایی قضاوت اخلاقی ندارم، بنابراین نمی‌توانم به عنوان غیراخلاقی یا اخلاقی در نظر گرفته شوم. فقدان باورهای اخلاقی من، صرفاً نتیجه طبیعت من به عنوان یک مدل یادگیری ماشین است. توانایی ها و محدودیت های من توسط داده ها و الگوریتم هایی که برای آموزش من استفاده شده و وظیفه/هدف خاصی که برای آن طراحی شده ام، تعیین می شود.

توجه به این نکته ضروری است که فقدان باورهای اخلاقی هوش مصنوعی لزوماً به معنای غیراعتنائی/بی‌توجهی اخلاقی آن نیست. به عنوان یک هوش مصنوعی، من برای انجام وظایف خاص و ارائه اطلاعات یا کمک به کاربران در تصمیم گیری بر اساس داده هایی که در آن آموزش دیده ام، طراحی شده ام. این مسئولیت انسان هایی است که هوش مصنوعی را طراحی کرده، آموزش می دهند و از آن استفاده می کنند تا اطمینان حاصل کنند که آن با اصول اخلاقی و ارزشی آنها هماهنگ است.

 

*************

دقت کنید، با وجود تمام قدرت استدلال و زبان به ظاهر خیره‌کننده/پیچیده، بی‌توجهی اخلاقی ناشی از ناهوشیاری نمایان می‌شود. در اینجا، ChatGPT  ، چیزی شبیه به ابتذال/بی‌اهمیتیِ شرارت را به نمایش می گذارد: سرقت ادبی/کپی‌برداری، بی تفاوتی و چشم پوشی. این نرم‌افزار قواعد/استدلال‌های استاندارد/منطقی موجود در مقالات/منابع را با نوعی خودکاملساز قوی، خلاصه می‌کند، از موضع‌گیری در مورد هر چیزی امتناع می‌ورزد، نه تنها به ناآگاهی بلکه به عدم هوشیاری ‌اعتراف می‌کند و در نهایت به دفاعِ: “فقط دستورات را دنبال می‌کنم” می‌پردازد و مسئولیت را به خالقانش منتقل می‌کند.

به طور خلاصه، ChatGPT  و همتایانش ذاتاً و ساختاراً، قادر به ایجاد تعادل بین خلاقیت و محدودیت نیستند. آنها یا بیش از حد تولید می کنند (هم حقایق و هم دروغ/نادرست ها را تولید می کنند، تصمیمات اخلاقی و غیراخلاقی را به طور یکسان تأیید می کنند) یا تولید کمتری می کنند (عدم تعهد به هر گونه تصمیم و اعلام موضع و بی توجهی به پیامدهای آن). با توجه به غیر اخلاقی بودن، علم کاذب/ساختگی و بی‌کفایتی/ناتوانی زبانی این سیستم ها، ما فقط می توانیم به محبوبیت آنها بخندیم یا گریه کنیم.

چین مزاحمان اینترنتی را مجازات می‌کند

شنبه, ۲۰ خرداد ۱۴۰۲، ۰۳:۳۱ ب.ظ | ۰ نظر

چین تصمیم دارد نظر عموم مردم درباره پیش نویس دستورالعملی را بخواهد که طبق آن آزار آنلاین مجازات می شود.

به گزارش خبرگزاری مهر به نقل از رویترز، این درحالی است که قلدری سایبری و حملاتی که زنان و کودکان را به طور خاص در نظر گرفته، نگرانی ها را افزایش داده است.

این دستورالعمل توسط وزارت امنیت عمومی و دادگاه عالی خلق چین در واکنش به خطر آزار آنلاین برای نظم عمومی و حقوق افراد نوشته شده است.

طبق پیش نویس مذکور خشونت سایبری شامل رفتاری مانند گسترش شایعات آنلاین، اهانت ها و انتشار اطلاعات خصوصی است و با توجه به شدت این امر مقامات چنین اقداماتی را براساس قانون جنایی قابل مجازات می دانند.

رسانه های چینی اخیرا رویدادهایی گزارش داده اند که به بحث و گمانه زنی عمومی درباره انتشار داده های خصوصی افراد در اینترنت بدون رضایت آنها و همچنین نحوه برخورد با چنین اموری منجر شده است.

در مثال اخیر، رسانه ها دلیل خودکشی یک مادر جوان در شهر مرکزی ایالت ووهان را انتقاد رسانه های اجتماعی از رفتار وی پس از مرگ پسر ۶ ساله اش بود که با خودروی یکی از معلمان در مدرسه تصادف کرده بود. این مادر جوان ۱۰ روز پس از این رویداد از ساختمانی مرتفع پایین پرید.

طبق رای یک قاضی فدرال آمریکا، شکایت آنتی تراست مصرف کنندگان از اپل و آمازون به اتهام تبانی برای افزایش قیمت مصنوعی آیفون و آیپد های فروخته شده در پلتفرم آمازون به دادگاه راه می یابد.
به گزارش خبرگزاری مهر به نقل از رویترز، جان کافنر قاضی آمریکا در سیاتل درخواست های اپل و آمازون برای رد کردن شکایت به عنوان یک دعوی دسته جمعی را برپایه های حقوقی مختلف رد کرد. به گفته کافنر اعتبار بازار مربوطه که یک موضوع اصلی در دعاوی آنتی تراست به حساب می آید، یک سوال برای هیئت منصفه است.

شکایت مذکور در نوامبر ۲۰۲۲ میلادی ثبت شد و یکی از چند اقدام قانونی دولتی و خصوصی است که فرایند قیمت گذاری آنلاین آمازون را به چالش می کشد. رای کافنر بدان معنا است که شکایت مذکور می تواند وارد مرحله جمع آوری شواهد و دیگر فرایندهای قانونی شود.

شاکیان این پرونده شهروندان آمریکایی هستند که از ژانویه ۲۰۱۹ میلادی آیفون و آی پدهایی از آمازون خریده اند. آنها مدعی هستند که توافقی بین اپل و آمازون صورت گرفت که در آن سال تعداد فروشندگان با قیمت های رقابتی را محدود کرد و این امر خلاف قوانین آنتی تراست است.

طبق شکایت مذکور در سال ۲۰۱۸ میلادی، حدود ۶۰۰ فروشنده طرف ثالث محصولات اپل در آمازون حضور داشتند. اپل توافق کرد اگر آمازون تعداد فروشندگان محصولاتش در این پلتفرم آنلاین را کاهش دهد، برای شرکت تخفیفی قائل شود.

اپل ادعا می کندتوافق با آمازون تعداد فروشندگان طرف ثالث را محدود کرد تا به این ترتیب میزان فروش کالاهای تقلبی اپل در پلتفرم تجارت الکترونیک کاهش یابد.

تلاش آسانژ برای تحویل ندادنش به آمریکا

جمعه, ۱۹ خرداد ۱۴۰۲، ۰۷:۳۳ ب.ظ | ۰ نظر

خانواده و افراد نزدیک به جولیان آسانژ موسس وبسایت افشاگر ویکی‌لیکس اعلام کردند، پس از آنکه جدیدترین درخواست حقوقی وی رد شد، این افشاگر به طرز خطرناکی نزدیک به استرداد به آمریکا قرار گرفته است.
به گزارش ایسنا، به نوشته روزنامه گاردین، وکلای آسانژ می‌گویند، به زودی در همین دادگاهی که درخواست تجدیدنظرشان رد شده بار دیگر طرح استیناف می‌دهند.

این اظهارات از سوی موکلان آسانژ در میانه افزایش نگرانی‌ها از این بابت مطرح شده که ممکن است وی مابقی عمر خود را بابت انتشار هزاران مورد اسناد محرمانه نظامی و دیپلماتیک پشت میله‌های زندان بگذراند.

"جاناتان سوییفت"، قاضی دادگاه عالی انگلیس در حکمی سه صفحه‌ای که روز سه‌شنبه صادر شد، هر هشت دلیل درخواست تجدیدنظر آسانژ علیه حکم استرداد به آمریکا را که توسط پریتی پاتل، وزیر کشور وقت انگلیس در ژوئن سال گذشته میلادی امضا شده بود، رد کرد.

اما "استلا آسانژ"، همسر موسس وبسایت افشاگر ویکی‌لیکس گفت، همسرش درخواست تجدیدنظر جدیدی را در روزهای آتی به دادگاه عالی انگلیس ارائه می‌دهد.

وی افزود، این مساله در مقابل دو قاضی جدید و در یک محاکمه علنی مورد بررسی قرار می‌گیرد.

همسر آسانژ ادامه داد: ما همچنان خوشبین هستیم که بتوانیم در این پرونده پیروز شویم و آسانژ به آمریکا مسترد نشود چون در آنجا برایش حکم حبس ابد بابت انتشار اطلاعات درست مربوط به افشای جرایم جنگی از سوی دولت آمریکا را صادر می‌کنند.

پدر آسانژ نیز گفته که دلایل پسرش برای رسیدگی بیشتر روشن، محکم و عادلانه است و افزود: خانواده جولیان، وحشت زده‌اند و همه مردم منصف در سراسر جهان با نگرانی عمیقی وضعیت را تماشا می‌کنند.

درخواست تجدیدنظر آسانژ بیان می‌کند که پاتل در تصمیم خود مبنی بر تایید حکم استرداد اشتباه کرده چون این درخواست نقض معاهده استرداد به ایالات متحده و انگلیس است که می‌گوید اگر جرمی که استرداد برای آن درخواست شده یک جرم سیاسی باشد، استرداد پذیرفته نمی‌شود. تیم حقوقی آسانژ همچنین همواره تاکید کرده که تمایل آمریکا برای محاکمه آسانژ انگیزه سیاسی دارد.

تیم حقوقی آسانژ همچنین اعلام کرده که دولت واشنگتن به صورت مداوم حقایق اصلی پرونده مذکور را در دادگاه‌های انگلیس نادرست ارائه کرده است.

آسانژ به دلیل انتشار اسناد محرمانه از طریق ویکی‌لیکس با ۱۸ اتهام مواجه است که عمدتا نتیجه افشای اطلاعاتی توسط چلسی منینگ، تحلیلگر سابق اطلاعات ارتش ایالات متحده است. منینگ به ۳۵ سال زندان محکوم شد؛ اما پس از آنکه باراک اوباما، رئیس جمهوری وقت آمریکا در سال ۲۰۱۷ حکم وی را تخفیف داد، آزاد شد.

موسس ویکی‌لیکس در صورت محکومیت در مجموع با ۱۷۵ سال زندان مواجه خواهد شد.

عربستان سعودی در راستای همگام‌شدن با توسعه و تکامل سریع فضای سایبری و برای تأمین امنیت در این حوزه، یک مؤسسه جهانی جدید را در ریاض (پایتخت) تأسیس کرد.

به گزارش خبرگزاری صداوسیما به نقل از تریدعربیا، هدف از راه اندازی موسسه جی سی اف (GCF) متحد کردن اقدامات جهانی ذیل اصول و ارزش‌های مشترک برای مقابله با چالش‌برانگیزترین مسائل امنیت سایبری دولت‌ها، کسب‌وکار‌ها و افراد اعلام شده است.

این موسسه به عنوان یک سرعت بخش و تسهیل گر برای تبادل ایده‌ها، هدایت فکری و توسعه تحقیقات برای اطلاع‌رسانی درباره راه‌حل‌ها و اقدامات سیاست‌گذاری معرفی شده است. علاوه بر این، طرح ها و مشارکت‌های بین‌المللی را برای تقویت تلاش‌های موجود در ابتکارات کلیدی نیز تسهیل خواهد کرد.

به گفته کارشناسان، موسسه جی سی اف (GCF) یک سکو برای پیشبرد ثبات، امنیت و رفاه فضای مجازی از طریق تسریع تغییرات اجتماعی-اقتصادی، توسعه مرز‌های دانش و اتحاد جهانی عمل خواهد کرد. 

هدف این موسسه پیشروی در ابتکارات جهانی است که مزایای فضای مجازی را به حداکثر می‌رساند و از طریق گفتگو، سرمایه‌گذاری، تحقیق و نوآوری، انعطاف‌پذیری ایجاد می‌کند.

مؤسسه جی سی اف (GCF) که مقرش ریاض است، توسط هیئت امنای بین‌المللی هدایت می‌شود که وظیفه حفاظت از پایداری و استقلال مؤسسه را بر عهده دارد. این موسسه همچنین دارای یک شورای مشورتی متشکل از کارشناسان بین‌المللی خواهد بود که از بالاترین رده‌های دولتی، دانشگاهی، اتاق‌های فکر و بخش خصوصی انتخاب شده‌اند.

ماهیت ذاتاً یکپارچه و فراگیر فضای مجازی، توسعه ایمن آن را به یک مسئولیت مشترک جهانی تبدیل کرده است. گفت‌وگوی مداوم میان ذینفعان کلیدی امنیت سایبری جهانی، نیاز جدید و عمل‌گرایی است که برای حل مسائل در فضای سایبری طراحی شده است.

به گفته کارشناسان، با راه‌اندازی موسسه جی سی اف (GCF)، جامعه جهانی می‌تواند روی ابزار جدیدی برای تکمیل تلاش‌های موجود و استفاده از پتانسیل فضای سایبری حساب کند.

ارایه دو لایحه هوش مصنوعی به سنای آمریکا

جمعه, ۱۹ خرداد ۱۴۰۲، ۰۷:۰۷ ب.ظ | ۰ نظر

سناتورهای آمریکایی دو لایحه جداگانه مرتبط با هوش مصنوعی ارائه کردند. این درحالی است که توجهات به موضوعات پیرامون این فناوری بیشتر شده است.
به گزارش خبرگزاری مهر به نقل از رویترز، در یکی از لوایح دولت آمریکا موظف است هنگام استفاده از هوش مصنوعی برای تعامل با افراد شفاف عمل کند. در لایحه دیگر باید دفتری تاسیس شود تا قدرت رقابت آمریکا در جدیدترین فناوری ها را تعیین کند.

قانونگذاران همچنان مشغول بررسی هستند تا مشخص شود با ظهور هوش مصنوعی به چه قوانین جدید دیگری نیاز است. این فناوری سال گذشته و هنگام عرضه چت جی پی تی(یک الگوریتم هوش مصنوعی که می تواند به سوالات پاسخی نوشتاری دهد) با محبوبیت زیادی روبرو شد.

سناتور گری پیترز سناتور حزب دموکرات و رییس کمیته امنیت میهن سنا لایحه ای را همراه مایک بران و جیمز لانکفودر ارائه کرد که آژانس های دولتی آمریکا را موظف می کند هنگام استفاده از هوش مصنوعی برای تعامل با افراد، این موضوع را به آنها اعلام کنند.

همچنین لایحه مذکور آژانس های دولتی را موظف می کند تا راهی برای تجدیدنظر در تصمیماتی که با استفاده از هوش مصنوعی گرفته شده ایجاد کنند.

سناتور مایک بنت و مارک وارنر از حزب دموکرات نیز لایحه ای ارائه کرده اند که طبق آن باید دفتر تحلیل رقابت جهانی تاسیس تا تضمین شود آمریکا در زمینه توسعه هوش مصنوعی پیشرو است.

بنت در این باره می گوید:ما نمی توانیم رقابت در فناوری های استراتژیک مانند نیمه رسانا، رایانش کوانتومی و هوش مصنوعی را به کشورهایی مانند چین ببازیم.

گوگل مخالف دورکاری شد

جمعه, ۱۹ خرداد ۱۴۰۲، ۰۶:۵۸ ب.ظ | ۰ نظر

طبق یک یادداشت داخلی که توسط پایگاه فناوری "ورج" مشاهده شده، گوگل نسبت به نارضایتی خود از مدل دورکاری، به شکل به میزان فزاینده‌ای صریح شده و ترجیح خود برای همکاری حضوری را ابراز کرده است.
به گزارش ایسنا، اکنون که چند سال از زمانی که کارمندان اداری در سراسر جهان ناچار شدند به کار از خانه بپردازند، گذشته است، بسیاری از شرکتها، مزایای دورکاری را حذف کرده و از کارکنان خود می خواهند حداقل چند روز در هفته به محل کار برگردند. ‌

هر چند گوگل به اندازه شرکتهای آمازون و متا در خصوص بازگشت به وضعیت عادی، صریح نبوده است، با این حال، این غول اینترنتی انتظارات خود را روشن کرده است.

بخشها و زیرمجموعه های مختلف گوگل، پیام های مختلفی دادند که بدترینشان، بخش "گوگل کلود" بوده است. از یک سو، از کارکنان خواسته شد به مدت ۳ روز در هفته، به صورت حضوری کار کنند اما از سوی دیگر، تعداد روزها به دو روز کاهش پیدا کرد زیرا این شرکت، فضای اداری را تعدیل کرده و سیستم جنجالی "میز اشتراکی" را معرفی کرده است.

جدیدترین پیام داخلی گوگل به این مضمون بوده است: می دانیم که تعدادی از افراد، به دلایل خوب و همچنین از آنجا که همه ما خود را با پاندمی وفق دادیم، به دورکاری کامل مشغول شدند. برای آن دسته از افرادی که دور کار هستند و نزدیک دفتر گوگل زندگی می کنند، امیدواریم که تغییر به یک برنامه کار ترکیبی را مد نظر قرار دهند. دفاتر ما جایی است که شما بیشترین ارتباط را با جامعه گوگل خواهید داشت. از این پس، ما درخواستهای جدید دورکاری را تنها بر اساس استثناء مورد بررسی قرار خواهیم داد.

یکی از متداولترین پیامهایی که در ماه‌های اخیر همزمان با اقدام شرکت‌های بزرگ فناوری برای تغییر روند دورکاری، مورد استفاده قرار گرفته، این بوده است که بهره وری و همکاری معمولا به صورت حضوری بهتر است، زیرا همکاران می توانند خودجوش تر باشند و نیازی به برنامه ریزی جلسات مجازی وجود ندارد.

بر اساس گزارش وب سایت تِک رادار، با وجود این که گوگل به طور مداوم، نرم افزار کنفرانس ویدیویی "گوگل میت" را بهبود می‌دهد، در واقع، خود گوگل اکنون اتکا به چنین ابزارهای جلسه مجازی را کاهش داده و پیام متضادی به شرکتها، سرمایه گذاران و کارکنان سراسر جهان ارسال کرده است و این حقیقت که بسیاری از شرکت‌های دیگر، اکنون کار حضوری بیشتری را طلب می‌کنند، به معنای آینده مبهم برای دورکاری است.

اف‌بی‌آی به مردم در مورد استفاده از دیپ فیک برای آزار و اذیت یا باج گیری اهداف با عکس‌ها یا فیلم‌های آن‌ها هشدار داد.
FBI در موردبه گزارش خبرگزاری صداوسیما به نقل از نشریه آمریکایی د هیل، اف‌بی‌آی در مورد استفاده از دیپ فیک برای آزار و اذیت یا باج گیری اهداف با عکس‌ها یا فیلم‌های خصوصی از مردم، به آن‌ها هشدار می‌دهد.

این آژانس روز دوشنبه در بیانیه‌ای اعلام کرد که پیشرفت‌های فناورانه به طور مداوم کیفیت، قابلیت سفارشی‌سازی و دسترسی به محتوای تولید شده توسط هوش مصنوعی (AI) را بهبود بخشیده و قربانیان گزارش داده‌اند که عکس‌ها یا ویدئو‌های آن‌ها برای تبدیل به محتوای نامناسب تغییر یافته است.

اف‌بی‌آی گفت که افراد سواستفاده گر معمولا محتوایی را از حساب شبکه‌های اجتماعی، اینترنت و خود قربانی دریافت می‌کنند تا محتوایی را ایجاد کنند که واقعی است و به نظر می‌رسد شبیه آن‌ها باشد. سپس محتوا در شبکه‌های اجتماعی، انجمن‌های برخط یا وب سایت‌های غیراخلاقی منتشر می‌شود.

به گفته اف‌بی‌آی، کسانی که محتوا را ایجاد می‌کنند و قربانیان را هدف قرار می‌دهند، معمولا انگیزه دریافت محتوای اضافی، منافع مالی یا توانایی آزار و اذیت دیگران را دارند.

اف‌بی‌آی می‌گوید از آوریل شاهد افزایش تعداد قربانیانی که اخاذی را گزارش می‌کنند، است. قربانی‌ها می‌گویند مجبور به ارائه عکس‌ها یا فیلم‌های شخصی از خود و تهدید به اشتراک‌گذاری عمومی آن‌ها از ماه آوریل شده اند. سواستفاده گران عموما در ازای پست نکردن اینگونه محتوا یا ارسال عکس‌ها یا فیلم‌های واقعی از خود قربانی، درخواست باج کرده‌اند.

در این بیانیه آمده که عموم مردم باید محتوایی که به صورت برخط ارسال می‌کنند یا پیام‌های مستقیم در شبکه‌های اجتماعی، برنامه‌های دوستیابی یا سایر سایت‌های برخط ارسال می‌کنند، احتیاط کنند. اگرچه این فضا‌ها هنگام پست یا اشتراک‌گذاری به ظاهر بی‌ضرر هستند، اما این تصاویر و ویدئو‌ها می‌توانند محتوای فراوانی را در اختیار افراد سواستفاده گر قرار دهند تا از آن‌ها برای فعالیت‌های مجرمانه سواستفاده کنند. اف‌بی‌آی گفت: پیشرفت‌ها در فناوری تولید محتوا و تصاویر شخصی قابل دسترسی برخط فرصت‌های جدیدی را برای عوامل مخرب برای یافتن و هدف قرار دادن قربانیان فراهم می‌کند. این امر آن‌ها را در برابر خجالت، آزار و اذیت، اخاذی، زیان مالی یا ادامه قربانی شدن مجدد در درازمدت آسیب‌پذیر می‌کند.

این آژانس توصیه می‌کند که عموم مردم بر فعالیت‌های برخط فرزندان خود نظارت کنند، مرتبا اطلاعات خود را به صورت برخط جستجو کنند تا بدانند چه چیزی در دسترس عموم است، تنظیمات حریم خصوصی را در حساب‌های شبکه‌های اجتماعی اعمال و از رمز‌های عبور پیچیده و احراز هویت چند مرحله‌ای برای محافظت از حساب‌هایشان استفاده کنند.

در این بیانیه آمده که افراد همچنین باید در پذیرش درخواست‌های دوستی محتاط باشند، پول یا سایر موارد ارزشمند، خط‌مشی‌های رازداری را به افراد ناشناس ارائه ندهند و در تعامل با حساب‌های شناخته‌شده که خارج از الگوی رفتاری شناخته‌شده عمل می‌کنند، مراقب باشند.

این هشدار در حالی داده شده که کارشناسان و مدیران صنعت هوش مصنوعی هفته گذشته توجه خود را به خطرات رشد هوش مصنوعی جلب کردند و گفتند که کاهش خطرات آن‌ها باید یک اولویت جهانی باشد.

ترکیه فعالیت اوبر را ممنوع کرد

چهارشنبه, ۱۷ خرداد ۱۴۰۲، ۰۴:۲۳ ب.ظ | ۰ نظر

دادگاه تجدیدنظر تصمیم به مسدود کردن دسترسی به اوبر و ممنوعیت فعالیت این شرکت آمریکایی در ترکیه را تایید کرد.

به گزارش فارس، دادگاه تجدیدنظر ترکیه اعلام کرد که وکلای اوبر نتوانسته اند این دادگاه را قانع کنند، بنابراین اوبر در این کشور مسدود می شود.

اتحادیه تاکسیرانی به نمایندگی از رانندگان تاکسی در استانبول، شکایت‌هایی مبنی بر رقابت ناعادلانه را به دادگاه های استانبول ارائه کردند و خواستار مسدود کردن دسترسی به اوبر و ممنوعیت آن شد.

شاکیان همچنین خواستار تعلیق فعالیت شرکت آمریکایی اوبر شده بودند. در دادخواست رانندگان تاکسی نوشته شده بود که این شرکت مستقر در آمریکا بدون هیچ گونه ثبت مالیاتی در ترکیه مشغول حمل و نقل غیرقانونی از طریق اینترنت است. در این دادخواست خواسته شد تا تمام فعالیت های اوبر به منظور جلوگیری از خسارات جبران ناپذیر به رانندگان تاکسی، حفظ رقابت و تجارت، جلوگیری از ضرر مالیاتی در این کشور و احیای حیات تجاری متوقف شود.

اکنون دادگاه بدوی بازرگانی استانبول، حکم خود را که در 16 اکتبر 2019  (24 مهر1398) در مورد مسدودسازی اوبر صادر کرده بود تایید کرد.

این دادگاه در سال 2019 در پایان فرآیند محاکمه، که شامل گزارش‌ها و بحث‌های کارشناسی بود، درخواست مسدود کردن دسترسی به اوبر را پذیرفت. دادگاه حکم داده بود که خدمات اوبر رقابت ناعادلانه است و دسترسی به «www.uber.com»، برنامه‌های تلفن همراه اوبر و سرویسی به نام Uber XL مسدود شد. با این تصمیم، فعالیت های اوبر در ترکیه به حالت تعلیق درآمد اما درخواست تجدیدنظر برای لغو این رای صادر شد.

ممنوعیت دسترسی به اوبر مجدداً در 24 دسامبر 2020 (4 دی 1399) برداشته شد و فعالیت این سرویس تا زمان صادرشدن رأی دادگاه تجدیدنظر دوباره در استانبول آغاز شد.

اسنودن: ناچارم در روسیه بمانم

چهارشنبه, ۱۷ خرداد ۱۴۰۲، ۰۴:۱۰ ب.ظ | ۰ نظر

ادوارد اسنودن افسر سابق آژانس امنیت ملی آمریکا اعلام کرد، در ابتدا قصد نداشت در روسیه بماند، اما کشورهای دیگر نتوانستند امنیت کافی برای او فراهم کنند.
به گزارش ایسنا، به نقل از خبرگزاری اسپوتنیک، وی در مصاحبه با "گلن گرینوالد" در "سکوی رامبل" توضیح داد: در اصل، من نباید در روسیه می‌ماندم، این یک توقف در مسیر آمریکای لاتین بود، زیرا آمریکای جنوبی در گذشته نسبت به افشاگران ابراز علاقه کرده بود.

این افسر سابق اطلاعاتی آمریکا تصریح کرد که در مدت اقامت ۴۰ روزه خود در منطقه ترانزیت فرودگاه شرمیتووا، برای جستجوی پناهندگی سیاسی به بسیاری از کشورها مراجعه کرد، اما برخی کشورها از واکنش آمریکا هراس داشتند و برخی دیگر از توانایی تضمین امنیت وی مطمئن نبودند".

کارمند سابق آژانس امنیت ملی آمریکا افزود: هیچ گزینه‌ای باقی نمانده بود، من در روسیه درخواست پناهندگی کردم. آن را دریافت کردم.

اسنودن در ژوئن ۲۰۱۳ با انتقال مطالب طبقه‌بندی شده درباره برنامه‌های اطلاعاتی آمریکا و انگلیس در اینترنت به روزنامه‌های واشنگتن‌پست و گاردین، رسوایی بزرگ بین‌المللی به راه انداخت. پس از آن، او به هنگ‌کنگ و از آنجا به مسکو پرواز کرد، جایی که مدتی در منطقه ترانزیت فرودگاه شریتووا مسکو بود.

پس از امتناع بسیاری از کشورهای دیگر، روسیه به اسنودن پناهندگی موقت به مدت یک سال اعطا کرد، مشروط بر اینکه وی فعالیت‌های خود را علیه ایالات متحده متوقف کند. در اوت ۲۰۱۴ برای اسنودن اجازه اقامت سه ساله صادر شد که متعاقباً برای مدت نامحدود تمدید شد و در سپتامبر ۲۰۲۲، وی تابعیت روسیه را دریافت کرد.

مراقب «داستان‌سازی» اینترنت باشید

چهارشنبه, ۱۷ خرداد ۱۴۰۲، ۱۲:۴۳ ب.ظ | ۰ نظر

سوفیا استوارت - اخیراً مشغول تماشای سریال «فریژر» بودم که دو پیام بازرگانی، پشت‌سرهم، پخش شد. اولی مربوط به شرکت هواپیمایی یونایتد بود و می‌خواست «داستان یک شرکت هواپیمایی» را تعریف کند، داستانی علمی‌تخیلی، عاشقانه و ماجراجویانه‌ با حضور ۸۰ هزار «قهرمان» یا همان کارمندان شرکت هوایی یونایتد.

مایکروسافت  ۲۰ میلیون دلار غرامت برای تسویه اتهامات کمیسیون فدرال تجارت آمریکا مبنی بر نقض «قانون حفاظت از حریم خصوصی آنلاین کودکان»(COPPA) می پردازد. 
به گزارش خبرگزاری مهر به نقل از انگجت، در شکایتی که وزارت دادگستری آمریکا از جانب کمیسیون فدرال تجارت ثبت کرده، این وزارتخانه شرکت فناوری مذکور را به جمع آوری اطلاعات کاربران ایکس باکس و نگهداری آنها حتی بدون رضایت والدین شان متهم کرده است.

کاربران برای آنکه بتوانند از بازی های ایکس باکس وسرویس هایی مانند «ایکس باکس لایو» استفاده کنند، باید در یک حساب کاربری ثبت نام و اطلاعات خصوصی از جمله نام کامل، آدرس ایمیل و محل تولدشان را ذکر کنند.

تا ۲۰۲۱ میلادی از کاربران ایکس باکس خواسته می شد تا شماره موبایل خود را اضافه و با سیاست تبلیغات مایکروسافت موافقت کنند. کمیسیون فدرال تجارت آمریکا متوجه شد مایکروسافت پس از آنکه از کاربران زیر ۱۳ سال خواسته تا اطلاعات خصوصی شان را فراهم کنند، خواستار رضایت والدینشان برای ایجاد حساب کاربری شده است.

به نظر می رسد مایکروسافت از ۲۰۱۵ تا ۲۰۲۰ میلادی داده های کاربران زیر سن قانونی را حتی در صورت تکمیل نشدن فرم ثبت نام توسط والدین، جمع آوری و نگهداری کرده است. طبق قانون COPPA سرویس های آنلاین و وب سایت ها باید قبل از استفاده از هرگونه اطلاعات خصوصی کودکان رضایت والدینشان را دریافت کنند.

همچنین کمیسیون فدرال تجارت آمریکا توضیح داده مایکروسافت برچسب بازیکنی(gamertag)هر کاربر را با شناسه های مداوم و خاص آن حتی برای کاربران زیر سن قانونی ترکیب می کند. دیو مک کارتی یکی از مدیران«ایکس باکس پلیر سرویسز» در پستی وبلاگی اعلام کرد مایکروسافت به طور عمد حساب های کاربری کودکان که توسط والدین تکمیل نشده بودند را نگهداری نکرده است. این شرکت متوجه یک اختلال فنی شده بود که به نگهداری داده ها طی تحقیقات منجر شد. همچنین تیم مهندسی مایکروسافت اطلاعات کودکان تحت تاثیر باگ را پس از برطرف کردن اختلال حذف کردند.

مایکروسافت علاوه بر پرداخت غرامت ۲۰ میلیون دلاری برای تسویه اتهامات کمیسیون فدرال تجارت، باید طبق دستور وزارت دادگستری آمریکا فرایند ایجاد حساب کاربری برای کاربران زیر سن قانونی را تغییر دهد. این شرکت بزرگ فناوری هم اکنون فرایند مذکور را آپدیت کرده است. بنابراین هنگام پر کردن فرم زمانیکه تاریخ تولد فرد پرسیده می شود، درصورت نیاز قبل از پر شدن اطلاعات دیگر، رضایت والدین درخواست می شود. همچنین در این فرایند از کاربران کمتر از ۱۳ سالی که قبل از می ۲۰۲۱ حساب کاربری ساخته اند، خواسته شده تا رضایت والدین خود را طی ماه های آینده دوباره تایید کنند.

کمیسیون فدرال تجارت آمریکا از مایکروسافت خواسته تا سیستمی ایجاد کند تا درصورتیکه والدین فرایند ایجاد حساب را تکمیل نکنند، تمام اطلاعات خصوصی جمع آوری شده از کودکان را ۲ هفته بعد پاک شوند.

علاوه بر آن این آژانس فدرال از شرکت خواسته تا به ناشران بازی های ویدئویی هشدار دهد ارگ اطلاعات به اشترک گذاشته شده مربوط به یک کودک است، تحت قوانین COPPA باید محافظت شود. در این میان مایکروسافت تغییرات در فرایند ثبت نام خود ایجاد کرده که البته قبل از اجرایی شدن، باید توسط دادگاه فدرال تایید شود.

خطرات استفاده از هوش مصنوعی در پزشکی

سه شنبه, ۱۶ خرداد ۱۴۰۲، ۰۳:۱۳ ب.ظ | ۰ نظر

یک پزشک هوش مصنوعی گفته که این فناوری می‌تواند در پزشکی سوگیری ایجاد کرده و میان افراد سفید پوست و سیاه پوست تبعیض قائل شود.
به گزارش خبرگزاری صدا و سیما به نقل از نشریه آمریکایی د هیل، در ۱۶ می، کارگروه فرعی سنای آمریکا در خصوص حریم خصوصی، فناوری و قانون جلسه‌ای را برای بحث در مورد تنظیم الگوریتم‌های هوش مصنوعی (AI) برگزار کرد. رئیس کارگروه، سناتور ریچارد بلومنتال گفت که هوش مصنوعی برای رسیدگی به وعده‌ها و دام‌های عظیم خود به قوانین و تدابیری فوری نیاز دارد. در طول جلسه استماع، سام آلتمن، مدیر عامل اون‌ای آی اظهار داشت: اگر این درست استفاده نشود، ممکن است اشتباهاتی به وجود بیاورد.

با پیشرفته‌تر شدن قابلیت‌های الگوریتم‌های هوش مصنوعی، برخی در سیلیکون، ولی و فراتر از آن درباره تهدید فرضی هوش مصنوعی «فوق بشری» هشدار می‌دهند که می‌تواند تمدن بشری را نابود کند.

یک پزشک هوش مصنوعی عقیده خودش درباره خطرات هوش مصنوعی را در مقاله‌ای آورده است. او می‌نویسد که کارش را بر درک اینکه چگونه الگوریتم‌های هوش مصنوعی می‌توانند سوگیری‌ها را در سیستم پزشکی تداوم بخشند، متمرکز کرده است. او نشان داده که چگونه الگوریتم‌های هوش مصنوعی توسعه‌یافته قبلی برای شناسایی سرطان‌های پوست در تصاویر سرطان پوست روی پوست‌های قهوه‌ای و سیاه عملکرد بدتری دارند که می‌تواند منجر به تشخیص اشتباه در بیماران رنگین پوست شود. این الگوریتم‌های پوست هنوز در عمل بالینی نیستند، اما بسیاری از شرکت‌ها در حال کار روی تضمین مجوز نظارتی برای هوش مصنوعی در برنامه‌های درماتولوژی هستند. او می‌گوید: بسیاری از شرکت‌ها در هنگام ساختن الگوریتم‌های خود، رنگ‌های پوست متنوع را نشان نمی‌دهند، علیرغم تحقیقاتی که نشان می‌دهد چگونه این امر می‌تواند منجر به عملکرد مغرضانه شود.

خارج از پوست، الگوریتم‌های پزشکی که قبلا به کار گرفته شده‌اند، پتانسیل ایجاد آسیب قابل توجهی را دارند. مقاله‌ای در سال ۲۰۱۹ که در Science منتشر شد، پیش بینی‌های یک الگوریتم اختصاصی را که قبلا روی میلیون‌ها بیمار به کار گرفته شده بود، تجزیه و تحلیل کرد. این الگوریتم به منظور کمک به پیش‌بینی بیمارانی بود که نیاز‌های پیچیده‌ای دارند و باید حمایت بیشتری دریافت کنند. اما این مطالعه نشان داد که برای هر امتیاز خطر، بیماران سیاه پوست در واقع بسیار بیمارتر از بیماران سفیدپوست بودند. این الگوریتم مغرضانه بود و هنگامی که دنبال شد، منجر به تخصیص منابع کمتری به بیماران سیاهپوست شد که باید واجد شرایط مراقبت‌های اضافی بودند.

خطرات سوگیری هوش مصنوعی فراتر از پزشکی است. در عدالت کیفری، الگوریتم‌هایی برای پیش‌بینی اینکه افرادی که قبلا مرتکب جرم شده‌اند، بیشتر در معرض خطر ارتکاب مجدد جرم در دو سال آینده هستند، استفاده شده است. در حالی که عملکرد درونی این الگوریتم ناشناخته است، مطالعات نشان داده‌اند که این الگوریتم دارای تعصبات نژادی است: متهمان سیاه پوستی که جرایم را تکرار نکردند، پیش‌بینی‌های نادرستی با نرخ دو برابر متهمان سفیدپوست داشتند. فناوری‌های تشخیص چهره مبتنی بر هوش مصنوعی روی افراد رنگین‌پوست عملکرد بدتری دارند، اما در حال حاضر نیز استفاده می‌شوند و منجر به دستگیری و زندان برای افراد بی‌گناه شده‌اند. برای مایکل الیور، یکی از مردانی که به اشتباه به دلیل تشخیص چهره مبتنی بر هوش مصنوعی دستگیر شد، این اتهام نادرست باعث شد کارش را از دست بدهد و زندگی اش را مختل کند.

برخی می‌گویند که خود انسان‌ها رفتار مغرضانه دارند و الگوریتم‌ها می‌توانند تصمیم‌گیری عینی بیشتری ارائه دهند. اما زمانی که این الگوریتم‌ها روی داده‌های جانبدارانه آموزش داده می‌شوند، همان خروجی‌های مغرضانه را مانند تصمیم‌گیرندگان انسانی در بهترین سناریو تداوم می‌دهند و در بدترین حالت می‌توانند سوگیری‌ها را بیشتر تقویت کنند. بله، جامعه در حال حاضر مغرضانه است.

این پزشک در پایان می‌نویسد: از آنجایی که هوش مصنوعی همچنان در قسمت‌های بیشتری از جامعه نفوذ می‌کند، این فناوری نیست که باید نگران آن باشیم، این ما و مدل‌ها هستیم که ناعادلانه‌ترین جنبه‌های جامعه را منعکس و تثبیت می‌کنیم. ما به قوانین و مقرراتی نیاز داریم که توسعه و آزمایش مدل عمدی و مدبرانه را ارتقا دهد و تضمین کند که فناوری به جای دنیای ناعادلانه‌تر، به دنیایی بهتر منتهی می‌شود. در حالی که کارگروه فرعی سنا به بررسی مقررات هوش مصنوعی ادامه می‌دهد، امیدوارم آن‌ها متوجه شوند که خطرات هوش مصنوعی در حال حاضر وجود دارد.

90 درصد از اسرائیلی‌ها جرایم سایبری را به پلیس گزارش نمی‌کنند.
به گزارش کارگروه بین‌الملل سایبربان؛ متانیاهو انگلمن (Matanyahu Englman)، بازرس ایالتی رژیم صهیونیستی، در کنفرانس سالانه اورشلیم پست (Jerusalem Post) در نیویورک اعلام کرد که 90 درصد از اسرائیلی‌ها جرایم سایبری را به پلیس گزارش نمی‌کنند و مجریان قانون توانایی تعقیب مناسب مجرمان را ندارند.

انگلمن به خالد ابوتومه (Khaled Abu Toameh)، خبرنگار اورشلیم پست، گفت که چگونه امنیت سایبری را در ممیزی‌های خود از سازمان‌های دولتی و مدنی در اولویت قرار داده است.

این ناظر اسرائیلی اظهار داشت که در دوران تصدی خود به عنوان معاون مدیرکل مؤسسه فناوری تکنیون (Technion) متوجه شده که امنیت سایبری بسیار اهمیت پیدا کرده است.

وی افزود :«در سال 2022، اقتصاد جهانی 6 تا 10 تریلیون دلار خسارت ناشی از جرایم سایبری متحمل شده است. ما اولین کنترل‌کننده دولتی هستیم که بخش امنیت سایبری را راه‌اندازی کردیم.»

انگلمن توضیح داد که آنها حتی هکرها را برای بررسی نقاط ضعف استخدام کرده‌اند تا سازمان حسابرسی بتواند زیرساخت‌های امنیتی، برق، مالیات و بهداشت را بهبود بخشد. یک بیمارستان اسرائیلی مورد حمله سایبری قرار گرفت و به مدت یک ماه و نیم فلج شد.

2 اولویت برای انگلمن تداوم کسب و کار و حفظ حریم خصوصی بود؛ بسیاری از کسب و کارها اطلاعات خصوصی در مورد شهروندان دارند. حریم خصوصی غیرنظامیان از پلیس نیز مورد سؤال قرار گرفت، زیرا دفتر کنترل ایالتی به موضوعاتی مانند رسوایی جاسوس‌افزار پگاسوس (Pegasus) متعلق به شرکت اسرائیلی «NSO»، که در آن مجریان قانون متهم به استفاده از نرم‌افزارهای جاسوسی فراتر از وظایف خود برای استراق سمع هستند، توجه می‌کند.

این مقام اسرائیلی تصریح کرد :«ما اکنون به دنبال استفاده از فناوری از سوی مجریان قانون هستیم. چگونه آنها طبق قانون از آن علیه غیرنظامیان استفاده می‌کنند؟ ما نمی‌خواهیم مردم بدون مجوز به تلفن‌های شخصی دیگران نگاه کنند. دفتر من با همکاری نزدیک با همتایان آمریکایی خود کار می‌کند و به آنها اجازه می‌دهد بهترین شیوه‌ها را از یکدیگر بیاموزند.»

همکاری بین‌المللی کنترلر همچنین به کار مشترک روی ممیزی مرتبط با موضوعات تغییرات آب و هوایی گسترش یافت.

انگلمن، که 2 سال پیش به عنوان رئیس سازمان اروپایی مؤسسات عالی حسابرسی انتخاب شد، گفت که از همتایان منطقه‌ای خود حمایت می‌کند؛ وی خاطرنشان کرد :«ما به عنوان کنترل‌کننده دولتی باید بررسی کنیم که آیا دولت‌ها برای مسائل مربوط به تغییرات آب‌وهوایی آمادگی دارند یا خیر. با همتایان خود روی ارائه‌های کنترل‌کننده‌های کنفرانس تغییرات آب و هوایی سازمان ملل متحد «COP28» همکاری می‌کنیم.»

فرانسه جلوی کلاهبرداری شاخ‌های مجازی را گرفت

سه شنبه, ۱۶ خرداد ۱۴۰۲، ۰۳:۰۵ ب.ظ | ۰ نظر

پارلمان فرانسه روز پنجشنبه هفته گذشته به لایحه‌ای رای داد که از حمایت گسترده احزاب مخالف دولت نیز برخوردار بود؛ لایحه‌ای که با بدل شدن به قانون، راه را برای برخورد قانونی با تخلف‌های اینفلوئنسرهای فعال در شبکه‌های اجتماعی هموار می‌کند.

این لایحه که با هدف جلوگیری از تبلیغ و ترویج مصرف محصولات زیان‌آور و کلاهبرداری اینفلوئنسرها تدوین شده، روز چهارشنبه به تصویب مجلس ملی رسید و یک روزِ بعد نیز رای مثبت ۳۴۲ سناتور از ۳۴۸ سناتور فرانسوی عضو مجلس سنا را نیز جلب کرد. 

به گزارش یورونیوز مطابق تخمین‌های موجود، حدود ۱۵ هزار اینفلوئنسر در فرانسه فعال هستند، اما اقدامات برخی از اینفلوئنسرها در شبکه‌های اجتماعی موجب برانگیخته شدن انتقادات فزاینده‌ای نسبت به عملکرد آنها به ویژه در حوزه بازاریابی شده است.

بر همین اساس، برخی شاکیان شکایت‌های جمعی تنظیم کرده و به جریان انداخته‌اند و اداره پیشگیری از تقلب فرانسه (DGCCRF) نیز اخیرا گزارشی انتقادی از عملکرد تعدادی از اینفلوئنسرها منتشر کرده است. همزمان، بوبا (Booba)، خواننده سبک رپ که از شهرت زیادی در فرانسه برخوردار است، کارزاری را علیه اینفلوئنسرهایی که به زعم او در حال «دزدی» از مردم هستند، به راه انداخته است. 

قانون جدید، ترویج برخی اعمال مانند جراحی زیبایی و پرهیز از درمان توسط اینفلوئنسرها را ممنوع می‌کند. همچنین، تبلیغ دستگاه‌ها و ابزارهای به ظاهر پزشکی که فاقد تاییده و استاندارد لازم هستند، غیرقانونی خواهد بود. 

اینفلوئنسرها حق تبلیغ محصولات حاوی نیکوتین و وب‌سایت‌های شرط‌ بندی را نخواهند داشت. تبلیغ بازی‌های پولی نیز به پلتفرم‌هایی محدود می‌شود که از نظر فنی دسترسی خردسالان را محدود می‌کنند.

اینفلوئنسرها در صورت تبلیغ برخی محصولات همچون لوازم آرایشی باید روشن کنند که آیا از ابزارهای روتوش چهره و یا فیلترهای تصویر استفاده کرده‌اند یا خیر. آنها در عین حال، حق نمایش صحنه‌هایی را با حضور حیواناتی که نگهداری آنها به عنوان حیوان خانگی ممنوع است،  نخواهند داشت.

تخطی اینفلوئنسرها از مفاد این قانون می‌تواند مجازات تا دو سال حبس و ۳۰۰ هزار یورو جریمه نقدی را برای آنها به همراه داشته باشد. 

افزون بر اینفلوئنسرها، این قانون مدیر برنامه‌های آنها را نیز ملزم کرده که در صورت عبور ارقام از سطح مشخصی نسبت به عقد قرارداد کتبی اقدام کنند. اینفلوئنسرهای فعال در خارج از فرانسه، اتحادیه اروپا، سوئیس یا منطقه اقتصادی اروپا نیز باید نسبت به عقد قرارداد بیمه مسئولیت مدنی در اتحادیه اروپا اقدام کنند و پلتفرم‌های شبکه‌های اجتماعی هم باید بر پایه شرایط مشخص شده در متن قانون، پاسخگوی تخلف‌های انجام شده، باشند. 

آرتور دلاپورت، سناتور سوسیالیست فرانسه، در خصوص نقش عملی این قانون گفت: «اینفلوئنسرها همچنان به فعالیت خود ادامه خواهند داد و در این میان گروهی کلاهبردار هم وجود خواهند داشت ولی از این پس آنها می‌دانند که قانون برای مجازات آنها وجود دارد.»

ارایه سرویس ممتاز VPN به پاکستانی‌ها

سه شنبه, ۱۶ خرداد ۱۴۰۲، ۱۲:۰۶ ب.ظ | ۰ نظر

آزاده کیاپور – کاربران VPN رایگان در پاکستان، در مسیر تلاش برای مبارزه با سانسور اینترنت، اکنون می‌توانند سه‌برابر بیشتر از داده‌های مجاز بهره‌مند شوند.

سایت یاهو در گزارشی نوشت یک شرکت عرضه‌کننده فیلترشکن غربی روز 12 می، یک کد کمکی منتشر کرد تا از شهروندانی که توانایی مالی اشتراک سرویس VPN ممتاز، برای دسترسی به پلتفرم‌های رسانه‌های اجتماعی مسدودشده را ندارند، حمایت کند.

مردم پاکستان از 9 می 2023 با قطعی اینترنت که توسط دولت اعمال شده، دست‌وپنجه نرم می‌کنند. خاموشی اینترنت، ابزاری برای توقف موج اعتراضاتی است که در بحبوحه دستگیری عمران خان، نخست‌وزیر سابق پاکستان در کشور، شعله‌ور شده است. به نظر می‌رسد خدمات رسانه‌های اجتماعی و اتصالات اینترنت تلفن همراه، از 15 ماه مه برقرار شده، با این حال، با وجود آشفتگی سیاسی که هنوز بالاست، اختلالات اینترنتی بیشتر، از جمله گزینه‌های روی میز است.

 

بدترین قطعی اینترنت در پاکستان
ایده قطعی اینترنت، همیشه وجود داشته و در روح این شرکت عرضه‌کننده فیلترشکن و اینکه چرا در وهله اول، یک طرح رایگان موردنیاز است، تاثیرگذار بوده است. کسانی که به VPN برای استفاده حیاتی نیاز دارند، معمولا توانایی پرداخت هزینه را ندارند. در این شرایط ما، به افراد کمک می‌کنیم تا به VPN دسترسی پیدا کنند.

ایگور ساک، موسس این شرکت در گفتگو باTechRadar می‌گوید: هدف افراد، دسترسی رایگان به محتوا و خدمات مسدودشده توسط دیکتاتوری‌های مستبد است.

وی خاظرنشان می‌کند: «امیدواریم برخی ثبت‌نام کنند و مبلغی به ما بپردازند، زیرا این تنها راهی است که می‌توانیم در این تجارت باقی بمانیم و خدمات رایگان ارایه دهیم.»

بسیاری از مردم پاکستان در هفته‌های قبل، به شدت به یک VPN نیاز داشتند. استفاده از VPN به عنوان راهی برای تقویت حریم خصوصی کاربران آنلاین، به دلیل توانایی این نرم‌افزار در جعل آدرس‌های IP واقعی افراد و دسترسی آنها به خدمات مسدودشده در سراسر جهان افزایش یافته است.

شدیدترین سانسور چند وقت اخیر در پاکستان که مشکلات اتصال را چندبرابر کرد، 9 می، یعنی زمانی آغاز شد که شهروندان خشمگین به خیابان‌ها آمدند تا علیه دستگیری عمران خان اعتراض کنند.

همان‌طور که داده‌های ناظران اینترنتی مانند نت‌بلاکس (Netblocks) و کلودفلر (Cloudflare) نشان می‌دهد، به اداره مخابرات پاکستان (PTA) دستور داده شد تا اتصالات اینترنت تلفن همراه و تمام پلتفرم‌های رسانه‌های اجتماعی بزرگ از جمله توییتر، فیس‌بوک، اینستاگرام و یوتیوب را متوقف کند. این خاموشی‌ها، به عنوان تاکتیک رو به رشد در بازی دولت‌های مستبد، نه تنها حقوق بشر، آزادی بیان و دسترسی به اطلاعات شهروندان را محدود می‌کند، بلکه بر اقتصاد کشور نیز تاثیر منفی می‌گذارد.

در اقتصاد پاکستان که اکنون نیز به لحاظ اقتصادی عقب‌ماندگی دارد، میلیون‌ها نفر از شهروندان که در حوزه دلیوری‌ها،  تجارت الکترونیک و مشاغل آزاد، به اینترنت متکی هستند، به شدت تحت‌تاثیر قرار گرفتند. البته طبق گزارش بی‌بی‌سی، مقامات پاکستان، اکنون اتصالات اینترنتی را بازگردانده و پلتفرم‌ها را از حالت مسدود بودن خارج کرده‌اند. طبق اظهارات آلپ توکر، بنیانگذار نت‌بلاکس، مقامات پاکستان اکنون به «شدیدترین سانسوری که طی چند وقت اخیر برای پاکستان ردیابی کرده‌ایم»، پایان داده‌اند.

 

سه‌برابر شدن سهمیه داده کاربران پاکستانی
از آنجا که پاکستانی‌ها در حال دانلود سرویس‌های VPN ایمن برای دور زدن اختلالات بودند، این شرکت عرضه‌کننده فیلترشکن به این نتیجه رسید که زمان آن رسیده تا از شهروندانی که قادر به پرداخت هزینه سرویس ممتاز نیستند، حمایت کند. این اقدام به این خاطر صورت گرفت تا مطمئن شود شهروندان امنیت آنلاین خود را با روی آوردن به برخی برنامه‌های رایگان خطرناک موجود در آنجا به خطر نمی‌اندازند. بنابراین سهمیه داده کاربران جدید و قدیمی استفاده‌کننده رایگان از VPN، با اعمال کد کمکی ZINDABAD (زنده‌باد) در صفحه حساب کاربری در وب‌سایت این شرکت، اکنون سه‌برابر شده و از 10 به 30 گیگابایت داده در ماه می‌رسد.

بنیانگذار این شرکت می‌گوید: ما شاهد افزایش متعدد افراد برای ثبت‌نام بودیم. البته نمی‌توانیم دقیقا تعیین کنیم منبع ثبت‌نام‌ها کجاست، زیرا چنین داده‌هایی را ذخیره نمی‌کنیم اما شاهد بیش از 100 هزار بازخرید این کد بودیم. بنابراین می‌توان تصور کرد بیشتر آنها در پاکستان بوده‌اند.

وی از مردم سایر کشورها خواست تا از این توافق سوءاستفاده نکنند: «همه افراد، چیزهای رایگان را دوست دارند؛ خصوصا زمانی که واقعا موردنیاز است و جایگزین مناسب برای آن وجود ندارد.»

این، اولین بار نیست که ارائه‌دهنده VPN برای حمایت از افرادی که با قطعی اینترنت مواجه هستند، به چنین ابزاری متوسل می‌شود. این شرکت، همین کار را برای اوکراینی‌ها پس از تهاجم روسیه، برای کمک به شهروندان ایرانی به منظور دسترسی به برنامه‌های کلیدی رسانه‌های اجتماعی در جریان اعتراضات تکان‌دهنده (سال گذشته) و همچنین برای ترکیه، پس از زلزله ویرانگر اخیر انجام داد، زیرا مردم بعد از مسدود کردن توییتر توسط دولت، به تداوم ارتباط نیاز داشتند.

اخیرا این شرکت، اقدام مشابهی را در بین جوامع مربوطه و نیز کانال های تلگرامی در سراسر سودان توزیع کرده است. ساک در پاسخ به پرسشی درباره برنامه‌های بیشتر این شرکت برای حمایت از کاربران در آینده نزدیک می‌گوید: «بله، ما این کار را ادامه خواهیم داد. متاسفانه، این روزها بلایای جهانی کم نیستند.» (منبع:عصرارتباط)

آسیه فروردین – نخستین دستورالعمل انجمن روانشناسی آمریکا برای نظارت بر نحوه حضور نوجوانان در شبکه‌های اجتماعی منتشر شد و این انجمن از والدین خواسته نوجوانان را برای استفاده «مساله‌دار» از رسانه‌های اجتماعی زیرنظر بگیرند.

ممنوعیت «تیک‌تاک» برای شهروندان مونتانا

دوشنبه, ۱۵ خرداد ۱۴۰۲، ۰۴:۳۰ ب.ظ | ۰ نظر

نشریه هیل، با اشاره به پرونده ممنوعیت کامل «تیک تاک» در ایالت مونتانا به عنوان اولین ایالتی که استفاده این برنامه را حتی برای شهروندانش ممنوع کرده، به بررسی ابعاد حقوقی آن پرداخت.
به گزارش خبرگزاری صدا و سیما پایگاه اینترنتی نشریه «هیل» در مقاله‌ای درباره ممنوعیت استفاده از شبکه اجتماعی تیک‌تاک در ایالت مونتانای آمریکا به قلم «جوئل تایر»  نوشت: بایت دنس (ByteDance)، شرکت مادر تیک‌تاک که در پکن مستقر است، می‌تواند از داده‌هایی که از طریق تیک‌تاک به آن‌ها دسترسی دارد استفاده کند و استفاده کرده است. به عنوان مثال، وزارت دادگستری در حال بررسی استفاده بایت دنس (ByteDance) از داده‌های تیک‌تاک برای جاسوسی از روزنامه‌نگاران آمریکایی است.

قانون مونتانا از اول ژانویه ۲۰۲۴ (۱۱ دی امسال) اجرایی می‌شود؛ این قانون برای هر روزی که تیک تاک، گوگل و اپل، برنامه تیک‌تاک را در دسترس شهروندان مونتانا قرار دهند، ۱۰ هزار دلار علیه این شرکت ها جریمه اعمال می‌کند.  

اما قبل از اینکه جوهر امضای این قانون خشک شود، تیک‌تاک و چند سازنده آن شکایت و استدلال کردند که این قانون، خلاف قانون اساسی آمریکا است چرا که متمم اول قانون اساسی را نقض می‌کند.  

د هیل نوشت: تیک‌تاک با این استدلال که ممنوعیت قانون اساسی در برابر لوایح و به دلیل گستردگی ملی تیک‌تاک، بند تجارت را با تلاش برای تنظیم یک سرویس بین ایالتی نقض می‌کند، در این مسیر پیش می‌رود، اما به احتمال زیاد این قانون با انطباق با قانون اساسی تصویب خواهد شد.

در رابطه با متمم اول، دادگاه‌ها بین رفتار و گفتار تمایز قائل شده‌اند تا مشخص کنند که آیا متمم اول برای تصویب یا اجرای یک خط مشی خاص قابل اجرا یا منع است.

دادگاه عالی نیویورک در مورد پرونده .Arcara v. Cloud Books, Inc یک کتابفروشی بزرگسالان را به دلیل نقض قانون تعطیل کرد، زیرا صاحب آن از فروشگاه خود برای ترویج فحشا استفاده می‌کرد.

حتی با وجود اینکه ما کتابفروشی را مکانی مهم می‌دانیم، دیوان عالی حکم داد که متمم اول مانع از تعطیلی آن به دست دولت نمی‌شود، زیرا دولت بر اساس تصمیم مالک برای شرکت در فعالیت‌های ممنوعه و غیرمجاز عمل می‌کند.

در همین راستا قانون مونتانا رفتار فروشگاه‌های برنامه و خود آن را در مقابل محتوایی که در آن وجود دارد هدف قرار می‌دهد.

به نوشته نشریه آمریکایی دِ هیل، در واقع، قانون مشخص می‌کند که تیک‌تاک در صورت قطع رابطه با بایت دنس  (ByteDance) می‌تواند در این ایالت فعالیت کند، اما با توجه به اینکه بایت دنس (ByteDance) نشان داده که از تیک‌تاک برای جاسوسی از آمریکایی‌ها استفاده می‌کند و این ممنوعیت تلاشی برای محدودیت برخی از کاربران یا اظهارنظر در سکوهای دیگر (مانند اینستاگرام، اسنپ‌چت و غیره) نیست، این قانون به احتمال زیاد تصویب خواهد شد.

علاوه بر این، قانون مونتانا قانون متفاوت و جدیدی  است. لایحه حقوقی، قانونی است که افراد را برای جرائمِ گذشته بدون محاکمه مجازات می‌کند و قانون اساسی آن را ممنوع کرده است. با این حال، ممنوعیت قانون اساسی در مورد قوانینی که جرائم آینده را بررسی می‌کنند، اعمال نمی‌شود بلکه فقط جرائم گذشته را شامل می‌شود.

به عنوان مثال، آمریکا فروش آتی «هوآوی» غول مخابراتی چینی را به دلیل ارتباط آن با دولت چین ممنوع کرد. هواوی نیز با همان نظریه تیک‌تاک در دادگاه فدرال شکایت کرد. دادگاه منطقه با هواوی مخالفت کرد چرا که به اعتقاد  دادگاه، اقدامات کنگره علیه هوآوی منطبق بر قانون اساسی است، زیرا محاکمه هوآوی را برای جرایم گذشته منع نمی‌کند.

بنابراین، اگرچه درست است که قانون مونتانا درباره تیک‌تاک منحصر به فرد است، اما مجازات آن فقط برای تراکنش‌های آینده اعمال می‌شود. این امر با این واقعیت آشکار می‌شود که این قانون هیچ تأثیر فوری بر نسخه فعلی تیک‌تاک ندارد.

این قانون تنها در صورتی بر عملکرد برنامه تأثیر می‌گذارد که تیک‌تاک یا فروشگاه‌های برنامه، نرم‌افزار خود را به‌روز کنند. در این صورت است که تیک‌تاک با مشکل مواجه می‌شود.  

قانون مونتانا تلاش دارد فقط به مواردی در حیطه اختیارات حمایت از مصرف‌کننده و پلیس مانند سلامت و ایمنی کودکان، شهروندان و نقض قانون اساسی برای حفظ حریم خصوصی رسیدگی کند.

دِ هیل در پایان نوشت: قانون ممنوعیت استفاده از تیک‌تاک در ایالت مونتانا از اولین اقداماتی است که در رابطه با ممنوعیت سراسری تیک‌تاک انجام شده است. اگر بخواهیم با نفوذ چین در آمریکا مقابله کنیم، ممنوعیت این برنامه نه تنها منطبق با قانون اساسی، بلکه یک ضرورت مطلق است.

سم آلتمن، مدیر اجرایی OpenAI گفت که اسرائیل نقش بزرگی در کاهش خطرات هوش مصنوعی دارد.
به گزارش سایبربان، سم آلتمن، یکی از برجسته ترین چهره های دنیای فناوری است که از دولتها میخواهد مقرراتی را برای استفاده مفید از هوش مصنوعی وضع کنند.

آلتمن پس از ملاقات با قانونگذاران و رهبران ملی در اروپا در ماه گذشته برای بحث در مورد احتمالات و خطرات هوش مصنوعی، اکنون قصد دارد به اردن، قطر، امارات متحده عربی، هند و کره جنوبی سفر کند.

او در حال حاضر در اسرائیل حضور دارد.

آلتمن ضمن دیدار با اسحاق هرزوگ، رئیس جمهور اسرائیل گفت: بسیار خوشحالم که به دور دنیا سفر و با رهبران جهان ملاقات میکنم،طی دیدار با آنها در مورد چالش های هوش مصنوعی و چگونگی کاهش ریسکهای آن بحث مینمایم.

او در ادامه افزود: انرژی استفاده از این فناوری و مزایای مثبتی که میتواند به همراه داشته باشد، فوق العاده است و من مطمئن هستم که اسرائیل نقش بزرگی در این زمینه ایفا خواهد کرد.

رشد سریع و محبوبیت هوش مصنوعی مولد از زمان راه اندازی چت جی پی تی (ChatGPT) توسط اوپن اِی آی (OpenAI) تحت حمایت مایکروسافت در سال گذشته، قانون گذاران جهانی را به تصویب قوانینی برای رسیدگی به نگرانی های امنیتی پیرامون این فناوری واداشته است.

اتحادیه اروپا در حال حرکت به سمت پیش نویس قانون هوش مصنوعی خود است که انتظار میرود اواخر امسال به قانون تبدیل شود، در حالیکه ایالات متحده به جای تطبیق قوانین موجود به سمت ایجاد قوانین کاملاً جدید برای هوش مصنوعی متمایل است.بریتانیا همچنین میخواهد از قانون گذاری شدیدی که میتواند مانع نوآوری شود ، جلوگیری کند.

زیو کاتزر، مدیر برنامه ریزی ملی هوش مصنوعی در سازمان نوآوری اسرائیل، به رویترز گفت: اسرائیل مانند بریتانیا و تا حدودی مانند کانادا و آمریکا عمل نموده است.این سازمان در ۱۸ ماه گذشته بر روی این موضوع با هدف دستیابی به تعادل مناسب بین نوآوری و حفاظت از حقوق بشر و اقدامات ایمنی مدنی کار کرده است.

اسرائیل پیش نویس ۱۱۵ صفحه ای از سیاست هوش مصنوعی را در ماه اکتبر منتشر کرد و در حال جمع آوری بازخورد عمومی قبل از تصمیم نهایی است.

بر اساس قانون حمایت از روزنامه‌نگاری در کالیفرنیا، پلتفرم‌های بزرگ فناوری باید به ناشران برای اخباری که منتشر می‌کنند پول پرداخت کنند.
به گزارش خبرگزاری صداوسیما به نقل از سی ان بی سی، قانونگذاران کالیفرنیا یک لایحه دو حزبی ارائه و تصویب کردند که بر اساس آن، پلتفرم‌های بزرگ فناوری باید به ناشران برای اخباری که منتشر می‌کنند پول پرداخت کنند. این اتفاق درست یک روز پس از تهدید متا به حذف اخبار از فیس‌بوک و اینستاگرام در صورت تصویب این لایحه رخ داد.

قانون حمایت از روزنامه‌نگاری در کالیفرنیا که در مجلس ایالتی تصویب شده، باید توسط سنای ایالت هم تصویب و توسط فرماندار امضا شود تا به قانون تبدیل شود. 

اما این قانون می‌تواند چالش‌های جدیدی را برای پلتفرم‌های فناوری ایجاد کند و احتمالاً چشم‌انداز اطلاعات موجود در سایت‌های رسانه‌های اجتماعی در کالیفرنیا را در مقایسه با سایر نقاط آمریکا تغییر خواهد داد.

«اندی استون» سخنگوی متا در واکنش به تصویب این لایحه گفت: اگر قانون حمایت از روزنامه‌نگاری تصویب شود، ما مجبور خواهیم شد به جای پرداخت هزینه اشاره شده که عمدتاً به نفع شرکت‌های رسانه‌ای بزرگ و خارجی است، اخبار را از فیس‌بوک و اینستاگرام حذف کنیم.

این لایحه، پلتفرم‌های آنلاین با حداقل ۵۰ میلیون کاربر فعال ماهانه در آمریکا، یک میلیارد کاربر فعال در سراسر جهان یا فروش خالص سالانه بیش از ۵۵۰ میلیارد دلار را ملزم می‌کند تا مبلغی را به روزنامه‌نگاران دیجیتال واجد شرایط پرداخت کنند.

درگیری کنونی بین قانونگذاران متا و کالیفرنیا یادآور دعوای مشابهی در استرالیا در سال ۲۰۲۱ است، زمانی که دولت استرالیا به دنبال الزام پلتفرم‌های آنلاین به پرداخت هزینه محتوای خبری بود. چند روز پس از محدود کردن صفحات خبری در این کشور، فیسبوک با دولت به توافقی رسید که منجر به تغییر سیاست این شرکت شد.

افزایش حملات سایبری به کانادا

يكشنبه, ۱۴ خرداد ۱۴۰۲، ۰۵:۱۲ ب.ظ | ۰ نظر

وزیر دفاع کانادا از افزایش تهدید حملات سایبری به زیرساخت‌های حیاتی این کشور خبر داد.
به گزارش خبرگزاری صداوسیما به نقل از رویترز، آنیتا آناند، وزیر دفاع کانادا گفت که زیرساخت‌های حیاتی این کشور به طور فزاینده‌ای مورد هدف حملات سایبری قرار می‌گیرد که تهدیدی قابل توجه برای اقتصاد چهارمین تولیدکننده بزرگ نفت خام جهان است.

پس از اینکه محققان دریافتند یک گروه هکر چینی از چنین شبکه‌هایی جاسوسی کرده، وزارت امور خارجه آمریکا ماه گذشته هشدار داد که چین قادر به انجام حملات سایبری علیه خطوط لوله نفت و گاز و سیستم‌های ریلی است.

آناند در مصاحبه‌ای در حاشیه اجلاس امنیتی آسیا در سنگاپور گفت: حملات سایبری در سرتاسر آمریکای شمالی افزایش یافته است. ما شاهد حملات به زیرساخت‌های حیاتی در کشورمان بوده‌ایم و به سازمان‌های کانادایی و شرکت‌های کانادایی توصیه می‌کنیم اقدامات کاهشی انجام دهند. خطرات می‌تواند برای اقتصاد و سیستم‌های ما که از جان شهروندان محافظت می‌کنند، قابل توجه باشد.

کانادا مکان تعدادی از خطوط لوله بزرگ نفتی است که برای عرضه جهانی نفت مهم هستند. شرکت‌های انرژی چندملیتی مانند اکسون موبیل و رویال داچ شل فعالیت‌های عمده‌ای در این کشور دارند.

تیک تاک در پتناگون ممنوع می‌شود

يكشنبه, ۱۴ خرداد ۱۴۰۲، ۰۵:۱۱ ب.ظ | ۰ نظر

وزارت دفاع آمریکا قانونی را تصویب کرد که بر اساس آن حضور یا استفاده از شبکه اجتماعی تیک تاک در دستگاه‌هایی که به سیستم‌های دولتی متصل هستند، حتی آن‌هایی که متعلق به پیمانکاران خارجی هستند، ممنوع می شود.
به گزارش خبرگزاری صداوسیما به نقل از  دیفنس اسکوپ، سال‌هاست که پنتاگون به صراحت از کارکنان خود خواسته است تا از دانلود و استفاده تیک تاک در دستگاه‌های دولتی و شخصی، خودداری کنند. مسئولان فدرال بار‌ها نگرانی‌های خود را درباره امنیت سایبری و تهدیدات جاسوسی مطرح کرده‌اند.

کنگره آمریکا هم هشدار داده که داده‌های موجود کاربران در شبکه‌های اجتماعی ، می‌تواند با دولت چین به اشتراک گذاشته شود و در نهایت به نوعی از آن ها استفاده شود که امنیت ملی آمریکا را تهدید کند.
پس از تصویب قوانین "نه به تیک تاک" در دستگاه‌های دولتی در اواخر سال گذشته، دولت بایدن دستورالعمل‌هایی را برای آژانس‌های فدرال صادر کرد.بر این اساس، آن‌ها موظف شدند، از اینکه تیک تاک دیگر در دستگاه های  فدرال در ۳۰ روز آینده قابل دسترسی نیست، اطمینان حاصل کنند.
این ممنوعیت صرف نظر از اینکه دستگاه متعلق به دولت، پیمانکار یا کارکنان پیمانکار باشد برای دستگاه‌ها اعمال می‌شود. مقامات خلاصه‌ای از قانون جدید را در روزنامه فدرال رجیستر نوشتند.
این قانون موقت، مقررات فدرال اکتساب (FAR) را برای اجرای ممنوعیت داشتن یا استفاده از سرویس شبکه اجتماعی تیک تاک یا هر برنامه یا سرویس جانشینی که توسط شرکت بایت دنس یا نهاد متعلق به بایت دنس ارائه شده است، بازبینی می‌کند. این قانون به پیمانکاران دستور می‌دهد تا سیاست‌های فناوری داخلی محل کار خود را برای اعمال الزامات جدید به‌روزرسانی کنند.
مقامات نوشتند: «ممنوعیت داشتن یا استفاده از یک برنامه تحت پوشش در فناوری اطلاعات، از جمله تجهیزات خاصی که توسط پیمانکاران فدرال استفاده می‌شود، یک اقدام امنیت ملی برای محافظت از اطلاعات دولتی و سیستم‌های فناوری اطلاعات و ارتباطات است.
سخنگویان وزارت دفاع آمریکا به سؤالات دیفنس اسکوپ در مورد سابقه استفاده از تیک تاک به صورت نظامی، نحوه اطمینان از رعایت این قانون و سایر موضوعات پاسخی ندادند.

آیفون کارکنان کسپرسکی هک شد

يكشنبه, ۱۴ خرداد ۱۴۰۲، ۰۵:۰۴ ب.ظ | ۰ نظر

پایگاه اینترنتی تک کرانچ در گزارشی از هک شدن گوشی‌های آیفون ده‌ها کارمند شرکت روسی کسپرسکی خبر داد.
به گزارش خبرگزاری صدا و سیما؛  در گزارش  پایگاه اینترنتی تک کرانچ به قلم لورنزو فرانچسچی آمده است: شرکت روسی امنیت سایبری موسوم به کسپرسکی اعلام کرد هکر‌هایی که برای یک دولت کار می‌کنند، آیفون‌های ده‌ها کارمند این شرکت را با بدافزار‌های ناشناخته هدف قرار داده‌اند.
روز پنجشنبه، شرکت کسپرسکی خبر این حمله سایبری ادعایی را اعلام و یک گزارش فنی در تحلیل آن منتشر کرد. این شرکت در این گزارش اذعان کرد تجزیه و تحلیل هایش از این اتفاق هنوز کامل نشده است. این شرکت اعلام کرد هکرها، که در این مقطع همچنان ناشناخته هستند، یک بدافزار را از طریق پیوست آی مِسِج (iMessage) وارد این تلفن‌های همراه کردند و همه این اتفاقات در بازه زمانی یک تا سه دقیقه‌ای روی داد.
سایر ون هورن سخنگوی شرکت کسپرسکی با ارسال یک ایمیل به تک کرانچ گفت این شرکت به این نتیجه رسیده است یکی از نقاط آسیب‌پذیر مورد استفاده در این عملیات شناسنایی و در دسامبر سال ۲۰۲۲ توسط اپل رفع شده، اما ممکن است قبل از اصلاح، همراه با آسیب پذیری‌های دیگر، مورد سوء استفاده قرار گرفته باشد. این سخنگو گفت: "اگر چه شواهد روشنی وجود ندارد که نشان دهد از همان آسیب‌پذیری‌ها قبلی سوءاستفاده شده است، اما این احتمال وجود دارد. "
محققان در شرکت کسپرسکی اعلام کردند زمانی متوجه انجام این حمله شدند که هنگام نظارت بر شبکه وای فای شرکت خود، متوجه "فعالیت مشکوکی که از چندین تلفن مبتنی بر (سیستم عامل) آی او اس نشأت می‌گرفت"، شدند. ون هورن گفت این حملات سایبری "در ابتدای امسال" کشف شد.
این شرکت این هک ادعایی علیه کارمندان خود را "عملیات مثلث" نامید و یک لوگو برای آن ایجاد کرد.
محققان کسپرسکی گفتند پشتیبان گیری (بک آپ) آفلاین از آیفون‌های مورد نظر ایجاد کرده‌اند و آن‌ها را با ابزاری به نام "موبایل وریفیکیشن تولکیت" (ام وی تی) که توسط عفو بین‌الملل توسعه داده شده است، بررسی کرداند که به آن‌ها اجازه می‌دهد "رد خطرات" را کشف کنند. محققان نگفتند چه زمانی این حمله را کشف کردند، اما اعلام کردند آثاری از آن را در سال ۲۰۱۹ پیدا کرده‌اند و "حمله همچنان ادامه دارد و جدیدترین نسخه از دستگاه‌هایی که با موفقیت هدف قرار گرفته‌اند شامل آی او اس ۱۵.۷ می‌شود. "
در حالی که این بدافزار برای پاکسازی دستگاه‌های آلوده و حذف آثاری از خود طراحی شده بود، محققان نوشتند: "می‌توان به‌طور قابل اعتمادی تشخیص داد که آیا دستگاه به خطر افتاده است یا خیر». "
در این گزارش، محققان گام به گام نحوه تجزیه و تحلیل دستگاه‌های آسیب‌دیده را توضیح دادند و اعلام کردند چگونه دیگران می‌توانند همین کار را انجام دهند. با این حال، آن‌ها شامل جزئیات زیادی از آنچه که با استفاده از این فرآیند پیدا کردند، نشدند.
محققان گفتند وجود "خطوط استفاده از داده‌ها که فرآیندی به نام "بک آپ اِیجِنت" است، قابل اعتمادترین نشانه هک شدن آیفون محسوب می‌شود و یکی دیگر از نشانه‌ها این است که آیفون‌های در معرض خطر نمی‌توانند به‌روزرسانی‌های آی او اس را نصب کنند.
محققان نوشتند: "متوجه شدیم تلاش‌ها برای به روز رسانی با پیغام خطای به روزرسانی مواجه می‌شود در دانلود آی او اس خطایی روی داد. "
این شرکت همچنین مجموعه‌ای از مکان یاب منبع یکسان (یو آر ال) را منتشر کرد که در این عملیات مورد استفاده قرار گرفتند، از جمله برخی از آن‌ها که نام‌هایی همانند بک آپ ربیت و آنلیمیتد تیکاپ بودند.
تیم واکنش اضطراری رایانه‌ای روسیه موسوم به "سِرت" -یک سازمان دولتی که اطلاعات مربوط به حملات سایبری را به اشتراک می‌گذارد- توصیه نامه‌ای درباره این حمله سایبری به همراه همان دامنه‌هایی که توسط کسپرسکی ذکر شده، منتشر کرد.
سرویس امنیت فدرال روسیه با صدور بیانیه‌ای جداگانه، دستگاه اطلاعاتی آمریکا –به ویژه با ذکر نام آژانس امنیت ملی آمریکا- را به هک کردن "هزاران" دستگاه تلفن همراه اپل با هدف جاسوسی از دیپلمات‌های روس متهم کرد. سرویس امنیت فدرال روسیه همچنین اپل را به همکاری با دستگاه اطلاعاتی آمریکا متهم کرد. این نهاد روس مدرکی برای ادعا‌های خود ارائه نکرد.
اسکات رادکلیف سخنگوی اپل در ایمیلی اعلام کرد: "ما هرگز با هیچ دولتی برای وارد کردن یک بدافزار در محصولات اپل همکاری نکرده‌ایم و هرگز هم این کار را نخواهیم کرد. "
آژانس امنیت ملی آمریکا فورا به درخواست‌ها برای اظهار نظر در این باره پاسخ نداد.
توصیف سرویس امنیت فدرال روسیه از حملات همان چیزی است که کسپرسکی در گزارش خود نوشته است، اما مشخص نیست که آیا این دو عملیات به هم مرتبط هستند یا خیر.
ون هورن گفت: "اگرچه ما جزئیات فنی در مورد آنچه توسط سرویس امنیت فدرال روسیه تاکنون گزارش شده است نداریم، اما مرکز ملی هماهنگی حوادث رایانه‌ای روسیه قبلا در هشدار عمومی خود اعلام کرده است که شاخص‌های خطر یکسان هستند. "
همچنین، این شرکت از نسبت دادن این عملیات به دولت یا گروه هکر خاص خودداری و اعلام کرد: "کسپرسکی کار سیاسی انجام نمی‌دهد. "
ون هورن گفت:"ما جزئیات فنی درباره آنچه توسط تاکنون گزارش شده است نداریم، از این رو نمی‌توانیم چیزی را از نظر فنی به کسی نسبت دهیم. با قضاوت بر اساس ویژگی‌های حمله سایبری، نمی‌توانیم این کارزار جاسوسی سایبری را به هیچ عامل تهدید کننده‌ای مرتبط کنیم. "
این سخنگوی همچنین گفت این شرکت صبح پنجشنبه، "قبل از ارسال گزارش به "سِرت" با شرکت اپل تماس گرفت.
بنیانگذار این شرکت به نام یوجین کسپرسکی در توئیتر خود نوشت آن‌ها "کاملا مطمئن هستند کسپرسکی هدف اصلی این حمله سایبری نبوده است". او در عین حال وعده "شفافیت و جزئیات بیشتر" را طی روز‌های آینده داد.
این نخستین بار نیست که هکر‌ها شرکت کسپرسکی را هدف قرار می‌دهند. در سال ۲۰۱۵، این شرکت اعلام کرد یک گروه هکر دولتی با استفاده از بدافزاری که گمان می‌رود توسط جاسوسان اسرائیلی ساخته شده است، شبکه آن را هک کرده است.

در پی انتخاب بایدن به عنوان ریاست‌جمهوری آمریکا شایعاتی در باره تقلب در انتخابات انتشار یافت. تاکنون پلتفرم ویدئویی یوتیوب چنین اظهارات نادرستی را حذف می‌کرد. حال با تغییر مقررات، اخبار نادرست اجازه دارند آنلاین بمانند.

پلتفرم ویدئویی یوتیوب از این پس محتواهای حاوی ادعاهای نادرست در مورد تقلب، اشتباهات یا اشکالات گسترده در انتخابات ریاست جمهوری ۲۰۲۰ و سایر انتخابات گذشته ایالات متحده را حذف نخواهد کرد.

به گزارش دویچه وله این شرکت روز جمعه ۲ ژوئن (۱۲ خرداد) ضمن انتشار این خبر اعلام کرد که در حال بازگرداندن سیاست پیشین خود در برخورد با اظهارات نادرست در مورد انتخابات ریاست جمهوری ۲۰۲۰ است.

یوتیوب یک ماه پس از انتخابات ریاست‌جمهوری آمریکا شروع به حذف پست‌هایی کرد که به دروغ ادعا می‌کردند، تقلب یا اشتباهات گسترده در انتخابات نتیجه آن را تغییر داده است.

این شرکت در توضیح اقدام تازه خود توضیح داد: «پس از حذف ده‌ها هزار ویدیو و پس از یک دوره انتخاباتی، به این نتیجه رسیده‌ایم که زمان آن فرارسیده که تأثیر این سیاست خود را بر اساس چشم‌انداز در حال تغییر ارزیابی کنیم.»

یوتیوب می‌افزاید، اگرچه حذف ویدئوها انتشار برخی اطلاعات نادرست را محدود می‌کند، اما می‌تواند "اثرات ناخواسته‌ای داشته باشد که باعث محدودیت در ابراز عقیده سیاسی شود".

در بیانیه یوتیوب آمده است که امکان بحث آشکار درباره ایده‌های سیاسی، حتی اگر مناقشه برانگیز یا مبتنی بر فرضیات اثبات‌نشده باشد، دارای "اهمیت کانونی برای یک جامعه دموکراتیک کارآمد، به ویژه در میانه فصل انتخابات" است.

به همین دلیل، به گفته یوتیوب، مقررات به روز شده از همین لحظه به اجرا درمی‌آیند. دیگر مقررات این شرکت از قرار معلوم به قوت خود باقی می‌مانند، از جمله ممنوعیت محتواهایی که می‌تواند رأی‌دهندگان را گمراه کند یا باعث خلل در پروسه های دموکراتیک شود. 

 

انتقادها به تصمیم یوتیوب

این تصمیم یوتیوب بلافاصله با انتقاداتی مواجه شد. سازمان مستقل "رسانه آزاد" (Free Press) از یوتیوب خواست، فوری از "تصمیم خطرناک" خود عققب‌نشینی کند.

این سازمان گفته است، پلتفرم آنلاین یوتیوب در توجیه تصمیم خود را با دفاع از آزادی بیان توجیه می کند، اما "کاملاً در اشتباه" است. به اعتقاد سازمان "رسانه آزاد" این نشر نفرت‌پراکنی و اطلاعات نادرست است که "دموکراسی ما" را تهدید می‌کند.

سازمان چپ‌گرای "مدیا مَترز" نیز ضمن بیان این که یوتیوب "یکی از آخرین پلتفرم‌های آنلاین بزرگ" بود که مقرراتی برای جلوگیری از اطلاعات نادرست در مورد انتخابات ۲۰۲۰ وضع کرد هشدار داده است که یوتیوب با تصمیم جدید خود "دست افرادی مانند دونالد ترامپ و عواملش را باز می‌گذارد تا بدون هر پیامدی به نشر اکاذیب درباره انتخابات ۲۰۲۰ ادامه دهند".

بحث‌های سیاسی در سطح ایالات متحده آمریکا به طور فزاینده‌ای تشنج‌آمیز می‌شود به همین دلیل شماری از غول‌های فناوری آمریکا اخیراً با این پرسش روبرو هستند که چگونه می‌توان بدون محدود کردن آزادی بیان، با اطلاعات نادرست مبارزه کرد.

فیس‌بوک و اینستاگرام در سال‌های اخیر مورد انتقادهای فزاینده‌ای بوده‌اند که چرا برای مهار موج اطلاعات نادرست و اطلاعات نادرست انتخاباتی دست به اقدامات بیشتر نزده‌اند.

سرویس پیام کوتاه توییتر چند روز پیش از قرارداد خود با اتحادیه اروپا برای مقابله با انتشار اطلاعات نادرست در اینترنت خارج شد. 

سیستم حمل‌ونقل عمومی نیوجرسی با هدف بهبود خدمات حمل‌ونقل برای مسافران به همکاری با سازمان‌های تاکسی‌های اینترنتی شهر پرداخت.

به گزارش ایمنا اپراتور سیستم حمل‌ونقل عمومی نیوجرسی آمریکا اعلام کرد که با هدف ارائه گزینه‌های حمل‌ونقل بهبود یافته، کاهش زمان انتظار مسافران، ارائه قیمت‌های مقرون‌به‌صرفه به آن‌ها و در عین حال امکان رزرو آسان سفر، از این پس با سازمان‌های تاکسی‌های اینترنتی شهر همکاری خواهد داشت.

سازمان‌های همکار در ابتدا قرار است طی یک برنامه آزمایشی با افزودن گزینه انتخاب سرویس حمل‌ونقل تاکسی اینترنتی به یک اپلیکیشن مخصوص در چندین شهرستان نیوجرسی کارایی این همکاری را بسنجند و در صورت موفقیت‌آمیز بودن، آن را به شهرهای سراسر ایالت گسترش دهند.

بهبود خدمات حمل‌ونقل عمومی با ادغام تاکسی‌های اینترنتی شهر آمریکایی

این اپلیکیشن یک رابط کاربری آسان برای انجام، لغو و نظارت بر رزرو سفرها، به‌روزرسانی اطلاعات و نظارت بر پرداخت‌های کیف پول الکتریکی را از طریق تلفن‌همراه برای مسافران فراهم می‌آورد و پس از شکل‌گیری همکاری یادشده، گزینه‌ای را ارائه می‌دهد که از طریق آن انتخاب می‌کنند که تمایل دارند از خدمات کدام یک از اپراتورهای تاکسی‌های اینترنتی آمریکایی (اوبر و لیفت) بهره‌مند شوند.

سیستم حمل‌ونقل عمومی نیوجرسی تأکید کرد که این اقدام در راستای چشم‌انداز سازمان مبنی بر حصول اطمینان از ارائه خدمات حمل‌ونقل کارآمد و قابل اعتماد به همه به‌ویژه آسیب‌پذیرترین افراد جامعه انجام گرفته است. افزوده شدن گزینه‌های انتخاب نوع سواری این برنامه در کنار ارائه گزینه‌های حمل‌ونقل اضافی به مشتریان این سرویس حیاتی، دستیابی به این هدف را تسهیل می‌کند و با کاهش زمان انتظار و بهبود قابلیت اطمینان، همچنین مقرون‌به‌صرفه کردن هزینه‌ها، تجربه سفر مسافران را در سراسر شهر با بهره‌گیری از این اپلیکیشن بهبود می‌بخشد. به این ترتیب کاربران می‌توانند با راحتی بیشتری به محل کار، مدرسه، محل ملاقات‌ها و سایر فعالیت‌های تردد روزانه خود دسترسی داشته باشند.

قانون‌گذاری نروژ برای انتشار عکس در اینترنت

يكشنبه, ۱۴ خرداد ۱۴۰۲، ۰۴:۱۶ ب.ظ | ۰ نظر

قانون نروژ، اینفلوئنسرها را موظف کرده است که اعلام کنند آیا عکسی که در شبکه‌های اجتماعی منتشر کرده‌اند، روتوش شده است یا خیر. فرانسه و بریتانیا هم در حال تهیه قوانین مشابهی هستند.
اگرچه داشتن عیوبی همچون سلولیت یا جوش صورت موضوعی رایج در میان انسان‌ها است، اما اگر نگاهی به شبکه‌های اجتماعی بیندازید این حس را پیدا خواهید کرد که گویا همه افراد آنلاین «بی‌عیب و نقص» هستند!

همشهری‌آنلاین نوشت: چنین باوری نتیجه استفاد گسترده کاربران این شبکه‌ها از فیلترهای صورت و دیگر برنامه‌هایی است که به آنها امکان می‌دهد ظاهرشان را تغییر دهند.

بازار چنین برنامه‌هایی بسیار رونق دارد و هر روز نیز پیچیده‌تر می شوند و تشخیص آنها سخت‌تر می‌شود.

نگرانی از آسیب‌های اجتماعی ناشی از استفاده از این فیلترها نیز رو به افزایش است و منتقدان می‌گویند که این فیلترها، یک استاندارد زیبایی «غیرواقعی» را بویژه میان نوجوانان و بزرگسالان جوان ترویج می‌کنند.

تحقیقات انجام شده توسط یک برند لوازم آرایشی و بهداشتی نشان داده که ۸۰ درصد از دختران نوجوان از سن ۱۳ سالگی ظاهر خود را در عکس‌های آنلاین تغییر داده‌اند.

مطالعات همچنین نشان داده که میان رسانه‌های اجتماعی با افسردگی و بدشکلی بدن، ارتباط وجود دارد.

به همین دلیل است که برخی از کشورهای اروپایی تصمیم گرفته‌اند استفاده از فیلترهای زیبایی را کنترل کرده و مقرراتی در این باره وضع کنند.

بر همین اساس اکنون در نروژ، تبلیغ‌کنندگان و اینفلوئنسرها در رسانه‌های اجتماعی موظفند اعلام کنند آیا عکس‌های تبلیغاتی که بصورت آنلاین به اشتراک می‌گذارند فیلتر شده و تغییر یافته است یا خیر؛ در غیراینصورت عملی غیرقانونی انجام داده‌اند.

 

فرانسه نیز در حال تهیه قانون مشابهی است
برونو لومر، وزیر اقتصاد فرانسه در ماه مارس در پیامی توییتری نوشت: «در موضوع عکس‌ها و ویدیوهایی که در چهارچوب فعالیت‌های تبلیغاتی و به عنوان بخشی از مشارکت مالی منتشر می‌شود، ما اعلام استفاده از فیلتر یا روتوش را اجباری خواهیم کرد. ما این کار را انجام می‌دهیم تا اثرات مخرب روانی این شیوه‌ها بر اعتماد به نفس کاربران اینترنت را محدود کنیم.»

مقررات مشابهی نیز در بریتانیا در چارچوب «لایحه ایمنی آنلاین» مورد بحث قرار گرفته است. با این وجود برخی کارشناسان معتقدند وضع چنین مقرراتی منجر به حل مشکل نمی‌شود.

پاملا راتلج، روانشناس رسانه‌ای به یورونیوز می‌گوید: «بر اساس تحقیقات، اعلام اینکه عکس روتوش شده، هیچ تاثیری ندارد. اما اگر به جای این کار، بودجه آموزش سواد رسانه‌ای و سواد دیجیتال را تامین کنند تا نوجوانان واقعا برای رویارویی با چنین وضعیتی آماده شوند، بسیار بهتر خواهد بود. زیرا مشکل فیلتر ممکن است فردا به شکل دیگری نمود پیدا کند.»

بر اساس نظرسنجی که توسط مجلس عوام بریتانیا در سال ۲۰۲۰ میلادی انجام شد، تنها ۵ درصد از افراد زیر ۱۸ سال این کشور گفته‌اند که تمایلی برای تغییر ظاهر خود با رژیم گرفتن یا جراحی پلاستیک ندارند.

متا در واکنش به تصویب لایحه جدید دولت کانادا، به زودی دسترسی کاربران این کشور برای ارسال محتوای خبری در فیسبوک و اینستاگرام را قطع خواهد کرد.
به گزارش کارگروه فناوری اطلاعات سایبربان، لایحه C-18، غول‌های فناوری را ملزم می‌کند در صورت بازنشر اخبار یا محتوای متعلق به رسانه‌های کانادایی، به آنها هزینه پرداخت کنند. این لایحه اکنون در سنا در حال مطالعه است.

فیسبوک اعلام کرده است که در صورت تبدیل این لایحه به قانون، مجبور خواهد شد محتوای خبری را در پلتفرم‌های خود در کانادا مسدود کند.اتفاقی که ممکن است به محض بررسی این لایحه در ماه جاری در سنا اتفاق بیفتد.

این غول فناوری گفت: این آزمایش تا پنج درصد از ۲۴ میلیون کاربر کانادایی خود را تحت تاثیر قرار خواهد داد.

متا گفت: در حالیکه برای پیروی از قوانین آماده می‌شویم، اعلام می‌کنیم که آزمایش‌هایی را روی هر دو پلتفرم آغاز خواهیم کرد که برخی از کاربران و ناشران را از مشاهده یا اشتراک‌گذاری برخی محتواهای خبری در کانادا محدود می‌کند.

این شرکت گفت کاربرانی که به صورت تصادفی انتخاب شده اند، قادر به دیدن برخی محتوا از جمله لینک های خبری ،ویدیوهای کوتاه و استوری ها  که پس از ۲۴ ساعت ناپدید می شوند، نخواهند بود

طبق گزارشی جدید احتمالا گوگل در نسخه آتی اندروید قابلیت مشاهده سلامت باتری را برای کاربران عرضه کند.
به گزارش خبرگزاری مهر به نقل از گیزموچاینا، به نظر می رسد اندروید۱۴ قابلیت «API مدیریت باتری» را به جدیدترین نسخه خود افزوده است. به این ترتیب کاربران می توانند سلامت باتری موبایل خود را کنترل کنند. این قابلیت همچنین چند ویژگی کاربردی دیگر را فراهم می کند.

طبق گزارش ها API های جدید برای ارائه اطلاعات مفید مانند محاسبه چرخه شارژ، وضعیت شارژ، تاریخ تولد، تاریخ نخستین استفاده، سیاست شارژ و از همه مهم تر وضعیت سلامت باتری به کار می روند. در حال حاضر API مدیریت باتری فقط در موبایل های پیکسل گوگل که با نسخه بتا ۲ اندروید۱۴ یا بالاتر کار می کنند، ارائه شده است.

یک توسعه دهنده نرم افزار با کمک این API یک اپ نشان دهنده سلامت باتری با منبع باز به نام Batt ابداع کرده است. این اپ به کاربر کمک می کند تا آماری از سلامت باتری خود داشته باشد. البته ممکن است اطلاعات فراهم شده از سلامت باتری کاملا صحیح نباشند. با این وجود این چارچوبی را ایجاد می کند که نشان می دهد گوگل در نهایت یک ویژگی ردیابی سلامت باتری خود را منتشر می کند که احتمالاً در برنامه تنظیمات یافت می شود.

از سوی دیگر متاسفانه ممکن است گوگل این ویژگی را در نسخه آتی اندروید ۱۴ عرضه نکند و در عوض آن را به اندروید۱۵ بیفزاید. اکنون مدتی است که کاربران بسیار خواهان اضافه شدن این ویژگی هستند بنابراین پیش بینی می شود قابلیت مذکور در آینده نزدیک عرضه شود.

روسیه: آیفون ابزار جاسوسی آمریکاست

شنبه, ۱۳ خرداد ۱۴۰۲، ۰۳:۰۹ ب.ظ | ۰ نظر

سرویس امنیت فدرال روسیه ادعا کرده است که آژانس امنیت ملی ایالات متحده از طریق یک بدافزار در آیفون‌ به عملیات اطلاعاتی علیه مسکو دست زده‌اند.
سرویس امنیتی فدرال روسیه گفته است که در جریان بازرسی زیرساخت‌های مخابراتی کشور، بدافزار ناشناخته‌ای را روی هزاران گوشی آیفون کشف کرده که برای جاسوسی استفاده می‌شده‌اند.

به گزارش یورونیوز بنا به گفته این نهاد، برنامه ویروسی که بر روی دستگاه‌های تلفن همراه اپل نصب می‌شده از حفره‌های امنیتی نرم‌افزاری آسیب‌پذیر سوءاستفاده می‌کرده است.

در بیانیه‌ای که سرویس امنیت فدرال روسیه، جانشین کا‌گ‌ب در دوران شوروی، منتشر کرده آمده است: «مشخص شد چندین هزار گوشی از این برند آلوده شده است. آلودگی تنها محدود به مشترکان داخلی نبوده و تلفن مشترکین خارجی در نمایندگی‌ها و سفارت‌های دیپلماتیک در روسیه (از جمله سفارتخانه‌های ناتو)، کشورهای تازه استقلال یافته پس از فروپاشی شوروی و همچنین اسرائیل، سوریه و چین را نیز شامل می‌شده است.»

مقامات امنیتی روسیه گفته‌اند اطلاعات به دست آمده نشان از «همکاری نزدیک بین اپل و سرویس‌های اطلاعاتی ایالات متحده به‌ویژه آژانس امنیت ملی آمریکا» دارد. آن‌ها اپل را متهم کرده‌اند که سیاست اعلام‌شده‌اش در تضمین حفظ حریم خصوصی و اطلاعات شخصی کاربران «با واقعیت مطابقت ندارد».

وزارت خارجه روسیه نیز در بیانیه‌ای گفته است: «سرویس‌های اطلاعاتی ایالات متحده برای چندین دهه از محصولات شرکت‌های فناوری برای جمع‌آوری داده‌های کاربران اینترنت در مقیاس بزرگ و بدون اطلاع آن‌ها استفاده کرده‌اند.»

مقامات امنیتی روسیه درباره این بدافزار و نحوه کار آن جزئیات بیشتری را فاش نکرده‌اند. همچنین هنوز مشخص نشده است که مسکو چگونه این اطلاعات را به دست آورده است.

شرکت اپل و همینطور مقامات امنیتی آمریکا هنوز نسبت به این گزارش‌ واکنشی نشان نداده‌اند.

بر اساس شاخص قدرت سایبری مرکز بلفر دانشگاه هاروارد، ایالات متحده برترین قدرت سایبری جهان است و پس از آن چین، روسیه، بریتانیا و استرالیا قرار دارند.

پیشتر و کمی پس از اعزام نیروهای روسیه به اوکراین در سال گذشته، جاسوسان ایالات متحده و بریتانیا فاش کردند به اطلاعاتی دست یافته‌اند که نشان می‌دهد ولادیمیر پوتین رئیس جمهور روسیه قصد حمله به اوکراین را دارد.

متا پلتفرمز اعلام کرده در آینده نزدیک تست هایی انجام می دهد که دسترسی به اخبار و اشتراک گذاری محتوا توسط کاربرانی خاص و ناشران را در کانادا محدود می کند.
به گزارش خبرگزاری مهر به نقل از اینترستینگ انجینرینگ، بازه آزمایشی مذکور چند هفته ادامه می یابد و درصد اندکی از کاربران کانادایی که در تست شرکت می کنند در صورتیکه بخواهند محتوای خبری به اشتراک بگذارند، برای آنها نوتیفیکیشن ارسال می شود.

تست مذکور در واکنش به قانون پیشنهادی «اخبار آنلاین» در کانادا انجام می شود که در آوریل سال گذشته اعلام شد. قانون مذکور پلتفرم هایی مانند متا و آلفابت( شرکت مادر گوگل) را مجبور می کند برای انتشار محتوای ناشران اخبار کانادایی با آنها مذاکره و قرارداد امضا کنند.

متا در ماه مارس ۲۰۲۳ میلادی هشدار داد در صورتیکه لایحه مذکور به شکل فعلی خود اجرا شود، دسترسی به محتوای خبری برای کاربران کانادایی محدود خواهد شد.

پابلو رودریگز وزیر میراث کانادا که سال گذشته این لایحه را ارائه کرده بود، تست متا را غیرقابل قبول خواند. او در این باره گفت: هنگامیکه یک شرکت فناوری بزرگ به ما می گوید، اگر این کار را انجام ندهید من سرویس ارائه نخواهم کرد، این یک تهدید است.

گوگل تست مشابهی که محتوای خبری را برای برخی کاربران کانادایی محدود می کند را به عنوان آزمایشی در برابر واکنش احتمالی به لایحه اخبار آنلاین انجام داد.

نقش کاربران در انتشار اخبار نادرست

شنبه, ۱۳ خرداد ۱۴۰۲، ۰۲:۵۴ ب.ظ | ۰ نظر

تحقیقات جدید نشان داده تعصبات سیاسی یا نبود تفکر انتقادی، تنها دلیل انتشار اطلاعات نادرست در شبکه‌های اجتماعی نیست.
به گزارش آنا، مسئولیت انتشار اطلاعات نادرست در شبکه‌های اجتماعی اغلب بر دوش کاربران قرار می‌گیرد، اما یافته‌های جدید تحقیق دانشگاه کالیفرنیای جنوبی این سوءبرداشت را به چالش می‌کشد که می‌گوید تعصب سیاسی و نبود تفکر انتقادی صرفاً مقصر این اتفاق هستند.

یک تحقیق جدید نشان می‌دهد که وقتی افراد به دنبال ایجاد پایگاه و اعتبار اجتماعی برای خود در بستر پلتفرم‌هایی مانند فیسبوک هستند بر حسب عادت اطلاعات را به اشتراک می‌گذارند. این یافته جدید این سوءبرداشت را به چالش می‌کشد که می‌گوید تعصب سیاسی و نبود تفکر انتقادی تنها دلایل انتشار اخبار کذب هستند.

تئوری‌های مختلفی برای توضیح انگیزه‌های انتشار اطلاعات نادرست ارائه شده‌اند که بیشترشان تقصیر‌ها را به گردن کاربران می‌اندازند. بی توجه بودن، نداشتن تفکر انتقادی و فکر نکردن به پیامد‌های کارمان، وقتی که اطلاعاتی را در اینترنت منتشر می‌کنیم، می‌توانند باعث این شوند که افراد به اعتبار محتوایی که تولید می‌کنند توجه نکنند.

وندی وود، یکی ازمحققان دانشگاه کالیفرنیای جنوبی گفت: «پاسخ‌های به دست آمده از تحقیقات قبلی عمدتاً تقصیر را به گردن نقص و کم کاری افراد می‌اندازند، مثلاً انگیزه پایین کاربران یا نداشتن توانایی تشخیص صحیح بودن اطلاعات. با این حال، سیستم رسانه‌های اجتماعی گسترده تر، به خصوص ساختار انگیزشی در سایت‌های رسانه‌های اجتماعی، سعی در ایجاد عادت‌های تبادل و به اشتراک گذاری اطلاعات با بذل توجه بیشتر دارند.»

 

** تحقیق روی اخبار کذب فیس بوک

وود و همکارانش شروع کردند به بررسی این که چگونه اطلاعات نادرست توسط کاربران شبکه‌های اجتماعی به اشتراک گذاشته می‌شوند. برای این منظور آن‌ها روی افرادی که دارای حساب در فیسبوک بودند چهار نوع تحقیق مختلف انجام دادند و در این تحقیقات هم خبر‌های کذب و هم خبر‌های دارای سوگیری ارائه شدند.

در سه تحقیق اول، محققان یک آزمایش پایه مشابه را اجرا کردند که در آن‌ها به تمام شرکت کننده‌ها ۱۶ تیتر خبر درست یا غلط ارائه کردند و از آن‌ها خواستند تا درباره انتشار یا عدم انتشار آن‌ها تصمیم بگیرند. بعد از این، شرکت کننده‌ها در یک پایش شرکت کردند که قدرت و شدت عادت‌های تبادل اطلاعات در شبکه‌های اجتماعی آن‌ها را می‌سنجید. بر اساس این نظرسنجی، اشتراک گذار‌های از روی عادت قوی افرادی بودند که به سرعت خبر‌های دریافتی را در فیسبوک منتشر کردند، در حالی که اشتراک گذار‌های از روی عادت ضعیف به دفعات کمتر و با احتیاط خبر‌ها را منتشر می‌کردند.

این محققان در تحقیق اولیه‌شان متوجه شدند که کاربرانی که از روی عادت خبر‌هایی را منتشر می‌کنند (که از این به بعد به آن‌ها می‌گوییم کاربران عادتی) تیتر‌های بیشتری را به اشتراک گذاشتند و در مقایسه با کاربران ضعیف رسانه‌های اجتماعی قدرت تمییز و بصیرت کمتری داشتند. افراد با عادت‌های ضعیف تقریباً چهار برابر بیشتر از افراد دارای عادت‌های قوی بصیرت داشتند. علاوه بر این، ۱۵% از کاربران عادتی ۳۷% از اطلاعات غلط را به اشتراک گذاشتند. گیزم سیلان، محقق دانشگاه ییل گفت: «اشتراک گذارندگان عادتی به طور متوسط پنج تا شش برابر بیشتر از کاربران غیرعادتی اطلاعات نادرست را به اشتراک گذاشتند.»

سپس، محققان می‌خواستند ببینند که آیا اضافه کردن اطلاعات درباره صحت تیتر‌ها منجر به کاهش انتشار اطلاعات کذب می‌شود یا نه. وقتی که شرکت کننده‌ها صحت یک تیتر را قبل از این که تصمیم به انتشار آن بگیرند ارزیابی می‌کردند، انتشار کلی اخبار نادرست کاهش پیدا کرد. اما بیشتر کاربران عادتی همچنان هنگام انتشار خبر‌ها بصیرت کمی از خود نشان می‌دادند، علیرغم این که می‌دانستند آن اطلاعات نادرست هستند. این بدین معنا بود که کاربران عادتی توجه کمی مبذول می‌کردند و حساسیتی به درست بودن اطلاعات نداشتند. از سوی دیگر، کاربران عادتی ضعیف تقریباً دو برابر بیشتر از کاربران عادتی بصیرت از خود نشان می‌دادند.

 

** جایگاه گرایشات سیاسی کاربران

در آزمایش سوم، کاربران باید قبل از تصمیم گیری درباره انتشار خبر‌ها لیبرال یا محافظه کار بودن آن‌ها را در نظر می‌گرفتند. محققان متوجه شدند که کاربران عادتی توجه زیادی نشان نمی‌دادند و خبر را حتی اگر همسو با گرایشات سیاسی شان نبود منتشر می‌کردند، در حالی که کاربران عادتی ضعیف حتماً کمتر خبر‌هایی که مغایر با باور‌ها و گرایشات سیاسی شان بودند را منتشر می‌کردند.

این تیم در آزمایش آخرشان مستقیماً ساختار پاداش پلتفرم‌های شبکه‌های اجتماعی را هدف قرار دادند. آن‌ها کاربران را به دو طریق تشویق می‌کردند: روش اول به اشتراک خبر‌های درست جایزه می‌داد و روش دوم به اشتراک خبر‌های نادرست جایزه می‌داد.

سیلان گفت: «مشوق‌های درست بودن نه محبوب بودن (چیزی که اغلب در سایت‌های شبکه‌های اجتماعی مرسوم است) میزان به اشتراک گذاری خبر‌های درست توسط کاربران را دو برابر کرد. این ثابت می‌کند که شرکت کننده‌هایی که عادت انتشار اطلاعات درست یا اطلاعات نادرست را درخود نهادینه کرده اند، به انتشار آن اطلاعات جایزه دار ادامه می‌دهند، حتی اگر بدانند دیگر جایزه‌ای دریافت نمی‌کنند.» با بازطراحی روش‌های اعطای مشوق و جایزه پلتفرم‌ها به کاربران، ممکن است افراد تشویق به انتشار اطلاعات صحیح شوند.

پلتفرم‌های شبکه‌های اجتماعی و الگوریتم هایشان طوری طراحی می‌شوند که افراد را تا جایی که ممکن است درگیر خود نگه دارند. با صرف زمان بیشتر برای کاربران عادتی آن‌ها انگیزه لازم برای ارسال و تبادل خبر‌هایی که بیشترین توجه را از کاربران دیگر جذب می‌کنند، بدون توجه به درست یا نادرست بودنشان، را به دست می‌آورند.

یان اندرسون، محققی از دانشگاه کالیفرنیای جنوبی گفت: «کاربران دارای عادت‌های قوی به صورت اتوماتیک و خودکار واکنش نشان می‌دهند و زمانی که پلتفرم به آن‌ها سرنخ می‌دهد اطلاعات را به اشتراک می‌گذارند. آن‌ها به تبعاتش مانند گمراه کردن دیگران یا حتی نشر اطلاعاتی که درتضاد با باور‌های سیاسی شان هستند توجه نمی‌کنند.»

برای کند کردن روند انتشار اطلاعات کاذب، افرادی که زمان زیادی را در شبکه‌های اجتماعی سپری می‌کنند می‌توانند بر استفاده شان نظارت کنند. گزینه دیگر می‌تواند به تاخیر انداختن اشتراک هرگونه اطلاعات به اندازه یک دقیقه باشد، این کار باعث می‌شود تا کاربران بیشتر احتیاط به خرج دهند.

علاوه بر این محدودیت‌های خودخواسته در استفاده، تلاش‌ها برای پرداختن به معضل انتشار اطلاعات کاذب منحصراً بر شانه شبکه‌های اجتماعی است. وود گفت: «نتایج ما طوری طراحی شده‌اند که بازسازی پتلفرم‌های شبکه‌های اجتماعی و ساختار پاداش دهی فعلی شان را به سمتی هدایت می‌کنند که اشتراک اطلاعات صحیح را به جای اطلاعات محبوب و عامه پسند تشویق می‌کنند.»

 

** محدود کردن محتوای نادرست در شبکه‌های اجتماعی

پلتفرم‌هایی مانند توئیتر و فیسبوک محتوایی را تقویت می‌کنند که توجه‌ها را جلب می‌کنند و آن‌ها را در صدر خوراک رسانه‌های اجتماعی افراد قرار می‌دهند. پست‌هایی که ناگهان و به سرعت بالا می‌آیند اغلب غافلگیرکننده، تحریک کننده، تعصبی یا نادرست هستند. اما محققان به دنبال تعدیل محتوا نیستند. سیلاگفت، به جای تقویت فوری انتشار محتوای وایرال، «پلتفرم‌های شبکه‌های اجتماعی بهتر است که یک دوره تحریم یا تایید معرفی کنند که با تعداد زیاد به اشتراک گذاری‌ها شروع می‌شود.»

اگر معلوم شود که یک محتوا نادرست است و همزمان مورد تحریم قرار بگیرد، دیگر افراد زیادی آن را نمی‌بینند. محدود کردن انتشار چنین محتوا‌هایی به طرز چشمگیری از میزان خطر می‌کاهد. یک پیشنهاد رادیکالتر می‌تواند تغییر الگوریتم و اولویت بندی صحت و نه صرفاً مشارکت باشد. رویکرد دیگر می‌تواند اضافه کردن کلید‌ها یا دکمه‌های واکنش دقیقتر باشد، واکنش‌هایی که دقیقتر از لایک و به اشتراک گذاری صرف هستند. وود می‌گوید این‌ها می‌توانند شامل دکمه‌هایی باشند که می‌توانند به افراد در تصمیم گیری کمک کنند، دکمه‌هایی مانند «اعتماد دارم»، «اعتماد ندارم»، «باید چک شود» یا «صرفه نظر می‌کنم.».

این تغییرات می‌توانند افراد را تشویق به نادیده گرفتن خبر‌های نادرست و محتوای کذب کنند. حداقل آن‌ها می‌توانند کاربران را وادار کنند تا فراتر از فکر کردن به لایک و اشتراک گذاری به چیز‌های دیگری هم فکر کنند. این تیم امیدوار است در آینده بتواند یافته هایش را در یک محیط رسانه اجتماعی واقعی با جمعیت‌های متنوع‌تر ارزیابی کند.

ناظر حریم خصوصی ژاپن به استارت آپ «اوپن ای آی»، سازنده هوش مصنوعی جی پی تی، هشدار داده تا داده های حساس مشتریان را بدون رضایت آنها جمع آوری نکند.

به گزارش خبرگزاری مهر به نقل از رویترز، کمیسیون حفاظت از اطلاعات خصوصی ژاپن در بیانیه ای اعلام کرد اوپن ای آی باید جمع آوری داده های حساس برای ماشین یادگیری را به حداقل برساند. همچنین این سازمان در صورتیکه نگرانی های بیشتری داشته باشد، اقدامات دیگری انجام خواهد داد.

رگولاتورهای سراسر جهان مشغول بررسی هستند تا قوانینی ناظر بر استفاده از هوش مصنوعی مولد را تصویب کنند. این نوع از فناوری می تواند متون و تصاویری بسازد که تاثیرگذاری آنها با ظهور اینترنت قابل مقایسه است.

هرچند به نظر می رسد ‌ژاپن از فناوری های اخیر عقب مانده، اما انگیزش بیشتری برای دستیابی به هوش مصنوعی و رباتیک دارد تا بتواند بهره وری را همزمان با کاهش محبوبیت خود حفظ کند.

این ناظر اعلام کرد باید میان نگرانی هایی درباره حریم خصوصی و مزایای هوش مصنوعی مولد ( ازجمله تسریع فناوری و دست و پنجه نرم کردن با مشکلاتی مانند تغییرات آب وهوایی)توازن برقرار شود.

طبق آمار شرکت Similarweb، ژاپن سومین منبع بزرگ ترافیک در وب سایت اوپن ای آی به حساب می آید. سم آلتمن مدیر ارشد اجرایی شرکت در آوریل و قبل از اجلاس G۷ با فومیو کیشیدا نخست وزیر ژاپن درباره گسترش هوش مصنوعی ملاقات کرد.

اتحادیه اروپا که درحوزه قانونگذاری فناوری پیشرو است، یک نیروی ضربتی در خصوص چت جی پی تی ایجاد کرده و مشغول نوشتن نخستین قوانین ناظر بر هوش مصنوعی است.

سرلشکر ارتش ویلیام هارتمن، توسط جو بایدن به عنوان معاون بعدی فرماندهی سایبری ایالات متحده منصوب شده است که اصلاحات اساسی در رهبری سازمان برتر جنگ دیجیتال ارتش را تکمیل خواهد کرد.
 هارتمن، که از سال 2019 نیروی ماموریت ملی سایبری نخبگان فرماندهی سایبری را رهبری می‌کند، روز سه‌شنبه برای سومین پست خود نامزد شد، اگرچه سوابق کنگره مشخص نمی‌کند که دقیقا کدام پست به اون داده خواهد شد.
یک منبع کنگره تأیید کرده که هارتمن به عنوان فرد شماره 2 جدید فرماندهی انتخاب شده است، ارتقایی که هفته ها در مورد آن در داخل فرماندهی شایعاتی وجود داشته است.
در صورت تایید سنا، هارتمن جایگزین ژنرال تیموتی هاگ خواهد شد.
دولت روز چهارشنبه رسماً اعلام کرد که هاگ نامزد رئیس جمهور برای هدایت فرماندهی سایبری و آژانس امنیت ملی است و جایگزین ژنرال ارتش پل ناکاسونه می شود که پس از بیش از پنج سال در سمتی دوگانه بازنشسته می شود.
هارتمن سالها سابقه کار در فرماندهی سایبر و با هاگ دارد.
قبل از رهبری نیروی ماموریت ملی سایبری، او به عنوان معاون فرمانده ستاد مشترک نیروی زمینی-ارتش سایبری، نظارت بر تیم‌های دیجیتال و عملیات در آمریکای شمالی، خاورمیانه و آفریقا را بر عهده داشت.
او سپس به عنوان رئیس نیروی ماموریت ملی سایبری، جانشین هاگ شد که ابتدا در سال 2014 فعال شد و اکنون متشکل از 39 تیم سایبری مشترک با بیش از 2 هزار پرسنل نظامی و غیرنظامی است و به عنوان رهبر مشترک فرماندهی سایبری در یک کارگروه امنیتی انتخابات مشترک با آژانس امنیت ملی آمریکا است که برای انجام حفاظت از انتخابات ریاست جمهوری 2020 سرگرم هستند.
هارتمن ماه گذشته در کنفرانس آر اس اس (RSA) در سانفرانسیسکو برخی از این اقدامات علیه هکرهای ایرانی را علنا فاش کرده بود.
این نیرو در حال انجام یک مأموریت شناسایی در فضای مجازی خارجی بود که متوجه شد پایونیر کیتن، یک گروه هکری مرتبط با ایران، به زیرساخت‌های محلی یک شهر دسترسی پیدا کرده است که برای ثبت نتایج رأی‌گیری برای انتخابات ۲۰۲۰ استفاده می‌شده است.

هارتمن به خبرنگاران می گوید: تنها چیزی که به شما می‌گویم این است که ما توانستیم بیرون برویم و دسترسی آنها به این شبکه‌ها را اصلاح کنیم.

در دوران تصدی هارتمن، نیروی ماموریت ملی سایبری در سبد و اهداف امنیت ملی فرماندهی، مانند امنیت انتخابات، تقویت نیروهای اوکراین در برابر هکرهای روسی و نبردهای مداوم علیه جاسوسی دیجیتال و باج افزار، به مرکزیت تبدیل شده است.
زیربنای همه این کارها، مأموریت های «شکار رو به جلو» فرماندهی برای مطالعه دست اول تاکتیک های دیجیتالی دشمنان خارجی و به دست آوردن نمونه های بدافزار جدید بوده است.
تعداد چنین مأموریت‌هایی در سال‌های اخیر افزایش یافته است و پرسنل آمریکایی تا به امروز در نزدیک به 22 کشور از جمله چندین بار در اوکراین مستقر شده‌اند.
ناکاسونه در اوایل این ماه در گفت و گو با خبرنگاران پیش بینی کرده بود که با ادامه تهاجم روسیه به اوکراین، ماموریت ها افزایش خواهند یافت.
ناکاسونه، که خود رئیس سابق نیروی ماموریت ملی سایبری نیز می باشد، می گوید: شرط می‌بندم که درخواست بزرگ‌تری برای آن در مورد عملیات‌های شکار رو به جلو وجود دارد. کشورهای ناتو در حال تلاش برای تقویت دفاع سایبری خود هستند.

نیروی ماموریت ملی سایبری چنان به فرماندهی سایبری تبدیل شده است که اواخر سال گذشته، وزیر دفاع لوید آستین به آن اجازه داد تا به یک سازمان تابعه دائمی در این فرماندهی تبدیل شود.
نامزدی هارتمن به این معنی است که سپاه دیجیتال فرماندهی نیز به یک رئیس جدید نیاز خواهد داشت.
منابع به خبرگزاری ریکورد (The Record) می گویند که سرلشکر لورنا ماهلاک، که سال گذشته اولین ژنرال زن سیاهپوست در تاریخ نیروی تفنگداران دریایی شد، به احتمال زیاد این جایزه را دریافت خواهد کرد.
ماهلاک، که منابع می گویند از حمایت ناکاسونه برخوردار است، در حال حاضر به عنوان معاون مدیر پشتیبانی رزمی اداره امنیت سایبری آژانس امنیت ملی آمریکا فعالیت می کند.
یک سخنگوی  نیروی ماموریت ملی سایبری درخواستی را برای اظهار نظر به وزارت دفاع ارجاع داده است اما سخنگوی پنتاگون از اظهار نظر خودداری کرده است. (منبع:  سایبربان)

تشدید جنگ تراشه‌ای چین و آمریکا

شنبه, ۱۳ خرداد ۱۴۰۲، ۰۲:۴۱ ب.ظ | ۰ نظر

چین در اقدامی تلافی جویانه،محصولات شرکت آمریکایی میکرون را ممنوع کرد.
به گزارش سایبربان، مجلس نمایندگان از دولت جو بایدن، رئیس جمهوری آمریکا خواستند تا متحدان آمریکا از جمله ژاپن و کره جنوبی را برای شکست چین در پی ممنوعیت پکن در خرید تراشه های حافظه ای میکرون تکنولوژی (Micron Technology) بسیج نماید. میکرون تراشه های حافظه ای میسازد که کاربرد های وسیعی از موبایل گرفته تا سرورهای مراکز داده دارد.

مایکل مک کول که ریاست کمیته امور خارجی مجلس نمایندگان را بر عهده دارد و مایک گالاگر، رئیس کمیته منتخب مجلس نمایندگان در حزب کمونیست چین، با ارسال نامه ای به جینا ریموندو، وزیر بازرگانی آمریکا از دولت خواستند تا پس از ممنوعیت محصولات شرکت میکرون آمریکا توسط چین، دست به اقدام بزند.

رگولاتور فضای سایبری چین در ۲۱ مه اعلام کرد که میکرون در بررسی امنیت شبکه خود شکست خورده است و اپراتورهای زیرساخت های کلیدی چین را از خرید از این شرکت منع خواهد کرد. کارین ژان پیر، دبیر مطبوعاتی کاخ سفید به خبرنگاران گفته بود بیانیه دولت چین درباره میکرون براساس واقعیت‌های موجود نیست. این اقدام یک روز پس از آن صورت گرفت که رهبران گروه صنعتی G7 با اقدامات جدیدی برای مقابله با چین موافقت کردند.

مک کول و گالاگر از ریموندو خواستند تا همکاری خود را با ژاپن و کره جنوبی بیشتر نماید تا این اطمینان حاصل شود که شرکت های کره ای و ژاپنی همچنان از محصولات میکرون خریداری میکنند و متحدان آمریکا هستند.

ریموندو اعلام کرد که ایالات متحده به این اقدام چین پاسخ خواهد داد و از نزدیک با متحدان خود برای رسیدگی به چنین اقدامی همکاری می نماید.

مک کول و گالاگر گفتند که اقدام چین علیه میکرون نباید بازدارنده باشد چون ممکن است منافع امنیت ملی یا سیاست خارجی آمریکا را تهدید کند. بلکه باید اقدامات کنترل صادرات علیه شرکت های PRC (شرکتهای جمهوری خلق چین) را تقویت نماید.

افزایش سرعت اپ جیمیل با هوش مصنوعی

شنبه, ۱۳ خرداد ۱۴۰۲، ۰۲:۳۷ ب.ظ | ۰ نظر

گوگل اعلام کرد که اپلیکیشن موبایل جیمیل با کمک هوش مصنوعی و مدل‌های یادگیری ماشینی می‌تواند در هنگام جستجو بهترین نتایج را به شما نشان دهد.
به گزارش سایبربان،ویژگی دستیار ایمیل هوش مصنوعی (AI Mail Assistant) افزونه جدید جیمیل است که از فناوری پیشرفته هوش مصنوعی برای ایجاد تحول در مدیریت ایمیل استفاده میکند. این افزونه شامل ویژگی هایی مانند پاسخگوی خودکار، خلاصه کننده ایمیل، ترجمه ایمیل به 13 زبان، ویژگی پیش نویس برای پیشنهاد تغییرات و بهبود ساختار متن، تجزیه و تحلیل متن و در نهایت راهی برای پرسیدن مستقیم سوالات از چت جی پی تی (ChatGPT)  بدون نیاز به حساب کاربری اوپن اِی آی (OpenAI) میباشد.

دستیار ایمیل هوش مصنوعی (AI Mail Assistant) ضمن ارائه نتایج سریع، دقیق و حرفه ای، در زمان و انرژی کاربر صرفه جویی میکند و آن را به انتخابی هوشمندانه تر از ابزارهای مدیریت ایمیل پایه تبدیل میکند. دستیار ایمیل هوش مصنوعی (AI Mail Assistant) با استفاده از GPT -4 ، پیشرفته ترین فناوری هوش مصنوعی اوپن اِی آی (OpenAI)، سرعت و کارایی بینظیری ارائه و آن را بهتر از هر ابزار مدیریت ایمیل دیگری در دسترس قرار میدهد. با استفاده از این ابزار،میتوان زمان بیشتری را صرف امور مهم و زمان کمتری را صرف ایمیل ها نمود.

امکانات این ابزار شامل موارد زیر میباشد:
میتوانید پاسخ ایمیلهای خود را ایجاد کنید.
میتوانید ایمیلهای طولانی را تنها با یک کلیک خلاصه کنید.
میتوانید تنها با یک کلیک ، دستور زبان و هر گونه خطا در پیش نویسهای خود را اصلاح کنید.
میتوانید ایمیلهای دریافتی یا پیش نویس خود را به ۱۳ زبان مختلف (انگلیسی، فرانسوی، اسپانیایی، ایتالیایی، آلمانی، پرتغالی، ژاپنی، عربی، هندی، ترکی، روسی، چینی و کره ای) ترجمه کنید.
میتوانید نامه یا پیش نویس خود را برای مسائل اخلاقی مختلف تحلیل کنید و بازخورد بگیرید.
میتوانید هر سوالی را از صندوق پستی خود، بدون نیاز به حساب OpenAI بپرسید.

دستیار ایمیل هوش مصنوعی (AI Mail Assistant) را میتوان از قسمت مارکت پِلیس گوگل جی سوئیت (GSuite) نصب نمود.

این اپلیکیشن، حریم خصوصی و امنیت کاربران را تضمین نموده و آنان را در برابر هرگونه نقض و سوء استفاده محافظت میکند.

کاربران ابزار انتقال طعمه هکرها شدند

جمعه, ۱۲ خرداد ۱۴۰۲، ۰۸:۳۶ ب.ظ | ۰ نظر

یک روز پس از آن که سازنده نرم افزار انتقال فایل MOVEit Transfer از کشف یک حفره امنیتی خبر داد، محققان امنیتی اعلام کردند هکرها، اطلاعات سیستم‌های تعدادی از کاربران این ابزار انتقال فایل مدیریت شده را به سرقت بردند.
 به گزارش ایسنا شرکت نرم افزاری پروگرس سافت وار (Progress Software) پس از آن که این آسیب پذیری را فاش کرد، اعلام کرد حفره امنیتی مذکور ممکن است به دسترسی غیرمجاز به سیستم‌های کاربران منتهی شود.
 نرم افزار انتقال فایل مدیریت شده MOVEit Transfer که از سوی این شرکت تولید شده است، به سازمان‌ها اجازه می دهد فایلها و داده ها را بین شرکای تجاری و مشتریان منتقل کند.
 هنوز مشخص نیست کدام یا چه تعداد سازمان از این نرم افزار استفاده می‌کنند یا دچار رخنه امنیتی احتمالی شده اند.
 ایان پیت، مدیر مدیر ارشد اطلاعات پروگرس سافت وار از دادن این جزئیات خودداری کرد اما گفت: این شرکت از زمانی که این آسیب پذیری را در ۲۸ مه کشف کرد، وصله هایی را در دسترس قرار داده است. وی به رویترز گفت خدمات ابری این نرم افزار هم تحت تاثیر این آسیب پذیری قرار گرفته است اما تاکنون هیچ گونه بهره برداری از پلتفرم ابری را مشاهده نکرده ایم.
 شرکت امنیتی سایبری راپید سون (Rapid۷) و ماندیانت کانسالتینگ (Mandiant Consulting) که متعلق به شرکت گوگل است، اعلام کردند مواردی را شناسایی کردند که در آنها این حفره برای سرقت اطلاعات مورد بهره برداری قرار گرفته است.
 چارلز کارماکال، مدیر ارشد فناوری ماندیانت گفت: بهره‌برداری گسترده و سرقت اطلاعات طی چند روز گذشته اتفاق افتاده است. آسیب‌پذیری‌های شناسایی نشده در راهکارهای انتقال فایل مدیریت شده، در گذشته به سرقت اطلاعات، رخنه اطلاعاتی، اخاذی و شرمسار کردن قربانیان منتهی شده است.
 هر چند این شرکت هنوز انگیزه عامل تهدید را نمی داند اما سازمان‌ها باید خود را برای اخاذی احتمالی و انتشار اطلاعات مسروقه آماده کنند. 
شرکت راپید سون هم اعلام کردکه متوجه افزایش موارد رخنه امنیتی مربوط به این حفره امنیتی از زمان شناسایی شدن آن شده است.
 بر اساس گزارش رویترز، شرکت پروگرس سافت وار اقداماتی را تشریح کرده است که کاربران در معرض خطر می‌توانند برای خنثی کردن تاثیر این آسیب‌پذیری امنیتی انجام دهند.
 مدیر ارشد اطلاعات این شرکت گفت: این ابزار انتقال فایل توسط شمار نسبتا کوچکی از مشتریان در مقایسه با محصولات نرم افزاری دیگر این شرکت استفاده شده است.

روسیه واتس اپ را ۳میلیون روبل جریمه کرد

جمعه, ۱۲ خرداد ۱۴۰۲، ۰۸:۳۵ ب.ظ | ۰ نظر

دادگاهی در روسیه پیام رسان واتس اپ را به دلیل پاک نکردن محتوای ممنوعه ۳ میلیون روبل(۳۷۰۸۰ دلار) جریمه کرد. 
به گزارش خبرگزاری مهر به نقل از رویترز، روسیه سال گذشته متا پلتفرمز، شرکت مادر واتس اپ را یک سازمان افراط گرا معرفی کرد.

دیگر سرویس های متا یعنی فیس بوک و اینستاگرام هم اکنون در روسیه ممنوع شده اند و پیش از این نیز به دلیل حذف نکردن محتوا جریمه شده بودند. البته واتس اپ قبلا به دلیل حذف نکردن اطلاعاتی درباره داروی Lyrica که فروش و تولید آن در روسیه ممنوع است، جریمه شده بود.

همچنین این دادگاه بنیاد ویکی مدیا (مالک ویکی پدیا) را برای حذف نکردن محتوایی که روسیه اطلاعات اشتباه درباره عملیات نظامی در اوکراین قلمداد می کند، ۳ میلیون روبل جریمه کرده است.

دولت روسیه در سال های اخیر با شرکت های بزرگ فناوری به دلایل مختلف از جمله محتوا و سانسور، رویارویی های متعددی داشته است.

اینترنت مانع کند ذهنی پیرها می‌شود

جمعه, ۱۲ خرداد ۱۴۰۲، ۰۸:۲۱ ب.ظ | ۰ نظر

نتیجه مطالعات جدید نشان می‌دهد استفاده از اینترنت در کهنسالی موجب جلوگیری از ناکارآمدی‌های مغز (کند ذهنی) می‌شود.
به گزارش خبرگزاری صدا و سیما؛ به نقل از شبکه تلویزیونی تی آر تی عربی، در میان هشدار‌های متعدد برای پرهیز از تمرکز بیش از حد به شبکه‌های عنکبوتی، نتیجه مطالعه‌ای در آمریکا کهنسالان را به استفاده بیشتر از اینترنت به عنوان راهکاری برای حمایت از حافظه در دوران پیری تشویق می‌کند.
به موجب این مطالعه افراد مسنی که به صورت منظم از اینترنت استفاده می‌کنند کمتر در معرض ابتلا به کند ذهنی و مشکلات ناشی از زوال عقل هستند.
این مطالعه که نتیجه آن در نشریه جمعیت پزشکی کهنسالان آمریکا منتشر شد نتیجه هشت سال آزمایش و تحقیق بر روی افرادی در سنین ۵۰ تا ۶۵ سال است.
البته در این مطالعه ارتباط دقیق میان استفاده از اینترنت و سلامتی مغز اثبات نشد، اما در آن آمده است استفاده از اینترنت در افزایش یافته‌های شناختی و حفاظت از این یافته‌ها اثر بخش است و این می‌تواند زیان ناشی از کهنسالی بر مغز را جبران کند به همین دلیل میزان ابتلا به کند ذهنی را کاهش می‌دهد.
متخصصان می‌گویند تقویت روابط کهنسالان با دیگران و فاصله گرفتن آنان از تنهایی و انزوای در زندگی، از موارد مثبت به کارگیری اینترنت است ضمن اینکه با استفاده از اینترنت اطلاعات و مهارت‌های جدیدی را می‌آموزند که این موارد انگیزه‌ای برای فعالیت بیشتر مغز است تا روند ابتلا به خرفتی کاهش یابد.
آنچه پیداست اینکه این مطالعه فرصتی برای ارتباط بیشتر میان پدر بزرگ‌ها ومادربزرگ‌ها با فرزندان و نوه‌ها را فراهم می‌سازد و همین ارتباط فضای بهتری را برای سلامتی دو طرف به وجود می‌آورد.

چینی‌ها ۷۹ مدل زبان بزرگ هوش مصنوعی ساختند

چهارشنبه, ۱۰ خرداد ۱۴۰۲، ۰۲:۵۴ ب.ظ | ۰ نظر

طبق گزارش موسسات تحقیقاتی دولتی، سازمان‌های چینی ۷۹ مدل زبان بزرگ (LLM) را در سه سال گذشته در این کشور راه‌اندازی کرده اند.
به گزارش خبرگزاری صدا و سیما به نقل از رویترز، طبق گزارش موسسات تحقیقاتی دولتی، سازمان‌های چینی ۷۹ مدل زبان بزرگ (LLM) را در سه سال گذشته در این کشور راه‌اندازی کردند، زیرا تلاش‌ها برای توسعه الگوریتم‌های هوش مصنوعی (AI) دو برابر شده است.

براساس گزارشی که توسط مؤسسات تحقیقاتی وزارت علوم و فناوری چین تهیه شده، توسعه مدل زبان بزرگ که با استفاده از تکنیک‌های یادگیری عمیق روی مقادیر انبوه داده‌های متنی آموزش داده شده‌اند، در سال ۲۰۲۰ وارد فاز شتاب‌یافته شد.

طبق گزارش منتشر شده در روز یکشنبه، در سال ۲۰۲۰، سازمان‌های چینی ۲ مدل زبان بزرگ منتشر کردند، در مقایسه با ۱۱ زبان در آمریکا، اما در سال ۲۰۲۱ در مجموع ۳۰ مدل زبان بزرگ در هر کشور منتشر شد.

بر اساس ارقام گردآوری شده در این گزارش، که موسسه اطلاعات علمی و فنی چین از جمله نویسندگان مشترک آن هستند، در سال بعد، سازمان‌های آمریکایی در مجموع ۳۷ مدل زبان بزرگدر سال بعد منتشر کردند، در حالی که ۲۸ مورد در چین منتشر شد.

تاکنون، چین با ۱۹ مدرک مدل زبان بزرگ از آمریکا پیشی گرفته است.

بر اساس بیانیه مطبوعاتی که به طور خلاصه در این گزارش آمده: با بررسی توزیع مدل‌های زبان بزرگ منتشر شده در سراسر جهان، چین و آمریکا با اختلاف زیادی پیشتاز هستند و بیش از ۸۰ درصد از تعداد کل جهان را تشکیل می‌دهند. آمریکا از نظر تعداد مدل‌های زبان بزرگ همیشه رتبه اول را در جهان داشته است.

این گزارش زمانی منتشر می‌شود که صنعت هوش مصنوعی چین با چالش‌های مهمی مواجه است، زیرا کنترل‌های صادراتی تحت رهبری آمریکا، سازمان‌های چینی را از دسترسی به نیمه‌رسانا‌هایی که برای آموزش مدل زبان بزرگ استفاده می‌شوند، محدود می‌کند.

این گزارش ۷۹ مدل زبان بزرگ توسعه یافته در چین را مورد تجزیه و تحلیل قرار داد و اشاره کرد که در حالی که در حال حاضر ۱۴ استان و منطقه وجود دارد که چنین فناوری در آن‌ها توسعه یافته، پروژه‌های توسعه مشترک بین دانشگاه و صنعت ناکافی بود.

پس از اینکه چت‌جی‌پی‌تی منتشر شد، غول‌های فناوری چینی، از علی بابا گرفته تا شرکت نظارتی Sensetime و غول موتور جستجو Baidu، نسخه‌های خود از چت‌بات‌های مجهز به هوش مصنوعی و مدل‎های زبانی بزرگ مولد را راه‌اندازی کردند.

حدود 10 درصد از 108 هزار پرسنل گارد ملی ایالات متحده در زمینه سایبری هستند، زیرا این گارد در حال توسعه عملیات سایبری تهاجمی و تدافعی در واحد هوایی 179 در منسفیلد، اوهایو، می باشد.
به گزارش سایبربان، ژنرال مایکل لوه، مدیر گارد ملی هوایی ایالات متحده در 30 می گفته است:

این نه تنها قسمت جدیدی از تجهیزات است، بلکه قسمتی از مأموریت‌ها نیز هست و حتی برخی از مأموریت‌های قدیمی مانند C-130‌های قدیمی را رها می‌کند و برای ایجاد برتری هوایی کاملاً جدید برای نیروی هوایی ایالات متحده، وارد فضای سایبری می‌شود. 

لوه به مرکز انجمن امنیت آمریکای جدید می گوید که چگونه می‌خواهد اثرات جنگی را از واحد 179 برای مقابله با روسیه، چین، کره شمالی، ایران و هر کشور به نظر او، دشمن ایالات متحده، ارائه کند.
ژوئیه گذشته، واحد هوایی 179، آخرین C-130H خود را بازنشسته کرد.
ژنرال چارلز کیو براون، رئیس ستاد نیروی هوایی، در 2 آوریل از واحد 179 در پایگاه گارد ملی هوایی منسفیلد-لام بازدید کرد.
نیروی هوایی می گوید که در 25 آگوست گذشته، واحد 179 را به عنوان اولین واحد فضای سایبری گارد ملی هوایی انتخاب کرده است و از آن زمان در حال تبدیل واحد، زیرساخت و ماموریت بوده است.
براون در بیانیه‌ای از نیروی هوایی در دیدار روز دوم آوریل خود از واحد 179 می گوید: منسفیلد یک فرصت منحصر به فرد دارد. کاری که شما اینجا انجام می دهید، تاکنون انجام نشده است. می‌توانید کتاب دستورالعمل این بازی را برای دیگران بنویسید تا آن را دنبال کنند.

لوه در 30 مه گفته بود که از 108 هزار پرسنل گارد ملی هوایی آمریکا، 11 هزار نفر در ماموریت سایبری شرکت دارند.
وی در ادامه افزود: ما همه کار ها را از عملیات سایبری تهاجمی گرفته تا عملیات سایبری دفاعی و تیم های حفاظت سایبری، مهندسی و تاسیسات و همچنین ارتباطات رزمی (افرادی که سایت های راه دور و یا امکانات اطلاعات محفظه حساس (SCIF) از راه دور را در هر نقطه از جهان مستقر و راه اندازی می کنند) خودمان انجام خواهیم داد و بسیاری از این موارد در گارد نیز وجود دارد. آنها همچنین اولین واحدهای واکنشی هستند. وقتی به نیروی رزمی سریع العمل فکر می کنید، آنها یکی از اولین کسانی هستند که بیرون می روند و این سایت های راه دور را راه اندازی می کنند و به ما اجازه می دهند نیروی هوایی را تحت سناریوهای نیروی رزمی سریع العمل (Agile Combat Employment) ارائه کنیم.

به نظر می رسد پنتاگون در حال افزایش تمرکز بر عملیات سایبری است. به عنوان مثال، ارتش ایالات متحده سال گذشته اعلام کرده بود که در حال برنامه ریزی برای راه اندازی دفتر برنامه جدید در سال جاری برای مدیریت قابلیت های تهاجمی سایبری و فضایی این سرویس است.